Académique Documents
Professionnel Documents
Culture Documents
d’observation météorologiques
Édition 2014
OMM-N° 8
Guide des instruments et des méthodes
d’observation météorologiques
Édition 2014
OMM-N° 8
NOTE DE L’ÉDITEUR
La base de données terminologique de l’OMM, METEOTERM, peut être consultée à l’adresse
http://public.wmo.int/fr/ressources/meteoterm.
Il convient d’informer le lecteur que lorsqu’il copie un hyperlien en le sélectionnant dans le
texte, des espaces peuvent apparaître après http://, https://, ftp://, mailto:, et après les barres
obliques (/), les tirets (-), les points (.) et les séquences de caractères (lettres et chiffres). Il faut
supprimer ces espaces de l’URL ainsi recopiée. L’URL correcte apparaît lorsque l’on place le
curseur sur le lien. On peut aussi cliquer sur le lien et copier l’adresse qui s’affiche dans le ruban
du navigateur.
OMM-N° 8
L’OMM se réserve le droit de publication en version imprimée ou électronique ou sous toute autre
forme et dans n’importe quelle langue. De courts extraits des publications de l’OMM peuvent
être reproduits sans autorisation, pour autant que la source complète soit clairement indiquée. La
correspondance relative au contenu rédactionnel et les demandes de publication, reproduction ou
traduction partielle ou totale de la présente publication doivent être adressées au:
ISBN 978-92-63-20008-2
NOTE
Les appellations employées dans les publications de l’OMM et la présentation des données qui y figurent
n’impliquent, de la part de l’Organisation météorologique mondiale, aucune prise de position quant au
statut juridique des pays, territoires, villes ou zones, ou de leurs autorités, ni quant au tracé de leurs frontières
ou limites.
La mention de certaines sociétés ou de certains produits ne signifie pas que l’OMM les cautionne ou les
recommande de préférence à d’autres sociétés ou produits de nature similaire dont il n’est pas fait mention
ou qui ne font l’objet d’aucune publicité.
TABLEAU DES MISES À JOUR
Partie/
Date chapitre/ Objet de l’amendement Proposé par Approuvé par
section
Mai 2017 Partie II, Ajout d’une nouvelle annexe contenant le Président de Décision 35
chapitre 5 texte de la norme commune la CIMO après (EC‑69)
OMM/ISO sur la télédétection du vent consultation des
par lidar Doppler pulsé hétérodyne Membres de
basée sur le sol (équivalent de ISO 28902- l’OMM
2:2017)
TABLE DES MATIÈRES
Page
PRÉFACE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii
CHAPITRE 1. GÉNÉRALITÉS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Page
L’un des objectifs de l’Organisation météorologique mondiale (OMM) est de coordonner les
activités de ses Membres s’agissant de la génération de données et d’informations sur le temps,
le climat et l’eau dans le respect des normes internationalement reconnues. Dans cette optique,
le Congrès météorologique mondial actualise à chaque session son règlement technique,
lequel définit les pratiques et procédures météorologiques que doivent suivre les Membres
de l’OMM. Au Règlement technique s’ajoutent un certain nombre de manuels et guides qui
décrivent les pratiques et procédures de façon plus détaillée. Les manuels contiennent des
pratiques normalisées, que les Membres doivent instaurer, et des pratiques recommandées, qu’il
leur est préconisé de suivre. Les guides, tel celui que vous lisez actuellement, contiennent des
pratiques auxquelles les Membres sont invités à recourir lorsqu'ils prennent leurs dispositions
pour se conformer au Règlement technique, de même que lorsqu'ils aménagent leurs services
météorologiques et climatologiques respectifs. Les textes réglementaires (Règlement technique
et manuels) décrivent les mesures à prendre et leurs agents, tandis que les guides renseignent sur
la meilleure façon de procéder.
La mise en œuvre du Système mondial intégré des systèmes d'observation de l'OMM (WIGOS)
repose sur la normalisation des observations météorologiques et connexes, avec pour buts
l’uniformisation des pratiques et procédures à l’échelle mondiale et l’amélioration de la précision
des observations. L’uniformité, la traçabilité et la qualité des observations sont essentielles pour la
majorité des applications de l’OMM, telles que la surveillance du climat, la prévision immédiate
et la prévision des conditions météorologiques, et contribuent donc à accroître le bien-être des
sociétés de toutes les nations.
Le présent guide est une ressource fondamentale, qui décrit la plupart des instruments, systèmes
et techniques d’usage courant, du plus simple au plus sophistiqué, sans traiter des méthodes
et instruments servant uniquement pour la recherche. Il est destiné à présenter les meilleures
pratiques et procédures et les capacités de base des instruments et systèmes afin d’aider les
Services météorologiques et hydrologiques nationaux et d’autres utilisateurs exploitant des
systèmes d’observation à élaborer leurs propres manuels et procédures, de façon à répondre
à leurs besoins spécifiques en termes de mesures et d’observations. La normalisation y est
intentionnellement restreinte aux exigences fondamentales et les recommandations aux
caractéristiques générales les plus répandues de diverses configurations d’un instrument ou
système de mesure donné, pour permettre le développement ultérieur de larges domaines. Le
Guide constitue la publication de référence pour toutes les questions liées aux instruments et
méthodes d’observation dans le cadre du WIGOS.
De la persévérance des experts est née l’édition 2014 du présent guide, approuvée par la CIMO
à sa seizième session (Saint-Pétersbourg, Fédération de Russie, juillet 2014). Outre l’actualisation
de la quasi-totalité des chapitres, cette nouvelle édition consiste en la révision complète de
plusieurs chapitres et l’ajout d’une partie étoffée sur les observations spatiales. Les conséquences
importantes de la récente Convention de Minamata sur le mercure (Programme des Nations
Unies pour l'environnement) pour les instruments contenant du mercure bénéficient d’un
éclairage particulier dans les chapitres correspondants.
La version actuelle du Guide se compose de 38 chapitres regroupés dans les quatre parties
suivantes: mesure de variables météorologiques, systèmes d’observation, observations spatiales,
et assurance de la qualité et gestion des systèmes d’observation.
viii GUIDE DES INSTRUMENTS ET DES MÉTHODES D’OBSERVATION MÉTÉOROLOGIQUES
Pour l’actualisation du présent guide, l’OMM a recueilli des contributions significatives grâce
à la remarquable collaboration entre la CIMO et la Commission des sciences de l'atmosphère,
la Commission technique mixte OMM/COI d'océanographie et de météorologie maritime, la
Commission des systèmes de base et le Système mondial d'observation du climat.
(Petteri Taalas)
Secrétaire général
PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
TABLE DES MATIÈRES DE LA PARTIE
Page
CHAPITRE 1. GÉNÉRALITÉS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Page
Page
CHAPITRE 1. GÉNÉRALITÉS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1 Observations météorologiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Représentativité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Métadonnées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Systèmes d’observation météorologiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Prescriptions générales pour une station météorologique. . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Stations météorologiques automatiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Observateurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Implantation et exposition des équipements . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.1 Choix du site . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.2 Coordonnées de la station. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3.3 Fonctionnement de l’équipement dans des conditions extrêmes . . . 12
1.3.4 Changements d’instruments et homogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.5 Inspection et maintenance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.5.1 Inspection des stations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.5.2 Maintenance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Exigences générales en matière d’instruments. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1 Caractéristiques souhaitables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.2 Instruments enregistreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Étalons et définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Définitions d’étalons. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.2 Dispositif adopté pour la normalisation des instruments . . . . . . . . . . . . . . . . . . 16
1.5.3 Symboles, unités et constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.3.1 Symboles et unités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.3.2 Constantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Incertitudes de mesure. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1 Mesures météorologiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1.1 Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1.2 Origines et estimations des erreurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.2 Définitions des mesures et des erreurs de mesure . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.3 Caractéristiques des instruments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6.4 Incertitudes de mesure propres à un instrument isolé. . . . . . . . . . . . . . . . . . . . . 22
1.6.4.1 Distribution statistique des observations. . . . . . . . . . . . . . . . . . . . . . . . 23
1.6.4.2 Estimation de la valeur vraie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.6.4.3 Expression de l’incertitude. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.6.4.4 Mesurages de valeurs discrètes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6.5 Exigences en matière d’exactitude. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6.5.1 Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6.5.2 Performance requise et réalisable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1.1 Généralités
Il existe bien d’autres sources d’information en la matière, et le lecteur est invité à se reporter
aux références fournies à la fin de chaque chapitre pour trouver une bibliographie relative aux
principes et à l’emploi des instruments et des méthodes d’observation. Cette bibliographie
comporte aussi des références aux pratiques nationales, aux normes nationales et internationales
et à des textes spécialisés. Elle comporte également des rapports publiés par l’Organisation
météorologique mondiale (OMM) au nom de la Commission des instruments et des méthodes
d’observation (CIMO) sur des conférences techniques, des instruments et des comparaisons
internationales d’instruments. De nombreux autres manuels et guides de l’OMM traitent
d’applications particulières des observations météorologiques; il est en particulier conseillé de
lire ceux relatifs au Système mondial d’observation (OMM, 2010c, 2010e), à la météorologie
aéronautique (OMM, 2014), à l’hydrologie (OMM, 2008), à la météorologie agricole (OMM,
2010b) et à la climatologie (OMM, 2011a).
Les définitions et les normes citées dans le présent guide (voir la section 1.5.1) se conformeront
toujours aux normes adoptées internationalement. Les documents de base auxquels on doit se
référer sont le Vocabulaire météorologique international (OMM, 1992) et le Vocabulaire international
de métrologie – Concepts fondamentaux et généraux et termes associés (VIM) (Comité commun pour
les guides en métrologie (JCGM), 2012).
1
Recommandation 19 (CIMO‑IX), formulée par la CIMO lors de sa neuvième session (1985).
2
Recommandation 1 (CMOM‑III), formulée par la Commission technique mixte OMM/COI d’océanographie et de
météorologie maritime lors de sa troisième session (2009).
CHAPITRE 1. GÉNÉRALITÉS 7
1.1.2 Représentativité
La représentativité d’une observation est le niveau auquel est précisément décrite la valeur d’une
variable nécessitée pour un besoin spécifique. Il n’y a donc pas de qualité uniformément fixée
pour toutes les observations: elle résulte de l’appréciation conjointe de l’instrumentation, du pas
de temps de mesure et de l’exposition en fonction des besoins d’une application particulière. Par
exemple, les observations synoptiques devraient en règle générale être représentatives d’une
aire de 100 km de rayon autour de la station, mais pour des applications à petite échelle ou
locales, ce rayon peut être ramené à 10 km, voire moins.
Chaque application a ses propres échelles de temps et d’espace sur le plan des moyennes,
de la densité des stations et de la résolution des phénomènes – petites pour la météorologie
agricole, grandes pour les prévisions globales à longue échéance. Les échelles de prévision sont
intimement liées aux échelles de temps des phénomènes; ainsi, les prévisions météorologiques
à court terme demandent des observations plus fréquentes sur un réseau plus dense dans un
espace restreint pour pouvoir détecter n’importe quel phénomène de petite échelle et son
développement rapide. Selon diverses sources (OMM, 2001, 2010e; Orlanski, 1975), les échelles
météorologiques horizontales peuvent être classées comme suit, avec un facteur d’incertitude
égal à deux:
b) Petite échelle ou échelle locale (entre 100 m et 3 km), par exemple: pollution de l’air,
tornades;
c) Échelle moyenne ou méso‑échelle (entre 3 et 100 km), par exemple: orages, brises de mer
ou de montagne;
d) Grande échelle (entre 100 et 3 000 km), par exemple: fronts, cyclones, amas nuageux;
e) Échelle planétaire (supérieure à 3 000 km), par exemple: grandes ondes de la troposphère
supérieure.
La section 1.6 recense les incertitudes requises et réalisables des systèmes d’instruments. Les
incertitudes dites réalisables ne le sont qu’avec de bons instruments utilisés convenablement,
mais on ne les obtient pas toujours dans la pratique. La bonne exécution des observations exige
un savoir‑faire, une formation, un équipement et un appui qui font parfois en partie défaut.
L’intervalle de temps requis entre les mesures dépend de l’application: minutes pour l’aviation,
heures pour l’agriculture, jours pour la description du climat. L’organisation du stockage
des données est un compromis entre la capacité de stockage disponible et les besoins des
utilisateurs.
Une bonne exposition, représentative à des échelles allant de quelques mètres à cent
kilomètres, est difficile à assurer (voir la section 1.3). Les erreurs résultant d’une exposition
non représentative peuvent être beaucoup plus importantes que celles attendues du système
instrumental en tant que tel. Une station implantée sur un terrain accidenté ou près d’un rivage
ne sera probablement pas représentative à grande et moyenne échelle. Les données d’une
station non représentative peuvent néanmoins rester utilisables à des fins climatologiques si elles
demeurent homogènes dans le temps.
L’annexe 1.B traite plus avant la question de la représentativité et explique comment classer les
sites terrestres d’observation en surface afin de préciser leur représentativité pour la mesure de
différentes variables. Cette classification a plusieurs objectifs:
a) Améliorer le choix des sites et l’emplacement des capteurs sur un site de manière à
optimiser la représentativité en appliquant des critères objectifs;
8 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
i) En vue d’offrir des services météorologiques, mais aussi des services visant le réseau
routier, par exemple;
ii) En dépit de cette valeur numérique, la classification n’est pas un classement. Les
sites de classe 1 sont préférables, mais les sites d’autres classes restent utiles pour de
nombreuses applications;
d) Aider les utilisateurs à tirer profit des métadonnées lorsqu’ils exploitent les observations.
Une complexité excessive pourrait aller à l’encontre d’un usage approprié des
métadonnées.
1.1.3 Métadonnées
Le but du présent guide et des publications apparentées de l’OMM est d’assurer la fiabilité
des observations grâce à la normalisation. Les ressources et circonstances locales peuvent
toutefois empêcher de respecter parfaitement les normes adoptées concernant les instruments
et l’exposition. Un exemple caractéristique est celui des régions recevant d’abondantes chutes
de neige, où les instruments sont placés plus haut qu’à l’habitude pour qu’ils puissent être
utilisables aussi bien en hiver qu’en été.
Les utilisateurs des observations météorologiques ont souvent besoin de connaître l’exposition,
le type et l’état des instruments ainsi que la façon dont ils sont exploités, et peut‑être le détail des
observations. Cela est particulièrement important aujourd’hui pour les études climatiques, qui
exigent d’examiner précisément l’histoire des stations. Il faudrait conserver des métadonnées
(données sur les données) concernant tous les aspects de l’établissement et de la maintenance
de la station qui sont décrits dans la section 1.3 et concernant toutes les modifications ayant
pu advenir, y compris l’historique de l’étalonnage et de la maintenance et les changements
d’exposition et de personnel (OMM, 2003). Les métadonnées sont particulièrement importantes
pour les éléments qui sont très sensibles à l’exposition tels que les précipitations, le vent et
la température. Une forme élémentaire de métadonnée est l’information sur l’existence, la
disponibilité et la qualité des données météorologiques et des métadonnées les concernant.
Les exigences relatives aux données d’observation peuvent être satisfaites au moyen de mesures
in situ et par télédétection (y compris à partir de l’espace), selon la capacité des différents
systèmes de capteurs à mesurer l’élément considéré. Les besoins à l’échelle mondiale, régionale
et nationale et selon le domaine d’application sont décrits dans la publication OMM (2010e).
Le Système mondial d’observation conçu afin d’y répondre se compose d’un sous‑système de
surface et d’un sous‑système spatial. La composante de surface comprend un large éventail de
stations dont le type varie en fonction des applications (station synoptique de surface, station
aérologique, station climatologique, etc.). La composante spatiale comprend un certain nombre
d’engins spatiaux dotés d’équipements de sondage et les segments au sol de commande,
contrôle et réception des données. Les paragraphes et chapitres ci‑après du Guide traitent du
sous‑système de surface et, dans une moindre mesure, du sous‑système spatial. Pour dériver
CHAPITRE 1. GÉNÉRALITÉS 9
La liste détaillée des éléments à observer selon le type de station et le réseau d’observation figure
dans OMM (2010e). Les données que doit fournir une station climatologique classique ou une
station du réseau synoptique en surface sont examinées dans la présente section.
Une station d’observation en surface observe les éléments suivants (les chapitres indiqués sont
ceux de la partie I):
Il existe des instruments pour la mesure de tous ces éléments, à l’exception du type de nuages,
mais en l’état actuel de la technique ils ne permettent pas d’observer le temps présent et
passé, la nébulosité, la hauteur des nuages et l’enneigement aussi complètement que le fait un
observateur humain.
Des renseignements détaillés sur les méthodes d’observation et l’emploi des instruments figurent
dans les chapitres du présent guide.
La plupart des éléments qu’il faut observer à des fins synoptiques, climatologiques ou
aéronautiques peuvent se mesurer à l’aide de systèmes automatiques (chapitre 1 de la partie II).
À mesure que les capacités des systèmes automatiques augmentent, la part des stations
météorologiques entièrement automatiques s’accroît régulièrement par rapport à celle
des stations desservies par des observateurs humains (utilisant ou non des instruments
automatiques). Les directives ci‑après concernant l’implantation et l’exposition des stations, les
modifications intervenant dans leur dotation en instruments, les inspections et la maintenance
valent pour les unes et les autres.
10 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
1.3.2 Observateurs
Des observateurs météorologiques sont nécessaires pour l’accomplissement des tâches ci‑après:
b) Maintenir en bon état les instruments et les sites d’observation et tenir à jour les documents
relatifs aux métadonnées;
d) Entretenir les appareils enregistreurs de la station, notamment changer les diagrammes s’il
y a lieu;
Les observateurs devraient recevoir d’un Service météorologique habilité une formation et/
ou une accréditation garantissant qu’ils possèdent les compétences voulues pour faire des
observations conformes aux normes en vigueur. Ils devraient être capables d’interpréter les
instructions intéressant l’emploi des instruments et des techniques manuelles qui s’appliquent à
leurs systèmes d’observation particuliers. Le chapitre 5 de la partie IV contient des directives sur
la formation des observateurs dans le domaine des instruments.
Les stations météorologiques sont destinées à effectuer des mesures (ou observations)
représentatives dont la nature dépend du type de la station. Les observations d’une station
du réseau synoptique devraient ainsi répondre aux besoins d’ordre synoptique, tandis que
celles d’une station météorologique aéronautique devraient décrire les conditions particulières
régnant dans son voisinage (l’aérodrome). Lorsqu’une station sert à plusieurs fins, aéronautiques,
synoptiques et climatologiques par exemple, c’est le besoin le plus contraignant qui dicte le
choix précis du site d’observation et de l’emplacement des capteurs. On trouvera dans OMM
(1993) une étude détaillée concernant l’implantation et l’exposition des stations.
Les consignes ci‑après s’appliquent par exemple à l’exposition des instruments et à l’implantation
d’une station synoptique ou climatologique classique appartenant à un réseau régional ou
national:
a) Les instruments extérieurs devraient être placés sur un terrain plat d’au moins 25 m
par 25 m lorsqu’il y a de nombreuses installations, mais lorsqu’il y a relativement peu
d’installations (comme sur la figure 1.1) la surface peut être beaucoup plus faible, par
exemple 10 m par 7 m (d’enclos). Le sol devrait être couvert d’herbe courte ou présenter
une surface analogue à celle du sol environnant et être protégé des visiteurs non autorisés
par une clôture ou une palissade à claire‑voie. À l’intérieur de l’enclos, un carré d’environ
2 m par 2 m est conservé nu pour les observations de l’état et de la température du sol à
des profondeurs inférieures à 20 cm (chapitre 2 de la partie I) (la température du sol aux
CHAPITRE 1. GÉNÉRALITÉS 11
Nord
1,5 m 1,5 m
1,5 m 1,5 m
Anémomètre
Abri à coupelles sur
thermométrique un mât fin de 2 m
Thermomètre à 100 cm
2m dans le sol
Pluviomètre 1
1,5 m 1,5 m
Pluviomètre 2
Ouest
Est
3m 1,5 m Pluviographe
Thermomètre 30 cm
60 cm
Thermo-
mètre à
Dalle de béton minimum Thermomètre à
1,4 m 1m minimum sur gazon
75 m
2m
Thermomètres
dans le sol
5m
1,25 m 20 cm 10 cm 5cm
Thermomètre à 2m
Héliographe minimum sur sol nu
1,5 m sur support 1m
de 2 m Parcelle de terrain nu
à maintenir désherbé
1,5 m
1m
Sud
Figure 1.1. Schéma d’une station d’observation située dans l’hémisphère Nord, sur lequel sont
indiquées les distances minimales à respecter entre les installations
b) Il ne devrait pas exister de pentes abruptes à proximité et le site ne devrait pas être au fond
d’une cuvette. Si ces conditions ne sont pas remplies, les observations risquent de présenter
des singularités purement locales;
c) Le site devrait être très éloigné d’arbres, d’immeubles, de murs ou d’autres obstacles. Il
devrait y avoir entre un obstacle de ce genre (y compris la clôture) et le pluviomètre une
distance égale à au moins deux fois, et de préférence quatre fois, la hauteur de l’obstacle
au‑dessus de l’ouverture du pluviomètre;
d) Les héliographes, pluviomètres et anémomètres doivent être installés sur le même site
que les autres instruments, à des endroits où ils jouiront d’une exposition conforme à leurs
exigences particulières;
e) Il convient de noter que l’enclos n’est pas toujours l’endroit le plus favorable à l’estimation
de la vitesse et de la direction du vent; il peut être souhaitable de retenir un autre point
d’observation mieux exposé au vent;
f) Les sites très dégagés, satisfaisants pour la plupart des instruments, ne le sont pas pour
les pluviomètres; sauf s’il est léger, le vent y réduit la quantité de pluie captée et il faut
aménager un abri;
g) Si des obstacles tels que des arbres ou des immeubles présents dans les environs de l’enclos,
à une certaine distance parfois, obstruent une grande partie de l’horizon, on devrait choisir
un autre endroit pour l’observation de l’insolation ou du rayonnement;
12 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
h) L’endroit d’où l’on observe les nuages et la visibilité devrait être le plus dégagé possible et
offrir la plus large vue possible sur le ciel et le paysage environnant;
i) Les stations côtières devraient être installées à un endroit d’où l’on voit bien la haute mer,
mais pas trop près du bord d’une falaise parce que les tourbillons engendrés par le relief
affecteraient la mesure des précipitations et du vent;
j) Il vaut mieux, pour observer les nuages et estimer la visibilité de nuit, choisir un endroit non
pollué par des lumières parasites.
Il est évident que certaines des conditions ci‑dessus sont difficilement compatibles entre elles et
imposent des solutions de compromis. On trouvera dans les chapitres ci‑après des informations
détaillées concernant les différents instruments et mesures.
La position d’une station repérée dans le Système géodésique mondial 1984 (WGS‑84) et son
Modèle gravimétrique de la Terre 1996 (EGM96) doit être connue et enregistrée exactement3.
Ces coordonnées (conformément à OMM, 2010c) sont:
Ces coordonnées se rapportent à la parcelle de terrain où ont lieu les observations et diffèrent
donc parfois de celles de la ville, du village ou de l’aérodrome dont la station porte le nom. S’il
est souhaitable que les coordonnées présentent une résolution supérieure, on peut suivre la
méthode décrite ci‑après pour déterminer l’altitude.
L’altitude de la station est définie comme la distance verticale entre le niveau moyen de la mer et
la surface du sol sous le pluviomètre ou, s’il n’y a pas de pluviomètre, sous l’abri météorologique.
S’il n’existe ni pluviomètre ni abri, c’est la distance verticale entre le niveau moyen de la mer et
le niveau moyen du terrain au voisinage de la station. Si la station mesure la pression, l’altitude
à laquelle celle‑ci est mesurée doit être précisée à part. C’est l’altitude à laquelle se réfèrent les
relevés barométriques de la station; de telles valeurs barométriques sont appelées «pression à la
station» et considérées comme se référant au niveau donné en vue de maintenir la continuité des
observations barométriques (OMM, 2010f).
Si une station est située sur un aéroport, les autres altitudes doivent être précisées (voir le
chapitre 2 de la partie II et OMM, 2014). Les définitions des mesures de la hauteur et du niveau
moyen de la mer figurent dans la publication OMM (1992).
Il est très important que les observations se poursuivent pendant et après un phénomène
hydrométéorologique extrême, tant pour faciliter le retour à la normale que pour se préparer aux
événements futurs. Les mesures à prendre en vue de parer aux dangers courants sont décrites
dans l’annexe 1.D.
3
Pour une explication du système WGS‑84 et les questions d’enregistrement, voir OACI (2002).
4
Le niveau moyen de la mer est défini dans OMM (1992). Le niveau de référence fixé devrait être un géoïde bien
défini, comme le Modèle gravimétrique de la Terre (EGM96) lié au WGS‑84 [Géoïde: surface équipotentielle de la
gravité terrestre qui correspond le mieux, au sens des moindres carrés, au niveau moyen de la mer global].
CHAPITRE 1. GÉNÉRALITÉS 13
Les caractéristiques d’un site d’observation se modifient généralement au fil du temps, en raison
par exemple de la croissance des arbres ou de la construction de bâtiments sur des terrains
adjacents. Il faudrait choisir les sites de façon à réduire autant que possible ce genre d’effets. Une
documentation sur la géographie et l’exposition du site devrait être conservée et régulièrement
mise à jour dans les métadonnées (voir l’annexe 1.C et OMM, 2003).
Toutes les stations synoptiques terrestres et stations climatologiques principales devraient être
inspectées au moins une fois tous les deux ans. Les stations de météorologie agricole et stations
spéciales devraient l’être à des intervalles suffisamment rapprochés pour garantir la qualité des
observations et le bon fonctionnement des instruments.
b) Les instruments sont d’un modèle approuvé, en bon état et, s’il y a lieu, vérifiés
régulièrement par comparaison avec des étalons;
c) Les méthodes d’observation et les méthodes de calcul des grandeurs dérivées sont
uniformes;
D’autres renseignements sur la normalisation des instruments figurent dans la section 1.5.
1.3.5.2 Maintenance
Les sites d’observation et les instruments devraient être entretenus régulièrement de manière
que la qualité des observations ne se détériore pas sensiblement entre deux inspections de la
station. Le programme d’entretien courant (préventif) comprend le «ménage» périodique des
sites (par exemple, fauchage de l’herbe et nettoyage des parties non protégées des instruments)
et les vérifications auxquelles les fabricants recommandent de soumettre les instruments
automatiques. Il faudrait prévoir des contrôles réguliers de qualité à la station ou dans un centre
approprié afin de déceler le plus tôt possible les défaillances de l’équipement. Selon la nature
de la défaillance et le type de la station, un entretien correctif (remplacement ou réparation
des instruments) devrait être effectué conformément à un ordre de priorité et dans des délais
14 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
D’autres renseignements sur l’inspection et la gestion des stations figurent dans la publication
OMM (2010c).
b) La fiabilité et la stabilité;
e) La durabilité;
S’agissant des deux premières qualités, il est important qu’un instrument présente une
incertitude connue pendant une longue durée plutôt que d’offrir, au début, un niveau de
confiance élevé (dû à une incertitude faible) qui ne peut être maintenu durablement dans les
conditions d’exploitation.
L’étalonnage préliminaire des instruments révèle en général des écarts par rapport au résultat
idéal qui imposent d’apporter des corrections aux données observées durant les opérations
normales. Il importe de conserver les corrections requises avec les instruments au site
d’observation et d’indiquer clairement aux observateurs la façon de les utiliser.
Il convient d’observer les règles de sécurité voulues lorsque les instruments renferment des
substances dangereuses (voir notamment les indications données pour le mercure (section 3.2.7
du chapitre 3 de la partie I) et pour divers produits chimiques (sections 8.5 et 8.6 du chapitre 8
de la partie II). La Convention de Minamata sur le mercure relevant du Programme des Nations
Unies pour l’environnement (PNUE), en vigueur depuis octobre 2013, aura une incidence notable
sur l’emploi de mercure pour les applications météorologiques.
Bon nombre des instruments enregistreurs employés en météorologie sont du type dans lequel
le mouvement de l’élément capteur est amplifié par des leviers qui déplacent une plume sur
un diagramme fixé à un tambour mû par un mouvement d’horlogerie. Il faudrait limiter autant
que possible les frottements non seulement entre les coussinets, mais aussi entre la plume et le
CHAPITRE 1. GÉNÉRALITÉS 15
papier. Ces appareils devraient comporter un dispositif qui permet de régler la pression de la
plume sur le papier sans aller toutefois jusqu’à l’alléger au point d’empêcher l’obtention d’un
tracé lisible continu. Les enregistreurs à mouvement d’horlogerie devraient être également
munis d’un dispositif de marquage chronométrique. Les instruments enregistreurs destinés à
être utilisés dans les climats froids doivent être conçus avec un soin particulier afin que les basses
températures et les conditions d’humidité extrêmes n’entravent pas leur fonctionnement et
qu’un observateur ganté puisse effectuer les opérations ordinaires (marquage de l’heure, etc.).
Il faudrait comparer fréquemment les instruments enregistreurs avec des instruments à lecture
directe.
Étalon. Réalisation de la définition d’une grandeur donnée, avec une valeur déterminée et une
incertitude de mesure associée, utilisée comme référence.
Exemple 2: Résistance étalon de 100 Ω avec une incertitude type associée de 1 µΩ.
Étalon international. Étalon reconnu par les signataires d’un accord international pour une
utilisation mondiale.
Étalon national. Étalon reconnu par une autorité nationale pour servir, dans un état ou une
économie, comme base à l’attribution de valeurs à d’autres étalons de grandeurs de la même
nature.
Étalon primaire. Étalon établi à l’aide d’une procédure de mesure primaire ou créé comme objet
choisi par convention.
Exemple 2: Étalon primaire de pression fondé sur des mesurages séparés de force et d’aire.
16 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Étalon secondaire. Étalon établi par l’intermédiaire d’un étalonnage par rapport à un étalon
primaire d’une grandeur de même nature.
Étalon de référence. Étalon conçu pour l’étalonnage d’autres étalons de grandeurs de même nature
dans une organisation donnée ou en un lieu donné.
Étalon de travail. Étalon qui est utilisé couramment pour étalonner ou contrôler des instruments
de mesure ou des systèmes de mesure.
Notes:
1. Un étalon de travail est habituellement étalonné par rapport à un étalon de référence.
2. Un étalon de travail servant à la vérification est aussi désigné comme «étalon de vérification» ou «étalon de
contrôle».
Dispositif de transfert. Dispositif utilisé comme intermédiaire pour comparer entre eux des étalons.
Étalon voyageur. Étalon, parfois de construction spéciale, destiné au transport en des lieux
différents.
Notes:
1. Un étalon collectif est habituellement destiné à fournir une valeur unique d’une grandeur.
2. La valeur fournie par un étalon collectif est une moyenne appropriée des valeurs fournies par les divers
instruments.
Traçabilité. Propriété d’un résultat de mesure ou de la valeur d’un étalon selon laquelle ce résultat
peut être relié à des références précises, généralement des étalons internationaux ou nationaux,
par l’intermédiaire d’une chaîne ininterrompue de comparaisons dont l’incertitude est précisée.
Traçabilité métrologique. Propriété d’un résultat de mesure selon laquelle ce résultat peut être relié
à une référence par l’intermédiaire d’une chaîne ininterrompue et documentée d’étalonnages
dont chacun contribue à l’incertitude de mesure.
Étalonnage. Opération qui, dans des conditions spécifiées, établit en une première étape une
relation entre les valeurs et les incertitudes de mesure associées qui sont fournies par des étalons
et les indications correspondantes avec les incertitudes associées, puis utilise en une seconde
étape cette information pour établir une relation permettant d’obtenir un résultat de mesure à
partir d’une indication.
Notes:
1. Un étalonnage peut être exprimé sous la forme d’un énoncé, d’une fonction d’étalonnage, d’un diagramme
d’étalonnage, d’une courbe d’étalonnage ou d’une table d’étalonnage. Dans certains cas, il peut consister en une
correction additive ou multiplicative de l’indication avec une incertitude de mesure associée.
2. Il convient de ne pas confondre l’étalonnage avec l’ajustage d’un système de mesure, souvent appelé
improprement «auto‑étalonnage», ni avec la vérification de l’étalonnage.
les étalons régionaux pour les mesures de la pression et du rayonnement solaire figurent
respectivement aux chapitres 3 (annexe 3.B) et 7 (annexe 7.C) de la partie I. En règle générale,
les étalons régionaux sont désignés par les conseils régionaux et les étalons nationaux par
les Membres. Sauf prescriptions contraires, les uns et les autres devraient être comparés à
des étalons voyageurs au moins une fois tous les cinq ans. Il n’est pas indispensable que les
instruments utilisés comme étalons voyageurs présentent le même degré d’incertitude que
les étalons primaires ou secondaires, mais ils devraient être suffisamment robustes pour que le
transport ne les dérègle pas.
De même, les instruments employés en exploitation dans un Service devraient être comparés
à intervalles réguliers, directement ou indirectement, aux étalons nationaux. Au sein du
Service, il faudrait autant que possible effectuer les comparaisons d’abord à la livraison des
instruments, puis lors de chaque inspection périodique de la station ainsi qu’il est recommandé
à la section 1.3.5. Les instruments étalons portatifs utilisés par les inspecteurs devraient être
vérifiés par comparaison avec les instruments étalons du Service avant et après chaque tournée
d’inspection.
Il faudrait comparer entre eux les instruments opérationnels de conceptions différentes (ou dont
le fonctionnement repose sur des principes différents) en vue de garantir l’homogénéité des
mesures dans l’espace et dans le temps (voir la section 1.3.4).
Les instruments de mesure produisent des valeurs numériques. Le but de ces mesurages est
d’obtenir des grandeurs physiques ou météorologiques représentant l’état local de l’atmosphère.
Dans la pratique météorologique, les lectures des instruments représentent des variables telles
que «pression atmosphérique», «température de l’air» ou «vitesse du vent». Une variable dont
le symbole est a est habituellement représentée sous la forme a = {a}.[a], où {a} représente la
valeur numérique et [a] représente le symbole de l’unité. On trouvera les principes généraux
relatifs aux quantités, aux unités et aux symboles dans ISO (2009) et UIPPA (1987). Il faudrait
utiliser le Système international d’unités pour l’évaluation des éléments météorologiques inclus
dans les messages destinés à l’échange international. Ce système est publié et mis à jour par le
BIPM (BIPM, 2006). Le National Institute of Standards and Technology (2008) et l’ISO (2009) ont
publié des guides d’utilisation du SI. On trouvera dans les Tables météorologiques internationales
(OMM, 1966) et dans les chapitres pertinents du présent guide les variables ne possédant pas de
symbole international dans le Système international de grandeurs mais couramment utilisées en
météorologie.
Les unités suivantes devraient être employées dans les observations météorologiques:
Note: Les échelles de température Celsius et Kelvin devraient être conformes à la définition actuelle de
l’Échelle internationale de température (EIT‑90, voir BIPM, 1990).
c) Vitesse du vent en mètres par seconde (m s–1) pour les observations tant en surface qu’en
altitude;
d) Direction du vent en degrés depuis le nord vrai dans le sens des aiguilles d’une montre, ou
selon l’échelle 0–36 dans laquelle 36 est le vent du nord vrai et 09 le vent de l’est vrai (°);
5
Le «pascal» est la principale unité de pression dérivée du SI. L’unité et le symbole «bar» n’appartiennent pas au SI;
chaque fois qu’elle est utilisée dans un document, cette unité (bar) devrait être définie par rapport au SI. La
poursuite de son utilisation est déconseillée. Par définition, 1 mbar (millibar) = 1 hPa (hectopascal).
18 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
g) Intensité des précipitations, Ri, en millimètres par heure (mm h–1) ou en kilogrammes par
mètre carré et par seconde (kg m–2 s–1)7;
k) Éclairement énergétique en watts par mètre carré et exposition énergétique en joules par
mètre carré (W m–2, J m–2);
n) Nébulosité en octas;
Note: Hauteurs, niveaux et altitude sont exprimés par rapport à une référence bien définie. Les références les plus
courantes sont le niveau moyen de la mer, l’altitude de la station ou le plan 1013,2 hPa.
Le mètre géopotentiel standard étant par définition égal à 0,980 665 mètre dynamique, la valeur
du géopotentiel est, pour la mesure des niveaux dans la troposphère, numériquement proche de
la hauteur exprimée en mètres.
1.5.3.2 Constantes
b) Température absolue du point triple de l’eau T = 273,16 K (t = 0,01 °C), définie par EIT‑90;
Les valeurs d’autres constantes figurent dans les documents OMM (1966, 2011b).
6
En supposant qu’un mm équivaut à 1 kg m–2, indépendamment de la température.
7
Annexe 1 de la recommandation 3 (CSB‑XII), adoptée dans le cadre de la résolution 4 (EC‑LIII).
CHAPITRE 1. GÉNÉRALITÉS 19
1.6.1.1 Généralités
Le terme mesurage est soigneusement défini dans la section 1.6.2, mais on utilise presque partout
dans le Guide de façon moins stricte celui de mesure pour exprimer le processus de mesurage
ou son résultat, soit ce qu’il est permis d’appeler aussi une observation. Un échantillon est une
mesure isolée, appartenant ordinairement à une série de lectures ponctuelles ou instantanées
d’un capteur, dont on déduit une valeur moyenne ou lissée pour faire une observation. Les
chapitres 2 et 3 de la partie IV traitent plus théoriquement des principes du mesurage.
Les termes exactitude, erreur et incertitude sont définis précisément dans la section 1.6.2,
où l’on explique que l’exactitude est un terme qualitatif dont l’expression numérique est
l’incertitude. C’est ce qu’il faudrait adopter et c’est ainsi que nous avons procédé dans ce guide.
Antérieurement, on utilisait couramment le vocable exactitude de façon moins précise, par
exemple dans l’expression «une exactitude de ± x», à remplacer par «une incertitude de x».
Les erreurs susceptibles d’entacher les diverses mesures météorologiques sont étudiées au cas
par cas dans les chapitres qui suivent, mais on peut de manière générale considérer qu’elles
s’accumulent au fil de la chaîne de traçabilité et en fonction des conditions de mesure.
Il est commode de prendre la température de l’air comme exemple de la façon dont les erreurs
se produisent, mais les indications ci‑après s’adaptent aisément aux mesures de la pression,
du vent et d’autres grandeurs météorologiques. Les erreurs dans une mesure thermométrique
proviennent:
a) Des erreurs inhérentes aux étalons internationaux, nationaux et de travail et des erreurs
commises dans leurs comparaisons; on peut les considérer comme négligeables pour les
applications météorologiques;
b) Des erreurs inhérentes aux comparaisons entre les étalons de travail, voyageurs et/ou de
contrôle et les instruments d’exploitation en laboratoire ou dans les bains (si c’est ainsi
qu’est établie la traçabilité); ces erreurs sont faibles (incertitude voisine de ±0,1 K avec
un niveau de confiance à 95 %, y compris les erreurs mentionnées à l’alinéa a) ci‑dessus)
lorsque les comparaisons sont bien menées, mais s’amplifient rapidement en raison inverse
de l’habileté de l’opérateur et de la qualité de l’équipement;
e) De l’efficacité de l’abri, qui devrait garantir que la température de l’air est la même à
l’intérieur de l’abri que dans son voisinage immédiat; cette erreur est faible dans un abri
bien conçu, mais la différence entre les données recueillies respectivement dans un bon abri
et un abri médiocre peut atteindre 3 °C ou plus en certains cas;
20 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
f) De l’exposition, qui devrait être telle que l’abri est à une température représentative de la
région étudiée; la proximité de sources et puits de chaleur (immeubles, surfaces atypiques
sous et autour de l’abri) et la topographie (collines, formations aquatiques) peuvent
engendrer des erreurs importantes. Les métadonnées de la station devraient comporter
une description précise, régulièrement mise à jour, de l’exposition (voir l’annexe 1.C) pour
que les utilisateurs des données soient informés des sources possibles d’erreurs liées à
l’exposition.
Des erreurs tant systématiques qu’aléatoires se produisent à tous les stades précités. Les sources
d’erreur d) à f) peuvent avoir des effets modestes si l’on procède avec beaucoup d’attention et
si un site convenable est disponible; autrement, elles peuvent se solder par une très importante
erreur globale. On les oublie pourtant parfois, comme si l’étalonnage des capteurs en laboratoire
suffisait à définir complètement les erreurs.
Déterminer la valeur vraie n’est pas facile en météorologie (Linacre, 1992). Des comparaisons
d’instruments bien organisées sur le terrain renseignent sur les capacités des appareils et
donnent une bonne estimation de l’incertitude découlant des facteurs a) à e) ci‑dessus. Si
l’exposition de la station est bien documentée, les effets d’une exposition imparfaite peuvent être
corrigés systématiquement pour certaines grandeurs (par exemple le vent; voir OMM, 2002) et
devraient être estimés pour les autres.
Un procédé efficace de contrôle de la qualité, s’il existe suffisamment de stations fiables dans la
région, consiste à comparer les données de terrain à des champs analysés numériquement avec
le concours de stations voisines. Les différences entre les observations faites à la station et les
valeurs interpolées à partir du champ analysé découlent à la fois des erreurs présentes dans le
champ et du fonctionnement de la station. Toutefois, sur une certaine durée, on peut supposer
que l’erreur moyenne à chaque point du champ analysé est nulle si les stations avoisinantes se
prêtent à une bonne analyse. Dans ce cas, il est possible de calculer la moyenne et l’écart type
des différences entre la station et le champ analysé et on peut les considérer comme les erreurs
inhérentes au système de mesure de la station (y compris les effets de l’exposition). On peut ainsi
rendre très faible l’incertitude affectant l’estimation de la valeur moyenne à long terme (si rien ne
change à la station), ce qui forme l’assise des études sur l’évolution du climat.
Les définitions ci‑après relatives à l’exactitude des mesures reposent sur le document JCGM
(2012), qui contient beaucoup de définitions applicables aux observations météorologiques.
Des directives pratiques très utiles et détaillées pour le calcul et l’expression de l’incertitude de
mesure se trouvent dans la publication ISO/CEI (2008)/JCGM (2008).
Mesurage. Processus consistant à obtenir expérimentalement une ou plusieurs valeurs que l’on
peut raisonnablement attribuer à une grandeur.
Résultat d’un mesurage. Ensemble de valeurs attribuées à un mesurande, complété par toute autre
information pertinente disponible.
Notes:
1. Lorsqu’on donne un résultat, on devrait indiquer clairement si l’on se réfère à l’indication, au résultat brut ou au
résultat corrigé et si plusieurs valeurs ont été moyennées.
2. Une expression complète du résultat d’un mesurage comprend des informations sur l’incertitude de mesure.
Valeur (d’une grandeur). Ensemble d’un nombre et d’une référence constituant l’expression
quantitative d’une grandeur.
Valeur vraie (d’une grandeur). Valeur d’une grandeur compatible avec la définition de la grandeur.
< valeur vraie > = < valeur mesurée > ± < incertitude >
Notes:
1. C’est une valeur que l’on obtiendrait par un mesurage parfait.
2. Toute valeur vraie est par nature indéterminée.
Exactitude (de mesure). Terme qualitatif désignant l’étroitesse de l’accord entre une valeur mesurée
et une valeur vraie d’un mesurande. L’exactitude de mesure est quelquefois interprétée comme
l’étroitesse de l’accord entre les valeurs mesurées qui sont attribuées au mesurande. On peut dire
qu’un instrument ou un mesurage présente une grande exactitude, mais la mesure quantitative
de l’exactitude s’exprime par l’incertitude.
Incertitude. Paramètre non négatif qui caractérise la dispersion des valeurs attribuées à un
mesurande, à partir des informations utilisées.
Répétabilité. Étroitesse de l’accord entre les indications ou les valeurs mesurées obtenues sur le
même objet ou des objets similaires dans un ensemble de conditions qui comprennent la même
procédure de mesure, les mêmes opérateurs, le même système de mesure, les mêmes conditions
de fonctionnement et le même lieu, ainsi que des mesurages répétés pendant une courte période
de temps.
Note: Des termes statistiques pertinents sont donnés dans ISO (1994a) et ISO (1994b).
Reproductibilité. Étroitesse de l’accord entre les indications ou les valeurs mesurées obtenues sur le
même objet ou des objets similaires dans un ensemble de conditions qui comprennent des lieux,
des opérateurs et des systèmes de mesure différents, ainsi que des mesurages répétés.
Erreur (de mesure). Différence entre la valeur mesurée d’une grandeur et une valeur de référence.
Biais instrumental. Différence entre la moyenne d’indications répétées et une valeur de référence.
Erreur aléatoire. Composante de l’erreur de mesure qui, dans des mesurages répétés, varie de
façon imprévisible.
Notes:
1. L’erreur aléatoire est égale à la différence entre l’erreur de mesure et l’erreur systématique.
2. La valeur de référence pour une erreur aléatoire est la moyenne qui résulterait d’un nombre infini de mesurages
répétés du même mesurande.
Erreur systématique. Composante de l’erreur de mesure qui, dans des mesurages répétés, demeure
constante ou varie de façon prévisible.
Notes:
1. L’erreur systématique est égale à la différence entre l’erreur de mesure et l’erreur aléatoire.
2. Comme la valeur vraie, l’erreur systématique et ses causes ne peuvent pas être connues complètement.
Certaines définitions sont reprises dans le chapitre 4 de la partie IV, à toutes fins utiles.
D’autres propriétés des instruments qui doivent être prises en compte lorsque l’on considère
l’incertitude qui leur est attachée sont extraites de la publication JCGM (2012).
22 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Sensibilité. Quotient de la variation d’une indication d’un système de mesure par la variation
correspondante de la valeur de la grandeur mesurée.
Note: La sensibilité d’un système de mesure peut dépendre de la valeur de la grandeur mesurée.
Seuil de discrimination/mobilité. Variation la plus grande de la valeur d’une grandeur mesurée qui
ne produit aucune variation détectable de l’indication correspondante.
Résolution. Plus petite variation de la grandeur mesurée qui produit une variation perceptible de
l’indication correspondante.
Hystérésis. Aptitude d’un instrument de mesure à répondre à un signal d’entrée donné selon la
succession des signaux d’entrée précédents.
Stabilité/Constance (d’un instrument). Propriété d’un instrument de mesure selon laquelle celui‑ci
conserve ses propriétés métrologiques constantes au cours du temps.
Dérive. Variation continue ou incrémentale dans le temps d’une indication due à des variations
des propriétés métrologiques d’un instrument de mesure.
Temps de réponse à un échelon. Durée entre l’instant où une valeur d’entrée d’un instrument
de mesure ou d’un système de mesure subit un changement brusque d’une valeur constante
spécifiée à une autre et l’instant où l’indication correspondante se maintient entre deux limites
spécifiées autour de sa valeur finale en régime établi.
Calcul du temps de réponse. Dans la plupart des systèmes simples, la réponse à une variation d’un
échelon se calcule comme suit:
(
Y = A 1 − e −t /τ ) (1.1)
où Y est la variation après l’intervalle de temps t, A est l’amplitude de la variation d’un échelon
appliquée, t est le temps écoulé depuis la variation d’un échelon et τ est une variable à dimension
temporelle caractéristique du système.
La variable τ appelée constante de temps ou coefficient d’inertie (de retard), représente le temps
que met un instrument, après une variation d’un échelon, à atteindre 1/e de l’indication finale en
régime établi.
Dans d’autres systèmes, la réponse est plus complexe et il n’en sera pas question ici (voir aussi le
chapitre 2 de la partie IV).
Erreur de traînage. Erreur dont peut être entaché un ensemble de mesures du fait que l’instrument
d’observation a un temps de réponse fini.
Le document ISO/CEI (2008)/JCGM (2008) devrait être utilisé pour l’expression et le calcul
de l’incertitude. Il donne un compte rendu pratique et détaillé des définitions et des modes
de communication et un exposé exhaustif des méthodes statistiques qui conviennent avec
beaucoup d’exemples explicatifs.
CHAPITRE 1. GÉNÉRALITÉS 23
T –
O
Pour déterminer l’incertitude d’une mesure quelconque, on doit d’abord adopter une approche
statistique. À cette fin, les définitions suivantes ont été posées (ISO/CEI (2008)/JCGM (2008);
JCGM (2012)):
a) Incertitude type;
b) Incertitude élargie;
Dans cette figure, T est la valeur vraie, Ō est la moyenne des n valeurs O enregistrées par
l’instrument et σ est l’écart type des valeurs observées par rapport à leurs valeurs moyennes.
a) L’erreur systématique, souvent appelée biais, donnée par la différence algébrique Ō – T. Les
erreurs systématiques ne peuvent pas être éliminées, mais peuvent souvent être réduites.
On peut appliquer un coefficient de correction pour compenser l’effet systématique. En
général, des étalonnages et réglages appropriés devraient être effectués pour éliminer les
erreurs systématiques des capteurs. On ne peut que réduire les erreurs systématiques dues
à l’environnement ou à l’implantation;
c) L’exactitude de mesure, qui est l’étroitesse de l’accord entre le résultat du mesurage et une
valeur vraie du mesurande. L’exactitude d’un instrument de mesure est sa capacité à donner
des résultats proches d’une valeur vraie. Notons que l’exactitude est un concept qualitatif;
8
Notons toutefois que de nombreuses variables météorologiques ne suivent pas la loi de Gauss. Voir la
section 1.6.4.2.3.
24 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Dans la pratique normale, la valeur vraie s’estime à l’aide d’observations. S’il n’existe pas d’erreur
systématique ou si on l’a éliminée des données, on peut calculer approximativement la valeur
vraie en faisant la moyenne d’un très grand nombre de mesures indépendantes exécutées
minutieusement. Lorsque les mesures disponibles sont peu nombreuses, leur moyenne a une
distribution propre et l’on ne peut qu’indiquer certaines limites à l’intérieur desquelles il y a lieu
de penser que la valeur vraie se situe. À cette fin, il faut choisir une probabilité statistique (niveau
de confiance) pour les limites et connaître la distribution de l’erreur des moyennes.
Natrella (1966) a donné une explication très utile et claire de la question et de sujets connexes;
Eisenhart (1963) en a traité également.
Lorsque le nombre d’observations, n, est grand, la distribution des moyennes des échantillons
est gaussienne même si celle des erreurs d’observation ne l’est pas. Dans ce cas, ou quand on sait
pour d’autres raisons que la distribution des moyennes des échantillons est gaussienne, on peut
calculer ainsi les limites à l’intérieur desquelles il y a lieu de penser que la valeur vraie se situe:
σ
Limite supérieure: LU = X + k ⋅ (1.2)
n
σ
Limite inférieure: LL = X − k ⋅ (1.3)
n
où X est la moyenne des observations Ō corrigée de l’erreur systématique, σ l’écart type de la
population, et k un facteur qui peut être calculé en fonction du niveau de confiance choisi en
utilisant la fonction de distribution normale.
Niveau de confiance 90 % 95 % 99 %
k 1,645 1,960 2,575
Le niveau de confiance utilisé dans le tableau ci‑dessus vise la condition que la valeur vraie ne se
situe pas en dehors de la limite particulière (supérieure ou inférieure) à calculer. Quand on établit
le niveau de confiance que la valeur vraie se trouve entre ces limites, il faut tenir compte à la fois
des zones extérieures supérieure et inférieure. Sous cette réserve, on peut constater que k prend
la valeur 1,96 pour une probabilité de 95 % et que la valeur vraie de la moyenne se situe entre les
limites LU et LL .
Quand n est petit, les moyennes des échantillons se répartissent selon la distribution t de Student
à condition que les erreurs d’observation aient une distribution gaussienne ou quasi gaussienne.
Dans ce cas, et pour un niveau de confiance donné, on peut calculer comme suit les limites
supérieure et inférieure:
σ
LU ≈ X + t ⋅
Limite supérieure: n (1.4)
CHAPITRE 1. GÉNÉRALITÉS 25
σ
Limite inférieure: LL ≈ X − t ⋅ (1.5)
n
où t est un facteur (le facteur t de Student) qui dépend du niveau de confiance choisi et du
nombre n de mesures, et σ est l’estimation de l’écart type de la population entière déduite des
∑i =1 ( X i − X )
n 2
n
σ =
2
= ⋅ σ 02 (1.6)
n −1 n −1
où Xi est une valeur individuelle Oi corrigée de l’erreur systématique.
Niveau de confiance 90 % 95 % 99 %
df
Les valeurs de t se rapprochent de celles de k à mesure que n s’accroît et l’on constate qu’elles
deviennent presque égales quand le nombre de degrés de liberté est de 60. C’est pourquoi on
utilise très souvent les tables de k (plutôt que celles de t) quand le nombre de mesures d’une
valeur moyenne dépasse le seuil de 60 environ.
Les chercheurs devraient déterminer si la distribution des erreurs a ou non des chances d’être
gaussienne. Les distributions de certaines variables, comme l’insolation, la visibilité, l’humidité
et le plafond, ne suivent pas la loi de Gauss et leur traitement mathématique doit donc s’opérer
selon les règles propres à chacune d’elles (Brooks et Carruthers, 1953).
Dans la pratique, les observations contiennent à la fois des erreurs aléatoires et systématiques.
Dans tous les cas, la valeur moyenne observée doit être corrigée de l’erreur systématique, pour
autant qu’elle soit connue. L’estimation de la valeur vraie n’en demeure pas moins inexacte à
cause des erreurs aléatoires, comme l’indiquent les expressions, et à cause de toute composante
inconnue de l’erreur systématique. Il faudrait fixer des limites à l’incertitude de l’erreur
systématique et les ajouter à celles des erreurs aléatoires afin d’obtenir l’incertitude globale.
On ne peut cependant connaître le niveau de confiance qu’à condition de pouvoir exprimer en
termes de probabilité l’incertitude de l’erreur systématique et la combiner convenablement avec
l’erreur aléatoire. Il est donc souhaitable de déterminer pleinement l’erreur systématique.
Si des effets aléatoires et systématiques sont identifiés, mais que leur correction ou leur réduction
n’est pas possible ou n’est pas réalisée, l’incertitude du mesurage qui en résulte devrait être
26 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
estimée. Cette incertitude est déterminée après une estimation de l’incertitude résultant des
effets aléatoires et de la correction imparfaite du résultat pour les effets systématiques. Il est
courant d’exprimer l’incertitude comme une «incertitude élargie» en liaison avec un «intervalle
statistique élargi». Afin de rester cohérent avec les pratiques métrologiques courantes, on devrait
utiliser le niveau de confiance à 95 %, soit k = 2, pour tous les types de mesurages, à savoir:
< incertitude élargie > = k ⋅ σ = 2 ⋅ σ (1.7)
Il en résulte que la valeur vraie, définie au paragraphe 1.6.2, s’exprimera comme:
< valeur vraie > = < valeur mesurée > ± < incertitude élargie > = < valeeur mesurée > ± 2 σ
Alors que l’état de l’atmosphère peut être bien décrit par des variables physiques ou des
quantités, un certain nombre de phénomènes météorologiques s’expriment en termes de valeurs
discrètes. La détection de lumière solaire, de précipitations, d’éclairs ou de pluie verglaçante en
est un exemple. Tous ces paramètres ne peuvent être exprimés que par «oui» ou «non». Il existe
davantage de possibilités pour d’autres paramètres, qui appartiennent tous au groupe du temps
présent. Il convient de distinguer, par exemple, entre la bruine, la pluie, la neige, la grêle et leur
combinaison lorsque l’on rapporte le temps qu’il fait. Les calculs d’incertitude tels que ceux qui
ont été exposés ci‑dessus sont inapplicables dans de tels cas. Certains de ces paramètres sont
liés à un seuil numérique (par exemple la détection de l’ensoleillement à l’aide de l’intensité du
rayonnement direct) et la détermination de l’incertitude de n’importe quelle variable dérivée
(par exemple la durée d’insolation) peut être calculée à partir de l’incertitude estimée de la
variable source (par exemple l’intensité du rayonnement direct). Cette méthode n’est toutefois
applicable qu’aux paramètres dérivés et non aux phénomènes du temps présent. Bien qu’une
approche numérique simple ne puisse être présentée, il existe un certain nombre de techniques
statistiques permettant de déterminer la qualité de telles observations. Ces techniques sont
basées sur la comparaison de deux jeux de données, dont l’un constitue une référence. Une
telle comparaison permet de produire une matrice de contingence, représentant les fréquences
croisées du même phénomène. Dans sa forme la plus simple, lorsque la variable est booléenne
(«oui» ou «non»), la matrice possède deux lignes et deux colonnes, avec le nombre d’occurrences
communes dans les cellules de l’axe diagonal et le nombre de «correspondances absentes»
et d’«indications erronées» dans les autres cellules. Elle permet de déduire des indices de
comparaison représentatifs de la qualité de l’observation. Cette technique est décrite par Murphy
et Katz (1985) et Kok (2000) en fournit un aperçu.
1.6.5.1 Généralités
L’incertitude avec laquelle une variable météorologique devrait être mesurée varie selon l’usage
précis auquel est destinée la mesure. En règle générale, c’est la variabilité de l’élément à mesurer,
aux échelles spatio‑temporelles adéquates pour l’application, qui limite les performances de
l’instrument ou du système de mesure.
On peut considérer que toute mesure se compose de deux parties: le signal et le bruit. Le signal
constitue la grandeur que l’on veut déterminer, le bruit ce qui le parasite. Le bruit peut provenir
de différentes sources: l’erreur d’observation, le fait que la mesure ne soit pas effectuée au
moment et à l’endroit voulus, ou encore la manifestation dans la grandeur observée de brèves ou
faibles irrégularités qui n’ont aucun rapport avec le but de l’observation et doivent être éliminées.
Même s’il était possible de réduire à volonté l’erreur d’observation, le bruit dû aux autres sources
limiterait l’exactitude. Parfaire la technique d’observation améliorerait la mesure du bruit mais ne
donnerait pas des résultats nettement supérieurs pour le signal.
CHAPITRE 1. GÉNÉRALITÉS 27
Différents états des exigences ont été dressés successivement et les besoins et capacités évoluent
sans cesse. Les exigences énoncées à l’annexe 1.E font autorité au moment où cette nouvelle
version du Guide est rédigée et on peut les considérer comme des références utiles, mais elles ne
sont pas définitives.
Un résumé des exigences prescrites pour les variables les plus courantes en météorologie
synoptique, aéronautique et maritime et en climatologie figure dans l’annexe 1.E9. Il ne concerne
que les mesurages en surface destinés à un échange international. On trouvera dans OMM
(2010d) le détail des données d’observation dont les centres du Système mondial de traitement
des données et de prévision ont besoin pour leurs échanges mondiaux et régionaux. L’incertitude
exigée est indiquée séparément pour la vitesse et la direction du vent parce que c’est ainsi qu’on
spécifie cet élément dans les messages d’observation.
La capacité des capteurs et systèmes d’observation à satisfaire les critères fixés évolue
constamment avec le perfectionnement des instruments et des techniques. On trouvera dans
l’annexe 1.E10 les caractéristiques des capteurs et systèmes couramment disponibles aujourd’hui.
On notera que l’exactitude réalisable est bien souvent inférieure à celle qui est exigée. Pour
certaines grandeurs, cette exactitude ne peut être atteinte qu’avec des équipements et méthodes
de la meilleure qualité.
Les exigences en matière d’incertitude pour les mesurages en altitude sont traitées dans le
chapitre 12 de la partie I.
9
Exigences établies par l’Équipe d’experts de la CSB sur les exigences concernant les données des stations
météorologiques automatiques (2004) et approuvées par le président de la CIMO pour inclusion dans le présent
guide après consultation des présidents des autres commissions techniques.
10
Caractéristiques établies par l’Équipe d’experts de la CIMO pour les techniques d’observation en surface et les
méthodes de mesure (2004) et dont l'inclusion dans le présent guide a été confirmée par le président de la CIMO.
ANNEXE 1.A. CENTRES RÉGIONAUX D’INSTRUMENTS
Capacités:
c) Disposer de cadres et de techniciens qualifiés ayant acquis l’expérience voulue pour remplir
les fonctions qui leur incombent;
d) Élaborer des instructions techniques particulières sur la manière d’étalonner les instruments
d’observation météorologique et de surveillance de l’environnement avec le matériel en
leur possession;
g) Mettre à profit les ressources et les capacités dont dispose la Région, selon qu’il convient et
dans le meilleur intérêt de celle‑ci;
h) Respecter dans la mesure du possible les normes internationales visant les laboratoires
d’étalonnage, telle la norme ISO/CEI 17025;
i) Être évalués par une autorité reconnue au moins tous les cinq ans afin que soient vérifiés
leurs capacités et leur fonctionnement;
Fonctions:
1
Recommandations adoptées par la CIMO à sa quatorzième session, tenue en 2006.
CHAPITRE 1. GÉNÉRALITÉS 29
l) Apporter un concours aux Membres dans le but d’accroître la qualité des mesures,
conformément aux recommandations visant le cadre de référence de l’OMM pour la
gestion de la qualité;
n) Prendre activement part aux ateliers régionaux sur les instruments d’observation
météorologique et de surveillance de l’environnement, ou aider à organiser de tels ateliers;
o) Coopérer avec les autres CRI afin de normaliser les mesures météorologiques et
environnementales;
p) Transmettre régulièrement des informations aux Membres sur les services offerts et sur les
activités conduites et faire rapport une fois par an2 au président du Conseil régional et au
Secrétariat de l’OMM à ce sujet.
Capacités:
a) Détenir les installations et le matériel de laboratoire nécessaires pour exécuter les tâches
liées à l’étalonnage des instruments d’observation météorologique et de surveillance de
l’environnement;
c) Disposer de cadres et de techniciens qualifiés ayant acquis l’expérience voulue pour remplir
les fonctions qui leur incombent;
d) Élaborer des instructions techniques particulières sur la manière d’étalonner les instruments
d’observation météorologique et de surveillance de l’environnement avec le matériel en
leur possession;
g) Mettre à profit les ressources et les capacités dont dispose la Région, selon qu’il convient et
dans le meilleur intérêt de celle‑ci;
h) Respecter dans la mesure du possible les normes internationales visant les laboratoires
d’étalonnage, telle la norme ISO/CEI 17025;
i) Être évalués par une autorité reconnue au moins tous les cinq ans afin que soient vérifiés
leurs capacités et leur fonctionnement;
2
Par le réseau Internet de préférence.
3
Pour l’étalonnage des appareils servant à mesurer une ou plusieurs des variables suivantes: température, humidité,
pression et autres paramètres spécifiés par la Région.
30 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Fonctions:
k) Apporter un concours aux Membres dans le but d’accroître la qualité des mesures,
conformément aux recommandations visant le cadre de référence de l’OMM pour la
gestion de la qualité;
m) Coopérer avec les autres CRI afin de normaliser les instruments d’observation
météorologique et de surveillance de l’environnement;
n) Transmettre régulièrement des informations aux Membres sur les services offerts et sur les
activités conduites et faire rapport une fois par an4 au président du Conseil régional et au
Secrétariat de l’OMM à ce sujet.
2. Les CRI suivants ont été désignés par les conseils régionaux (CR) concernés: Alger
(Algérie), Le Caire (Égypte), Casablanca (Maroc), Nairobi (Kenya) et Gaborone (Botswana) pour
la Région I (Afrique); Beijing (Chine) et Tsukuba (Japon) pour la Région II (Asie); Buenos Aires
(Argentine) pour la Région III (Amérique du Sud); Bridgetown (Barbade) et San José (Costa Rica)
pour la Région IV (Amérique du Nord, Amérique centrale et Caraïbes); Manille (Philippines) et
Melbourne (Australie) pour la Région V (Pacifique Sud‑Ouest); Bratislava (Slovaquie), Ljubljana
(Slovénie) et Toulouse (France) pour la Région VI (Europe).
4
Par le réseau Internet de préférence.
ANNEXE 1.B. CLASSIFICATION DE SITES POUR LES STATIONS
TERRESTRES D’OBSERVATION EN SURFACE
INTRODUCTION
L’environnement d’un site1 peut influer sur les mesures. Une analyse précise de l’environnement
associée à l’évaluation des caractéristiques de l’instrument lui‑même permet d’éviter de fausser
les mesures et d’altérer leur représentativité, en particulier lorsqu’un site est censé représenter
une zone relativement étendue (soit entre 100 et 1 000 km2).
1. DOMAINE D’APPLICATION
La présente annexe2 indique les règles de dégagement applicables aux différents capteurs. Mais
que convient‑il de faire lorsque les conditions décrites ne sont pas réunies?
Il existe des sites qui ne respectent pas les règles de dégagement recommandées. C’est pourquoi
on établit une classification des sites de mesure permettant de déterminer leur représentativité
à petite échelle (influence de l’environnement proche). Ainsi, un site de classe 1 sera considéré
comme un site de référence, tandis qu’un site de classe 5 sera un site où des obstacles proches
créent un environnement inapproprié à l’exécution de mesures météorologiques censées être
représentatives d’une zone étendue (d’au moins quelques dizaines de kilomètres carrés). Mieux
le site sera classé et plus la mesure sera représentative d’une zone étendue. L’idéal serait que tous
les sites appartiennent à la classe 1, mais, dans la réalité, la perfection étant difficile à atteindre,
certains compromis se révèlent nécessaires. Bien que comportant des obstacles altérant les
mesures, un site de classe inférieure (chiffre élevé) peut néanmoins présenter un intérêt pour une
application particulière.
Le processus de classification aide les acteurs et les directeurs de réseaux à mieux prendre en
considération les règles de dégagement, ce qui a souvent pour conséquence d’améliorer le choix
du site. Quel que soit le site, les métadonnées permettent d’en connaître les caractéristiques.
Il est évidemment possible et recommandé d’établir une description complète du site, mais la
complexité des métadonnées risque alors d’en restreindre l’emploi, ce qui est souvent le cas en
exploitation. C’est pourquoi cette classification des sites de mesure se propose de condenser
l’information pour faciliter l’exploitation effective des métadonnées.
Il y a lieu de revoir périodiquement la classification d’un site, car son environnement peut
varier dans le temps. Il est recommandé de procéder chaque année à une vérification visuelle
systématique et de déterminer ainsi s’il y a lieu de relancer le processus de classification quand
certains aspects des alentours ont évolué.
Il convient de ne pas laisser passer plus de cinq ans entre chaque actualisation complète des
classes attribuées aux sites.
1
Un «site» est défini comme l’emplacement où l’instrument est installé.
2
Alors que le texte compose une annexe du Guide des instruments et des méthodes d’observation météorologiques
(OMM‑No 8), il est mentionné comme «norme» dans le document de l’ISO.
32 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Dans le texte qui suit, la classification est complétée (parfois) par une estimation de l’incertitude
due au site, qu’il faut ajouter à l’incertitude associée à la mesure. Cette estimation découle
d’études bibliographiques ou de certains tests comparatifs.
La classification a pour objectif premier de décrire la présence d’obstacles dans les alentours
immédiats du site de mesure. Il est donc possible qu’il ne soit pas tenu compte du relief naturel
si celui‑ci est éloigné (distance supérieure à 1 km). Pour établir si le relief propre au paysage
alentour est représentatif, il suffit de se demander si le fait de déplacer la station sur une distance
de 500 m en changerait la classification. Si la réponse est négative, c’est que le relief constitue
une caractéristique naturelle de la région et qu’il n’est pas à prendre en compte.
En terrain complexe ou en zone urbaine, les classes attribuées sont en général celles des rangs
à grand chiffre de code. Dans ce cas, il est possible d’ajouter, après le numéro des classes 4 ou 5,
l’indicateur «S» pour signifier qu’il s’agit d’un environnement particulier ou d’une application
spéciale (exemple: 4S).
2.1 Généralités
Les capteurs à l’intérieur de l’abri devraient être installés à une hauteur déterminée par le Service
météorologique (entre 1,25 et 2 m, comme indiqué dans le Guide des instruments et des méthodes
d’observation météorologiques (OMM‑No 8)). La hauteur ne devrait être, en aucun cas, inférieure
à 1,25 m. Il est moins important de respecter la limite supérieure, car le rapport du gradient de
température à la hauteur diminue avec la hauteur. À titre d’exemple, l’écart de température entre
1,5 et 2 m ne dépasse pas 0,2 °C.
Les plus grands écarts sont causés par les surfaces artificielles et par les ombres portées:
a) Les obstacles se trouvant autour de l’abri influent sur son équilibre radiatif. Un abri
installé près d’un obstacle vertical risque d’être «protégé» du rayonnement solaire ou du
refroidissement radiatif nocturne de l’air, se trouvant sous l’influence du rayonnement
infrarouge relativement chaud de l’obstacle ou du rayonnement que celui‑ci réfléchit;
b) Il y a lieu d’éviter de positionner des capteurs près de surfaces artificielles qui risquent
de réchauffer l’air. L’importance de leur influence est fonction des conditions de vent, car
le vent influe sur les échanges d’air. Les surfaces artificielles à prendre en compte sont
les sources de chaleur, les surfaces réfléchissantes (bâtiments, aires bétonnées, parcs de
stationnement, etc.) et les étendues d’eau ou les sources d’humidité (mares, lacs, zones
irriguées, etc.).
Il y a lieu d’éviter les ombres portées dues aux obstacles proches. La classification ne tient pas
compte des ombres portées par le relief naturel (voir ci‑dessus).
Les hauteurs de végétation indiquées correspondent aux hauteurs de végétation que l’on
pourrait obtenir sur le site avec un entretien «normal». Il convient donc de faire la différence entre
une hauteur de végétation structurelle (fonction du type de végétation sur le site) et une hauteur
liée à un mauvais entretien. C’est pourquoi il est demandé de classer le site en considérant qu’il
est entretenu (sauf si un tel entretien est impossible).
2.2 Classe 1
a) Terrain plat et horizontal, entouré d’une surface de dégagement dont la pente est inférieure
à ⅓ (19°);
ii) À plus de 100 m d’étendues d’eau (sauf si elles sont significatives de la région);
iii) À l’écart de toute ombre portée lorsque la hauteur du soleil est supérieure à 5°.
Une source de chaleur (ou une étendue d’eau) est considérée comme gênante si elle occupe une
portion de la surface supérieure à 10 % dans un rayon de 100 m autour de l’abri, ou une portion
de 5 % dans une couronne de rayon de 10 à 30 m, ou une portion de 1 % dans un rayon de 10 m.
Sources de chaleur
S = surface des sources de chaleur (bâtiments, parkings,
surface en béton)
≤ 19º
S≤5%
Végétation basse < 10 cm ≥ 100 m
100 m 10 m
S≤1% Lac...
30 m
S ≤ 10 %
5º
≥ 100 m
Figure 1.B.1. Critères que doivent satisfaire les sites de classe 1 pour la mesure de la
température et de l’humidité de l’air
2.3 Classe 2
a) Terrain plat et horizontal, entouré d’une surface de dégagement dont la pente est inférieure
à ⅓ (19°);
iii) À l’écart de toute ombre portée lorsque la hauteur du soleil est supérieure à 7°.
Une source de chaleur (ou une étendue d’eau) est considérée comme gênante si elle occupe une
portion de la surface supérieure à 10 % dans un rayon de 30 m autour de l’abri, ou une portion
de 5 % dans une couronne de rayon de 5 à 10 m, ou une portion de 1 % dans un rayon de 5 m.
34 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
S≤5% ≤ 19º
Végétation < 10 cm ≥ 30 m
30 m
5m
S≤1%
10 m Lac...
S ≤ 10 %
7º
≥ 30 m
Figure 1.B.2. Critères que doivent satisfaire les sites de classe 2 pour la mesure de la
température et de l’humidité de l’air
iii) À l’écart de toute ombre portée lorsque la hauteur du soleil est supérieure à 7°.
Une source de chaleur (ou une étendue d’eau) est considérée comme gênante si elle occupe une
portion de la surface supérieure à 10 % dans un rayon de 10 m autour de l’abri ou une portion de
5 % dans un rayon de 5 m.
Végétation < 25 cm ≥ 10 m ≥ 10 m
S≤5%
5m
S ≤ 10 %
7º
10 m
Figure 1.B.3. Critères que doivent satisfaire les sites de classe 3 pour la mesure de la
température et de l’humidité de l’air
b) Point de mesure situé à l’écart de toute ombre portée lorsque la hauteur du soleil est
supérieure à 20°.
Sources de chaleur
(bâtiments, parkings,
surface en béton)
S ≤ 30 % 20º
3m < 10 m
S ≤ 50 %
10 m
Figure 1.B.4. Critères que doivent satisfaire les sites de classe 4 pour la mesure de la
température et de l’humidité de l’air
3. PRÉCIPITATIONS
3.1 Généralités
Le vent est le phénomène perturbateur le plus important pour la mesure des précipitations,
en raison de l’effet de l’instrument sur l’écoulement de l’air. À moins que les pluviomètres
soient protégés artificiellement contre le vent, à l’aide d’un écran par exemple, les sites qui
conviennent le mieux sont souvent des clairières au milieu de forêts ou de vergers, des terrains
entourés d’arbres ou situés dans des forêts de broussailles ou d’arbustes, ou encore des terrains
où d’autres obstacles constituent des coupe‑vent efficaces, quelle que soit la direction d’où
vient le vent. Les conditions idéales d’implantation correspondent à une installation en un lieu
entouré uniformément d’obstacles de hauteur uniforme. Un obstacle est un objet dont la largeur
angulaire effective est égale ou supérieure à 10°.
Le choix d’un tel site est incompatible avec les contraintes correspondant à la hauteur des
autres instruments de mesure. De telles conditions sont presque irréalistes. Si les obstacles ne
sont pas uniformes, ils peuvent créer des turbulences gênantes pour la mesure, leur effet étant
plus prononcé en cas de précipitations solides. C’est pourquoi des règles de dégagement plus
réalistes demandent un éloignement des obstacles. L’orientation des obstacles par rapport
à la direction des vents dominants n’est volontairement pas prise en compte. En effet, des
précipitations fortes sont souvent associées à des phénomènes convectifs, pour lesquels la
direction du vent n’est pas forcément celle des vents dominants. On estime que les obstacles sont
de hauteur uniforme quand le rapport entre le plus haut et le moins haut est inférieur à 2.
3.2 Classe 1
a) Terrain plat et horizontal, entouré d’une surface de dégagement dont la pente est
inférieure à ⅓ (19°). Le pluviomètre est entouré d’obstacles bas de hauteur uniforme, qui
sous‑tendent des hauteurs angulaires comprises entre 14 et 26° (qui se situent donc à une
distance comprise entre deux et quatre fois leur hauteur);
b) Terrain plat et horizontal, entouré d’une surface de dégagement dont la pente est inférieure
à ⅓ (19°). Le pluviomètre est protégé artificiellement du vent; il n’est donc pas absolument
nécessaire qu’il soit entouré d’obstacles de hauteur uniforme. Dans ce cas, tout autre
obstacle se situe à une distance d’au moins quatre fois sa hauteur.
26,5º 14º
d≥2h d≤4h
19º
ou:
h Obstacle
Site
d≥4h
≤ 19º
≥ 10º
(site < 14º)
a) Terrain plat et horizontal, entouré d’une surface de dégagement dont la pente est inférieure
à ⅓ (19°);
b) Les obstacles éventuels se situent à une distance d’au moins deux fois leur hauteur (par
rapport à la hauteur de captation du pluviomètre).
h Obstacle
Site
d≥2h
≤ 19º
≥ 10º
(site ≤ 26,5º)
a) Terrain entouré d’une surface de dégagement dont la pente est inférieure à ½ (≤ 30°);
Site h
d≥h
≤ 30º
(site ≤ 45º)
b) Les obstacles éventuels se situent à une distance supérieure à la moitié (½) de leur hauteur.
h
Site
d<h
> 30º
Les obstacles se situent à une distance inférieure à la moitié (½) de leur hauteur (arbre, toit, mur,
etc.).
4. VENT DE SURFACE
4.1 Généralités
Selon les règles usuelles, les capteurs devraient être placés à 10 m au‑dessus du sol et sur un
terrain dégagé, c’est‑à‑dire une surface où les obstacles se situent à une distance d’au moins dix
fois leur hauteur.
4.2 Rugosité
La mesure du vent n’est pas perturbée uniquement par les obstacles environnants; la rugosité du
terrain exerce aussi une influence. Pour l’OMM, le vent de surface mesuré aux stations terrestres
est le vent qui souffle à une hauteur géométrique de 10 m sur un site ayant une longueur de
rugosité égale à 0,03 m.
C’est en quelque sorte un vent de référence dont on connaît les conditions exactes de mesure
(hauteur: 10 m, longueur de rugosité: 0,03 m).
Voici, repris ci‑dessous, le tableau de classification de la rugosité qui figure dans le Guide des
instruments et des méthodes d’observation météorologiques (OMM‑No 8), partie I, chapitre 5, annexe:
Dans la classification qui suit, on considère que la mesure est effectuée à 10 m, à savoir la hauteur
conventionnelle pour les mesures météorologiques.
Dans le cas de mesures exécutées à des hauteurs inférieures (à 2 m par exemple, comme c’est
parfois le cas à des fins agroclimatologiques), la classe de rang 4 ou 5 est attribuée (voir ci‑après)
avec l’indicateur «S» (situation particulière).
Dans ce qui suit, un objet est considéré comme un obstacle s’il présente une largeur angulaire
effective supérieure à 10°. Il convient également de tenir compte, pour les classes de rang 1 à 3,
des obstacles hauts et étroits, soit ceux dont la largeur angulaire effective est inférieure à 10° et
dont la hauteur excède 8 m, comme cela est indiqué ci‑après. Un ensemble d’obstacles hauts
et étroits a, dans certains cas, un effet similaire à celui d’un seul obstacle plus large et doit être
considéré comme tel.
Les variations d’altitude (positives ou négatives) proches n’étant pas représentatives de la région
sont considérées comme des obstacles.
4.4 Classe 1
a) Le pylône devrait être installé à une distance au moins égale à 30 fois la hauteur des
obstacles environnants;
b) Les capteurs devraient se situer à une distance au moins égale à 15 fois la largeur des
obstacles étroits (mât, arbre mince) dépassant une hauteur de 8 m.
h
Site
d ≥ 30 h (site ≤ 1,9º)
≥ 10º
≥ 15 largeurs
a) Le pylône devrait être installé à une distance au moins égale à 10 fois la hauteur des
obstacles environnants;
b) Les capteurs devraient se situer à une distance au moins égale à 15 fois la largeur des
obstacles étroits (mât, arbre mince) dépassant une hauteur de 8 m.
Largeur
h
Site
d ≥ 10 h (site ≤ 5,7º)
≥ 15 largeurs
Note: Si le pylône se situe à une distance au moins égale à 20 fois la hauteur des obstacles environnants, il
est possible d’appliquer une correction (voir le Guide des instruments et des méthodes d’observation météorologiques
(OMM‑No 8), partie I, chapitre 5). Quand les obstacles se situent à une distance inférieure, une correction est possible
dans certaines situations.
a) Le pylône devrait être installé à une distance au moins égale à 5 fois la hauteur des obstacles
environnants;
b) Les capteurs devraient se situer à une distance au moins égale à 10 fois la largeur des
obstacles étroits (mât, arbre mince) dépassant une hauteur de 8 m.
CHAPITRE 1. GÉNÉRALITÉS 41
Largeur
h
Site > 8 m Les obstacles inférieurs à 5 m sont ignorés.
d ≥ 5 h (site ≤ 11,3º)
≥ 10 largeurs
a) Le pylône devrait être installé à une distance au moins égale à 2,5 fois la hauteur des
obstacles environnants;
b) Il n’y a pas d’obstacles d’une largeur angulaire supérieure à 60° et d’une hauteur supérieure
à 10 m dans un rayon de 40 m.
Les obstacles isolés de hauteur inférieure à 6 m peuvent être négligés, à condition que les
mesures soient exécutées à une hauteur minimale de 10 m.
Non
h > 10 m
Site
> 60º
d ≥ 2,5 h (site ≤ 21,8º) 40 m
Les obstacles inférieurs à 6 m sont ignorés.
5.1 Généralités
Il convient d’éviter les sites comprenant des obstacles proches. La classification ne tient pas
compte des ombres portées correspondant au relief naturel. Les obstacles non réfléchissants se
situant sous l’horizon visible peuvent être négligés.
On considère qu’un obstacle est réfléchissant si son albédo est supérieur à 0,5.
L’élément sensible de l’instrument constitue le point de référence pour les angles de site.
5.2 Classe 1
a) Aucune ombre portée sur le capteur lorsque le soleil est à une hauteur angulaire supérieure
à 5°. Pour les régions situées à des latitudes ≥ 60°, cette limite passe à 3°;
b) Aucun obstacle réfléchissant, sans ombre portée, d’une hauteur angulaire supérieure à 5° et
d’une largeur angulaire totale supérieure à 10°.
42 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
JGODDPD LDODODOD
JGODDPD LDODODOD JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS
JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS
KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS KSKSKSKSKSKSKS K SKSKSK
KSKSKSKSKSKSKS K SKSKSK
5º 5º
Figure 1.B.14. Critères que doivent satisfaire les sites de classe 1 pour la mesure du
rayonnement global et diffus
5.3 Classe 2
a) Aucune ombre portée sur le capteur lorsque le soleil est à une hauteur angulaire supérieure
à 7°. Pour les régions situées à des latitudes ≥ 60°, cette limite passe à 5°;
b) Aucun obstacle réfléchissant, sans ombre portée, d’une hauteur angulaire supérieure à 7° et
d’une largeur angulaire totale supérieure à 20°.
JGODDPD LDODODOD
JGODDPD LDODODOD JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS
JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS
KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS KSKSKSKSKSKSKS K SKSKSK
KSKSKSKSKSKSKS K SKSKSK
7º 7º
Figure 1.B.15. Critères que doivent satisfaire les sites de classe 2 pour la mesure du
rayonnement global et diffus
5.4 Classe 3
a) Aucune ombre portée sur le capteur lorsque le soleil est à une hauteur angulaire supérieure
à 10°. Pour les régions situées à des latitudes ≥ 60°, cette limite passe à 7°;
b) Aucun obstacle réfléchissant, sans ombre portée, d’une hauteur angulaire supérieure à 15°
et d’une largeur angulaire totale supérieure à 45°.
JGODDPD LDODODOD
JGODDPD LDODODOD JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS
JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS
KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS KSKSKSKSKSKSKS K SKSKSK
KSKSKSKSKSKSKS K SKSKSK
10º 15º
Figure 1.B.16. Critères que doivent satisfaire les sites de classe 3 pour la mesure du
rayonnement global et diffus
5.5 Classe 4
Aucune ombre portée sur le capteur pendant plus de 30 % de la journée, quel que soit le jour de
l’année.
CHAPITRE 1. GÉNÉRALITÉS 43
≤ 30 % de la journée
JGODDPD LDODODOD
JFOSOKSOS SOSOS SOSOSOSOSOSOSOSS
KDDFJSISOSOSK SLSL S SLSLSLSLSSLSLSLSLSLS
KSKSKSKSKSKSKS K SKSKSK
Figure 1.B.17. Critères que doivent satisfaire les sites de classe 4 pour la mesure du
rayonnement global et diffus
5.6 Classe 5
Ombre portée sur le capteur pendant plus de 30 % de la journée, au moins un jour dans l’année.
6.1 Généralités
Il convient d’éviter les sites comprenant des obstacles proches. La classification ne tient pas
compte des ombres portées correspondant au relief naturel. Les obstacles non réfléchissants se
situant sous l’horizon visible peuvent être négligés.
L’élément sensible de l’instrument constitue le point de référence pour les angles de site.
6.2 Classe 1
Aucune ombre portée sur le capteur lorsque le soleil est à une hauteur angulaire supérieure à 3°.
3º
Figure 1.B.18. Critères que doivent satisfaire les sites de classe 1 pour la mesure du
rayonnement direct et de la durée d’insolation
6.3 Classe 2
Aucune ombre portée sur le capteur lorsque le soleil est à une hauteur angulaire supérieure à 5°.
5º
Figure 1.B.19. Critères que doivent satisfaire les sites de classe 2 pour la mesure du
rayonnement direct et de la durée d’insolation
6.4 Classe 3
Aucune ombre portée sur le capteur lorsque le soleil est à une hauteur angulaire supérieure à 7°.
44 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
7º
Figure 1.B.20. Critères que doivent satisfaire les sites de classe 3 pour la mesure du
rayonnement direct et de la durée d’insolation
6.5 Classe 4
Aucune ombre portée sur le capteur pendant plus de 30 % de la journée, quel que soit le jour de
l’année.
≤ 30 % de la journée
Figure 1.B.21. Critères que doivent satisfaire les sites de classe 4 pour la mesure du
rayonnement direct et de la durée d’insolation
6.6 Classe 5
Ombre portée sur le capteur pendant plus de 30 % de la journée, au moins un jour dans l’année.
ANNEXE 1.C. DESCRIPTION DE L’EXPOSITION DES STATIONS
L’exactitude avec laquelle une observation décrit une partie choisie de l’atmosphère ne se
confond pas avec l’incertitude de l’instrument, car la valeur de l’observation dépend aussi de
l’exposition de l’instrument vis‑à‑vis de l’atmosphère. Ce n’est pas un problème technique et sa
description relève donc de la responsabilité de l’observateur ou du personnel de la station. En
pratique, un site idéal parfaitement exposé est rarement disponible et, à moins que l’exposition
réelle ne soit adéquatement documentée, la fiabilité des observations ne peut être déterminée
(OMM, 2002).
Les métadonnées de la station devraient contenir les aspects ci‑après relatifs à l’exposition des
instruments:
iv) Caractéristiques du terrain à petite échelle, telles que pentes, dallages, eaux libres;
La plupart de ces éléments sont quasi permanents, mais tout changement significatif (croissance
de la végétation, nouvelles constructions) devrait être enregistré, et daté, dans le livre de bord de
la station.
Il est recommandé, pour décrire l’exposition à moyenne échelle, d’utiliser une carte d’au moins
1:25 000, comportant des courbes de niveau d’environ un mètre. On devrait indiquer sur cette
carte l’emplacement (et la hauteur) des bâtiments et des arbres, la nature de la couverture
des sols et les instruments installés. Aux marges de la carte, on devrait noter les principales
caractéristiques éloignées (par exemple, surfaces bâties, forêts, eaux libres, collines). Les
photographies sont utiles si elles ne sont pas trop centrées sur les instruments ou les abris, mais
sont prises à une distance suffisante pour montrer les instruments dans leur environnement. De
telles photographies devraient être prises sous tous les angles.
On pourra fournir les métadonnées minimales requises concernant l’exposition des instruments
en remplissant le modèle présenté à la page suivante pour toutes les stations du réseau (voir
la figure ci‑après). Un exemple de la marche à suivre est donné dans OMM (2003). Les classes
utilisées ici pour décrire la rugosité des terrains sont données dans le chapitre 5 de la partie I
du présent guide. On trouvera dans OMM (2010c) un exposé plus détaillé de la question des
métadonnées.
46 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
0 200 m
Enclos
N
Bâtiment
Route
x xx Arbres, buissons
+3 Courbe de niveau
1: 6 8°
1: 10 4°
1: 20
0°
N E S O N
Température et humidité: Hauteur du capteur
Ventilation artificielle? oui/non
Type de surface sous l’instrument
Type de sol sous l’instrument
Classe de rugosité du terrain: vers le nord, vers l’est, vers le sud, vers l’ouest
Remarques:
Les instruments et les structures de forme aérodynamique sont généralement plus résistants. La
pose de disques lestés sur le sol aide à maintenir les instruments en place pendant une tornade et
l’emploi de ballons captifs profilés permet d’effectuer des sondages en dépit de vents de la force
d’un ouragan.
Il est possible d’ajouter des étais pour renforcer les mâts. Tous les câbles devraient être
fermement assujettis et soutenus. Des écrans devraient protéger le matériel des débris
transportés par le vent, tant les objets de grande dimension (qui peuvent infliger des chocs) que
les particules fines telles la poussière et le sable (qui peuvent provoquer une érosion).
Le choix de capteurs capables de résister aux vents forts est recommandé. Le problème des
pièces mobiles dans les capteurs de mesure du vent peut être éliminé en optant pour des
modèles qui fonctionnent sur le principe de la différence de pression (tubes de Pitot), sur le
principe de la propagation du son (appareils à ultrasons) ou par refroidissement thermique.
Certains types d’anémomètres à coupes, de girouettes et d’anémomètres à hélice sont conçus
pour fonctionner en présence de vents extrêmes.
Il est déconseillé de choisir un site en contrebas. Les capteurs peuvent être montés sur des
pieux afin de ne pas être endommagés par les eaux de surface et les débris en mouvement. Les
fondations devraient être construites dans un matériau résistant et être orientées parallèlement
à l’écoulement attendu, de manière à réduire au minimum les pressions hydrostatiques. Les
raccords électriques devraient se trouver au‑dessus du niveau de crue prévu ou être enfermés
dans des boîtiers étanches (de la classe de protection IP (Ingress Protection) voulue).
3. Incendies
L’emploi de matériaux non combustibles, en général le métal et le béton, est recommandé dans
toute la mesure du possible. Les ouvertures pratiquées dans l’équipement devraient être munies
d’écrans pour empêcher l’entrée d’étincelles – à condition que cela ne nuise pas à l’exposition des
appareils de mesure.
4. Givrage
Une source de chaleur ou une circulation d’air sert souvent à prévenir le givrage. Certains
modèles de capteurs renferment un dispositif qui délivre une quantité variable de chaleur
selon les conditions de givrage attendues. Il est possible de protéger les autres modèles en
posant directement du ruban chauffant sur les surfaces (résistances électriques noyées dans
une pellicule souple ou fils de nichrome). Notons que les capteurs de mesure du vent qui
ne comportent pas de pièces mobiles (tels les appareils à ultrasons) sont généralement plus
faciles à chauffer. Une autre solution consiste à vaporiser sur les capteurs un fluide à bas point
de congélation (comme l’éthanol) lorsque survient une période de givrage. Aucune de ces
méthodes ne parviendra à prévenir l’accumulation de glace en cas de conditions intenses.
La méthode employée pour réduire l’accumulation de glace ne devrait pas influer sur les mesures
effectuées par le capteur lui‑même ou par des capteurs proches. Par exemple, le chauffage
de l’appareil ne devrait pas modifier la température de l’air ou l’humidité relative mesurée
à proximité. Une solution consiste à chauffer le capteur pendant un certain temps, le laisser
refroidir, effectuer la mesure et recommencer le cycle.
La perte d’intégrité structurelle de certains matériaux provoquera des bris si les capteurs,
boîtiers et câbles reçoivent un rayonnement solaire intense et, surtout, un niveau élevé de
rayonnement ultraviolet (UV). Il est souvent possible de prolonger sensiblement la durée de vie
de l’équipement et des structures en optant pour d’autres matériaux, tels le métal, le bois de
feuillus et les matières plastiques renfermant un agent anti‑UV.
Dans les climats chauds et les emplacements exposés à un rayonnement solaire élevé, la
température à l’intérieur des boîtiers risque d’excéder les spécifications de fonctionnement et de
nuire à la fiabilité des mesures et de l’équipement. La hausse de la température peut être limitée
grâce à des évents et/ou une ventilation forcée (avec filtres appropriés) ou un petit système
de climatisation. Les dispositifs de refroidissement à effet Peltier permettent aussi d’extraire la
chaleur sans exposer le contenu du boîtier à la circulation d’air extérieur.
Il est également possible de poser des écrans pare‑soleil, d’utiliser des gaines de câbles ou,
simplement, d’enterrer l’équipement si cela ne porte pas atteinte à l’exposition des instruments
de mesure.
Le conducteur de descente vers la terre devrait être composé d’un matériau hautement
conducteur (souvent le cuivre) d’une capacité suffisante pour recevoir les courants extrêmement
élevés, quoique brefs, qui accompagnent la foudre. Chaque élément du conducteur, y compris
les raccords, doit présenter la capacité voulue. Tout devrait être fait pour minimiser la résistance
électrique du raccordement à la terre. Les coudes devraient être en nombre limité et ne jamais
excéder 45 degrés. Il est recommandé d’ajouter un conducteur de mise à la terre à faible
impédance, même dans le cas d’une structure métallique qui est elle‑même mise à la terre.
Le dispositif de décharge peut être un simple piquet (en alliage de cuivre, le plus souvent) fiché
verticalement dans la terre si le sol présente une conductivité électrique suffisante. L’ajout de sels
permet d’accroître localement la conductivité du sol, au besoin, et le contact avec la surface libre
de la nappe est préférable. Dans les cas extrêmes, par exemple une surface formée de roche ou
de sable, un réseau horizontal de matériaux conducteurs peut être disposé sur ou sous la surface
qui entoure l’ouvrage.
L’équipement sensible devrait être protégé contre les surtensions. Il existe une grande diversité
de parafoudres, qui doivent être utilisés conformément aux instructions. Ils fonctionnent soit en
mode différentiel (entre les fils), soit en mode commun (entre les fils/l’équipement et la terre).
La protection en mode commun exige une terre de grande qualité. La plupart des surtensions
CHAPITRE 1. GÉNÉRALITÉS 49
créent de graves dommages en raison des tensions élevées présentes sur les fils/l’équipement
par rapport à la terre. En outre, il peut arriver que la foudre, tombée non loin, se propage dans le
sol et élève son potentiel au‑dessus de l’équipement. Ces problèmes sont plus fréquents lorsque
les terres et les matériaux qui les composent sont de piètre qualité. Il est bon d’isoler les mises à
la terre de travail des autres. Des réseaux inductifs placés entre les deux aident parfois à éviter ce
genre de problèmes. Il est recommandé d’utiliser des câbles de données blindés dont une seule
extrémité est reliée à la terre pour diminuer les risques de transitoires induits dans les lignes de
signaux.
Des transitoires électriques directs ou induits peuvent survenir dans les câbles si l’équipement
est relié à l’infrastructure de tiers, telles les lignes de téléphone et d’alimentation électrique, s’il
fonctionne au moyen de génératrices ou s’il comporte de longs câbles entre les capteurs et les
modules. Des dispositifs d’isolation et/ou de protection contre les surtensions devraient être
placés à l’endroit où les câbles pénètrent dans l’équipement, ainsi qu’aux deux extrémités des
câbles de grande longueur. Il est important, lors de la mise à la terre des parafoudres, de veiller à
l’équilibrage de tension de la masse pour chaque système à protéger.
Dans les milieux qui présentent une corrosivité moyenne ou élevée, l’équipement risque de
produire des données erronées en raison du mauvais fonctionnement des capteurs et d’une
diminution de la fiabilité du matériel.
a) Le dépôt de matières chimiques étrangères sur les éléments sensibles, par exemple ceux qui
mesurent l’humidité relative;
a) Le choix de matériaux adaptés, tels l’acier inoxydable, l’acier galvanisé et certains plastiques;
b) La protection des raccords et brides par la pose de ruban imprégné de graisse ou d’huile ou
par un moyen similaire;
L’altération ou le vol de matériel peut être contré par l’installation d’ouvrages de protection
appropriés, telles les clôtures, ou par le choix de pièces de fixation indémontables afin qu’il soit
impossible de déposer des éléments coûteux, tels les panneaux solaires, sans disposer des clés ou
des outils voulus.
50 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Certains éléments souples, dont les matières plastiques et les gaines de câbles, peuvent être
facilement endommagés par les animaux. Il arrive, par exemple, que des oiseaux picorent les
fils électriques. On peut y remédier en utilisant des câbles armés ou en plaçant les fils dans des
guide‑câbles renforcés.
La pose de clôtures pour le bétail réduira l’écrasement ou le désalignement des capteurs par de
gros animaux qui se frottent contre les structures et les appareils.
9. Pannes
L’alimentation électrique peut être interrompue pendant plusieurs jours lorsque surviennent des
phénomènes météorologiques ou géophysiques extrêmes. Il est recommandé de disposer de
batteries de secours afin que l’équipement continue de fonctionner jusqu’au rétablissement du
courant ou jusqu’à l’arrivée sur les lieux de personnel chargé de remplacer les batteries.
10. Généralités
Il est conseillé de recueillir, chaque fois que c’est possible, des informations sur la réaction des
instruments à des situations extrêmes car cela peut permettre d’utiliser les données même si elles
ont été obtenues dans des conditions qui excédaient les spécifications de l’appareil. Il est parfois
possible de récupérer les données enregistrées dans de telles conditions en procédant à un
nouvel étalonnage des capteurs endommagés.
Le respect de ces lignes directrices ne garantit pas que le réseau fonctionnera tout au long
d’événements extrêmes. L’intervention humaine peut aider à réduire la perte de données,
mais elle comporte souvent de graves dangers et il est vraisemblable qu’un certain volume de
données soit perdu.
ANNEXE 1.E. EXIGENCES CONCERNANT L’INCERTITUDE DES MESURAGES OPÉRATIONNELS ET PERFORMANCE DES
INSTRUMENTS
(Voir les notes explicatives en dessous du tableau; la première ligne contient les numéros de colonne)
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude Remarques
variation rapportée mesurage/ mesurage exigée de temps de base de mesurage
observation du capteur du signal réalisable
de sortie
1. Température
1.1 Température de –80 – +60 °C 0,1 K I 0,3 K pour ≤ –40 °C 20 s 1 min 0,2 K La conception de
l’air 0,1 K pour > –40 °C l’abri protégeant les
et ≤ +40 °C thermomètres du
0,3 K pour > +40 °C rayonnement solaire
peut affecter l’incertitude
réalisable et la constante
de temps effective.
La constante de temps
dépend de la circulation
d’air au dessus du capteur.
1.2 Extrêmes de la –80 – +60 °C 0,1 K I 0,5 K pour ≤ –40 °C 20 s 1 min 0,2 K
température 0,3 K pour > –40 °C
de l’air et ≤ +40 °C
0,5 K pour > +40 °C
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude de Remarques
variation rapportée mesurage/ mesurage exigée de temps de base mesurage réalisable
observation du capteur du signal
de sortie
2. Humidité
Semi‑conducteurs et autres
40 s 1 min 3% La constante de
temps et l’incertitude
réalisable des capteurs
à semi‑conducteurs
peuvent être
grandement influencées
par la température et
l’humidité.
CHAPITRE 1. GÉNÉRALITÉS 53
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude de Remarques
variation rapportée mesurage/ mesurage exigée de temps de base mesurage réalisable
observation du capteur du signal
de sortie
3. Pression atmosphérique
3.1 Pression 500 – 1 080 hPa 0,1 hPa I 0,1 hPa 2s 1 min 0,15 hPa Pression à la station et au
niveau moyen de la mer.
L’incertitude de
mesurage est
sérieusement affectée
par la pression
dynamique due au vent
si des précautions ne
sont pas prises.
Une mauvaise correction
de la température du
transducteur peut
sérieusement affecter
l’incertitude du
mesurage.
La pression au niveau
moyen de la mer est
affectée par l’incertitude
de l’altitude du
baromètre pour les
mesures à bord de
navires.
3.2 Tendance Non spécifié 0,1 hPa I 0,2 hPa 0,2 hPa Différence entre valeurs
instantanées
PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
54
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude Remarques
variation rapportée mesurage/ mesurage exigée de temps de base de mesurage
observation du capteur du signal réalisable
de sortie
4. Nuages
4.1 Nébulosité 0/8 – 8/8 1/8 I 1/8 s.o. 2/8 Utilisation possible
d’algorithmes de
groupement pour estimer
automatiquement la
nébulosité de l’étage
inférieur.
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude de mesurage Remarques
variation rapportée mesurage/ mesurage exigée de temps de base réalisable
observation du capteur du signal
de sortie
5. Vent
5.1 Vitesse 0 – 75 m s–1 0,5 m s–1 A 0,5 m s–1 pour Constante 2 et/ou 0,5 m s–1 pour ≤ 5 m s Moyenne sur 2 et/ou 10
≤ 5 m s–1 de 10 min –1
min.
10 % pour > 5 m s–1 distance 10 % pour > 5 m s–1 Dispositifs non linéaires.
2–5m Attention à la conception
du moyennage.
5.2 Direction 0 – 360° 1° A 5° Rapport 2 et/ou 5° On qualifie généralement
d’amortis- 10 min la constante de distance
sement en longueur de réponse.
> 0,3 Moyennes calculées en
coordonnées cartésiennes
(voir la section 3.6 du
chapitre 3 de la partie IV du
présent guide).
Ni constante de distance,
ni constante de temps
ne sont nécessaires
avec les anémomètres
ultrasoniques.
Pour les stations mobiles,
le mouvement de la station
doit être pris en compte, y
compris son incertitude.
5.3 Rafales 0,1 – 150 m s–1 0,1 m s–1 A 10 % 3s 0,5 m s–1 pour ≤ 5 m s– La plus grande moyenne
1
sur 3 s devrait être
10 % pour > 5 m s–1 enregistrée.
PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
56
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude de Remarques
variation rapportée mesurage/ mesurage exigée de temps de base mesurage réalisable
observation du du signal
capteur de sortie
6. Précipitations
6.1 Hauteur 0 – 500 mm 0,1 mm T 0,1 mm pour ≤ 5 mm s.o. s.o. Valeur la plus Quantité basée sur les
(journalière) 2 % pour > 5 mm grande: 5 % ou hauteurs journalières.
0,1 mm L’incertitude dépend
de l’efficacité
aérodynamique du
collecteur et des pertes
par évaporation dans les
pluviomètres chauffés.
6.4 Intensité des 0,02 mm h–1 – 0,1 mm h–1 I (trace): s.o. pour < 30 s 1 min Sous débit constant Valeurs d’incertitude
précipitations 2 000 mm h–1 0,02 – 0,2 mm h–1 en laboratoire, pour les précipitations
0,1 mm h–1 pour 5 % au‑dessus de liquides seulement.
0,2 – 2 mm h–1 2 mm/h L’incertitude est
5 % pour > 2 mm h–1 2 % au‑dessus de sérieusement affectée par
10 mm/h le vent.
Sur le terrain, Le comportement des
5 mm/h, et 5 % capteurs peut se révéler
au‑dessus de fortement non linéaire.
100 mm/h Détection (oui/non) si
< 0,2 mm h–1 :
La constante de temps
des capteurs est
sérieusement affectée
pendant les précipitations
solides avec des
pluviomètres récepteurs.
CHAPITRE 1. GÉNÉRALITÉS 57
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude de Remarques
variation rapportée mesurage/ mesurage exigée de temps de base mesurage réalisable
observation du du signal
capteur de sortie
6.5 Durée des 0 – 24 h 60 s T s.o. 60 s Seuil de 0,02 mm/h
précipitations
(journalière)
7. Rayonnement
7.3 Rayonnement Non spécifié 1 J m–2 T 2% 20 s s.o. 5 % (par jour) Exposition journalière
solaire global 8 % (par heure) totale
descendant/
ascendant
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude Remarques
variation rapportée mesurage/ mesurage exigée de temps de base de mesurage
observation du capteur du signal réalisable
de sortie
8. Visibilité
8.1 Portée optique 10 m – 100 km 1m I 50 m pour ≤ 600 m < 30 s 1 et 10 min Valeur la plus L’incertitude de
météorologique 10 % pour grande: 20 m mesurage réalisable peut
(POM) > 600 m – ou 20 % dépendre de la cause de
≤ 1 500 m l’obscurcissement. La
20 % pour quantité à moyenner est
> 1 500 m le coefficient d’extinction
(voir la section 3.6 du
chapitre 3 de la partie IV
du présent guide). On
préférera un moyennage
logarithmique des
valeurs.
8.2 Portée visuelle 10 m – 2 000 m 1m A 10 m pour ≤ 400 m < 30 s 1 et 10 min Valeur la plus Selon OMM‑N° 49,
de piste (PVP) 25 m pour grande: 20 m Volume II, Appendice A
> 400 m – ou 20 % (éd. 2004) et OACI Doc
≤ 800 m 9328 AN/908 (2è éd.,
10 % pour > 800 m 2000).
De nouvelles versions de
ces documents peuvent
indiquer d’autres valeurs.
1 2 3 4 5 6 7 8 9
Variable Domaine de Résolution Mode de Incertitude de Constante Temps Incertitude de Remarques
variation rapportée mesurage/ mesurage exigée de temps de base mesurage réalisable
observation du capteur du signal
de sortie
9. Vagues
9.1 Hauteur 0 – 50 m 0,1 m A 0,5 m pour ≤ 5 m 0,5 s 20 min 0,5 m pour ≤ 5 m Moyenne sur 20 min
significative des 10 % pour > 5 m 10 % pour > 5 m pour les mesures
vagues instrumentales
9.2 Période des 0 – 100 s 1s A 0,5 s 0,5 s 20 min 0,5 s Moyenne sur 20 min
vagues pour les mesures
instrumentales
9.3 Direction des 0 – 360° 1° A 10° 0,5 s 20 min 20° Moyenne sur 20 min
vagues pour les mesures
instrumentales
10. Évaporation
Notes (suite):
6. Les colonnes 2 à 5 renvoient aux exigences établies en 2004 par l’Équipe d’experts de la CSB sur les exigences concernant les données des stations météorologiques automatiques.
7. Les colonnes 6 à 8 renvoient aux caractéristiques de performance types établies en 2004 par l’Équipe d’experts de la CIMO pour les techniques d’observation en surface et les méthodes
de mesure.
8. L’incertitude de mesurage réalisable (colonne 8) est basée sur la performance des capteurs, dans des conditions nominales et recommandées d’exposition, qu’il est possible d’obtenir
en exploitation. Cette indication devrait viser à aider concrètement les utilisateurs à définir les exigences réalisables et abordables.
9. s.o. = sans objet.
10. On préférera le terme incertitude à précision (selon les normes ISO/CEI/JCGM sur l’incertitude de mesure (ISO/CEI (2008)/JCGM (2008)).
11. La température du point de rosée, l’humidité relative et la température de l’air sont liées, et leurs incertitudes le sont aussi. Pour établir les moyennes, on donnera la préférence à
l’humidité absolue comme variable principale.
RÉFÉRENCES ET AUTRES LECTURES
Brooks, C.E.P. et N. Carruthers, 1953: Handbook of Statistical Methods in Meteorology, MO 538, Meteorological
Office, Londres.
Bureau international des poids et mesures (BIPM), 1990: Échelle internationale de température de 1990
(EIT‑90), Procès‑verbaux du Comité international des poids et mesures, 78è réunion.
Bureau international des poids et mesures, 2006: Le Système international d’unités (SI), BIPM, Sèvres/Paris.
Comité commun pour les guides en métrologie (JCGM), 2012: Vocabulaire international de métrologie –
Concepts fondamentaux et généraux et termes associés (VIM), JCGM 200:2012.
Eisenhart, C., 1963: Realistic evaluation of the precision and accuracy of instrument calibration systems,
National Bureau of Standards–C, Engineering and Instrumentation, Journal of Research, 67C(2).
Kok, C.J., 2000: On the Behaviour of a Few Popular Verification Scores in Yes/No Forecasting, Scientific Report,
WR‑2000‑04, KNMI, De Bilt.
Linacre, E., 1992: Climate Data and Resources – A Reference and Guide, Routledge, Londres.
Murphy, A.H. et R.W. Katz (dir.), 1985: Probability, Statistics and Decision Making in the Atmospheric Sciences,
Westview Press, Boulder.
National Institute of Standards and Technology, 2008: Guide for the Use of the International System of Units (SI)
(A. Thompson et B.N. Taylor), NIST Special Publication No. 811, Gaithersburg, États‑Unis
d’Amérique.
Natrella, M.G., 1966: Experimental Statistics, National Bureau of Standards Handbook 91, Washington.
Organisation de l’aviation civile internationale (OACI), 2002: Manuel du Système géodésique mondial – 1984
(WGS‑84), Doc 9674–AN/946, Québec.
Organisation internationale de normalisation, 1994a: Exactitude (justesse et fidélité) des résultats et méthodes
de mesure — Partie 1: Principes généraux et définitions, ISO 5725‑1:1994/Cor.1:1998, Genève.
———, 1994b: Exactitude (justesse et fidélité) des résultats et méthodes de mesure — Partie 2: Méthode de base
pour la détermination de la répétabilité et de la reproductibilité d’une méthode de mesure normalisée,
ISO 5725‑2:1994/Cor.1:2002, Genève.
———, 2009: Grandeurs et unités — Partie 1: Généralités, ISO 80000‑1:2009, Genève.
Organisation internationale de normalisation/Commission électrotechnique internationale (CEI), 2008:
Incertitude de mesure – Partie 3: Guide pour l’expression de l’incertitude de mesure,
ISO/IEC Guide 98‑3:2008, y compris Suppl. 1:2008/Cor.1:2009, Suppl. 1:2008, Suppl. 2:2011,
Genève. (équivalant à Comité commun pour les guides en métrologie (JCGM), 2008:
Évaluation des données de mesure – Guide pour l’expression de l’incertitude de mesure,
JCGM 100:2008, corrigé en 2010.)
Organisation météorologique mondiale, 1966: Tables météorologiques internationales (dir.: S. Letestu)
(modifiées en 1973) (OMM‑N° 188, TP. 94), Genève.
———, 1970: Performance Requirements of Aerological Instruments: an Assessment Based on Atmospheric
Variability (C.L. Hawson), Technical Note No. 112 (WMO‑No. 267, TP. 151), Genève.
———, 1992: Vocabulaire météorologique international (OMM‑N° 182), Genève.
———, 1993: L’emplacement des sites et l’exposition des instruments météorologiques (J. Ehinger), Instruments
and Observing Methods Report No. 55 (WMO/TD-No. 589), Genève.
———, 2001: Lecture Notes for Training Agricultural Meteorological Personnel (J. Wieringa et J. Lomas)
(WMO‑No. 551), Genève.
———, 2002: Station exposure metadata needed for judging and improving quality of observations of
wind, temperature and other parameters (J. Wieringa et E. Rudel), Papers Presented at the WMO
Technical Conference on Meteorological and Environmental Instruments and Methods of Observation
(TECO–2002), Instruments and Observing Methods Report No. 75 (WMO/TD‑No. 1123),
Genève.
———, 2003: Guidelines on Climate Metadata and Homogenization (dir.: P. Llansó), World Climate Data and
Monitoring Programme (WCDMP) Series Report No. 53 (WMO/TD‑No. 1186), Genève.
———, 2008: Guide des pratiques hydrologiques (OMM‑N° 168), Volume I, Genève.
———, 2010a: Rapport final abrégé, résolutions et recommandations de la troisième session de la Commission
technique mixte OMM/COI d’océanographie et de météorologie maritime (OMM‑N° 1049), Genève.
———, 2010b: Guide to Agricultural Meteorological Practices (WMO‑No. 134), Genève.
———, 2010c: Guide du Système mondial d’observation (OMM‑N° 488), Genève.
———, 2010d: Manuel du Système mondial de traitement des données et de prévision (OMM‑N° 485), Volume I,
Appendice II‑2, Genève.
———, 2010e: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2010f: Messages météorologiques (OMM‑N° 9), Volume A, Genève.
62 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Page
2.1 GÉNÉRALITÉS
2.1.1 Définition
L’OMM (OMM, 1992) définit la température comme une grandeur physique caractérisant
l’agitation moyenne des molécules dans un corps physique. La température est la traduction
du comportement de deux corps en contact thermique qui tendent à égaliser leur température.
Ainsi, la température représente l’état thermodynamique d’un corps et sa valeur est déterminée
par son aptitude à communiquer de la chaleur à d’autres corps ou à en recevoir Dans un
système comprenant deux corps, on dit que celui qui cède de la chaleur à l’autre se trouve à
la température la plus élevée. Il est néanmoins difficile de définir la température comme une
grandeur physique lorsque l’on parle de «l’état d’un corps». La solution trouvée a été de définir
une échelle de température internationalement reconnue fondée sur le point de congélation et le
point triple universels1. L’échelle actuellement utilisée est l’Échelle internationale de température
de 1990 (EIT‑90)2, où la température est exprimée sous la forme t90 (température Celsius) ou T90
(température Kelvin). En matière d’amplitude météorologique (–95 °C à +60 °C), t90 est définie
au moyen d'un ensemble bien établi de thermomètres à résistance de platine étalonnés à une
série de points fixes de définition et à l'aide de méthodes d'interpolation précisément définies
(BIPM, 1989, 1990).
Pour les besoins de la météorologie, les températures sont mesurées dans un certain nombre
de milieux. La variable la plus fréquemment mesurée est la température de l’air (à différentes
hauteurs). Les autres variables sont la température minimale du sol, du sol gazonné et la
température de l’eau de mer. L’OMM (1992) définit la température de l’air ainsi: «température
indiquée par un thermomètre exposé à l’air et à l’abri du rayonnement solaire direct». Cette
définition ne peut certes pas s’appliquer à la grandeur thermodynamique elle‑même, mais elle
peut convenir dans la plupart des applications.
Dans l’échelle thermodynamique de température, les mesures équivalent aux écarts par
rapport au zéro absolu (0 K), soit la température à laquelle les molécules de n’importe quelle
substance ne possèdent aucune énergie cinétique. L’échelle de température couramment
utilisée depuis 1990 est l’Échelle internationale de température (EIT) de 1990 (voir l’annexe), qui
est fondée sur les valeurs des températures assignées à un certain nombre d’états d’équilibre
reproductibles (voir le tableau 2.A.1 de l’annexe) et sur des instruments spécifiés étalonnés à
ces températures. L’EIT a été établie de manière à ce que la température mesurée soit identique
à la température thermodynamique, tout écart devant se situer dans les limites actuelles
1
L’organisme faisant autorité pour cette échelle est le Bureau international des poids et mesures (BIPM), Sèvres
(Paris); consultez le site http://w ww.bipm.org. Le Comité consultatif de thermométrie (CCT) du BIPM est l’organe
exécutif chargé de l’élaboration et de la mise en œuvre de l’EIT.
2
Informations pratiques sur l’EIT‑90 consultables sur le site http://w ww.its‑90.com.
66 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
d’incertitude de la mesure. L’EIT, outre les points fixes de définition, comporte des points de
référence secondaires (voir le tableau 2.A.2 de l’annexe). Les températures qui présentent un
intérêt météorologique sont calculées par interpolation entre les points fixes en appliquant les
formules standard données en annexe.
2.1.3.1 Généralités
b) De la surface du sol;
e) En altitude.
qui précise la correction à appliquer pour obtenir le degré d’incertitude exigé. Ces essais et cet
étalonnage initiaux devraient être réalisés par un laboratoire d'étalonnage agréé. Il est ensuite
recommandé de contrôler régulièrement ces instruments, l’appareil utilisé pour cette opération
étant fonction du type d’instrument ou de capteur à étalonner.
Il n’y a pas avantage à employer des thermomètres à constante de temps ou coefficient d’inertie
très faible dans le cadre d’observations régulières de la température dans la mesure où la
température de l’air varie en permanence d’un à deux degrés en l’espace de quelques secondes.
Il faudrait ainsi prendre la moyenne de plusieurs relevés pour obtenir une valeur représentative,
alors qu’un thermomètre à constante de temps élevée tend à lisser les fluctuations rapides. Une
constante de temps trop longue peut toutefois engendrer des erreurs lorsque les variations de
température s’étendent sur de longues périodes. Il est recommandé d’adopter une constante de
temps, définie comme le laps de temps nécessaire au thermomètre pour enregistrer 63,2 % d’une
variation d’un échelon de la température de l’air, égale à 20 s. La constante de temps dépend de
l’écoulement d’air au niveau de capteur.
2.1.3.4 Enregistrement des circonstances dans lesquelles sont effectuées les mesures
La température est l’une des variables météorologiques dont la mesure est particulièrement
sensible à l’exposition. Dans les études climatiques en particulier, les mesures de température
sont influencées par l’environnement, la végétation, la présence de bâtiments et d’objets divers,
la couverture du sol, l’état de l’abri ou de l’écran de protection contre le rayonnement et les
modifications apportées à sa conception d’origine ou d’autres modifications des équipements
(OMM, 2011). Il est important de conserver un enregistrement, non seulement des données
relatives à la température mais aussi des circonstances dans lesquelles sont effectuées les
mesures. Ces informations sont connues sous l’appellation de métadonnées (données destinées
à définir ou décrire d’autres données; voir l’annexe 1.C du chapitre 1 de la partie I).
Le fonctionnement d’un thermomètre peut être fondé sur toute propriété physique d’une
substance sur laquelle la température peut avoir une incidence. Les thermomètres utilisés dans
le domaine de la météorologie font essentiellement appel à la dilatation thermique et aux
variations de la résistance électrique liées à la température. Les thermomètres radiométriques
fonctionnent dans la bande infrarouge du spectre électromagnétique et sont utilisés, entre
autres, pour mesurer la température depuis les satellites. Une technique particulière, mise au
point pour déterminer la température de l’air par échantillonnage des ultrasons pour calculer la
vitesse de l’air, fournit également la vitesse moyenne des molécules d’air et donc la température
de ce dernier (OMM, 2002a).
Les thermomètres qui indiquent la température ambiante sont souvent appelés thermomètres
ordinaires alors que ceux qui indiquent les températures extrêmes dans un intervalle de temps
sont appelés thermomètres à maximum ou à minimum.
Le rayonnement émis par le soleil, les nuages, le sol et les objets alentour traverse l’atmosphère
sans sensiblement faire varier la température, mais un thermomètre exposé à l’air libre
peut néanmoins absorber une quantité considérable de rayonnement. En conséquence, sa
température peut différer de la température réelle de l’air, la différence dépendant de l’intensité
du rayonnement et du rapport rayonnement absorbé/chaleur dissipée. Dans certains cas,
notamment dans celui d’un thermomètre à résistance pourvu d’un fil très fin, l’écart peut
être faible, voire négligeable, mais dans le cas des thermomètres utilisés plus couramment
en météorologie, il peut atteindre 25 K dans des conditions extrêmement défavorables. C’est
pourquoi il convient de protéger le thermomètre contre le rayonnement à l’aide d’un abri
ou d’un écran qui lui servira de support. Cet écran met également ce dernier à l’abri des
précipitations, tout en assurant sa ventilation et une protection contre les dommages accidentels.
Si le capteur est exposé aux précipitations, sa température baisse en fonction du flux d’air local,
et le thermomètre se comporte alors comme un thermomètre mouillé. Il peut néanmoins s’avérer
difficile de maintenir une bonne circulation d’air dans des conditions de givrage. Il existe diverses
pratiques pour limiter les erreurs d’observation dans de telles conditions et on peut faire appel
à des écrans ou des instruments de mesure de la température spéciaux, ainsi qu’à la ventilation
artificielle. Toutefois, dans ce dernier cas, il faudrait veiller à éviter tout effet imprévu causé par
des dépôts humides liés à l’évaporation en cas de précipitation, de bruine, de brouillard, etc.
Sparks (1970) donne un aperçu des concepts de mesure de température applicables en condition
d’exploitation.
Il est par ailleurs indispensable que les conditions d’exposition de l’écran, et donc du
thermomètre lui‑même, soient normalisées si l’on veut que les résultats comparatifs des
valeurs relevées en des heures et des lieux différents soient représentatifs. En météorologie
générale, la température de l’air observée devrait être représentative des conditions de l’air
libre dans un périmètre aussi étendu que possible autour de la station d’observation, à une
hauteur située entre 1,25 et 2 m au‑dessus de sol. Une telle prescription s’explique par les
gradients de température verticaux élevés que l’on peut observer dans les couches inférieures
de l’atmosphère. En conséquence, le site idéal pour procéder aux mesures se situe en terrain
plat, normalement exposé au soleil et au vent, à distance respectable d’arbres, de bâtiments
ou d’autres obstacles. Les pentes raides ou les cuvettes devraient être évitées en raison des
conditions exceptionnelles qui y règnent. En agglomération, les particularités locales sont
probablement plus marquées qu’en milieu rural. Les mesures de température effectuées sur
le toit des bâtiments sont sujettes à caution en raison de la variabilité du gradient thermique
vertical et de l’effet du bâtiment lui‑même sur la répartition de la température.
La classification de sites pour les stations terrestres d’observation en surface (voir l’annexe 1.B
du chapitre 1 de la partie I du présent guide) donne des indications supplémentaires sur le choix
d'un site et l'emplacement d'un thermomètre sur un site donné aux fins d'une représentativité
optimale.
Étalons de laboratoire
Les thermomètres étalons primaires sont conservés dans des laboratoires nationaux de référence.
Un laboratoire national de météorologie ou autre laboratoire d’étalonnage agréé détient, comme
étalon de travail, un thermomètre à résistance de platine de grande pureté, susceptible d’être
relié à l’étalon national. L’incertitude de ce thermomètre peut être vérifiée périodiquement dans
une cellule à point triple de l’eau. Le point triple de l’eau est défini de manière exacte et peut être
reproduit dans une cellule à point triple de l’eau avec une incertitude de 1 · 10 –4 K.
Étalons de terrain
sans écran ni abri. Il s’agit de l’instrument le plus précis actuellement disponible pour évaluer
et comparer les systèmes instrumentaux. Il n’est en revanche pas conçu pour être utilisé en
permanence dans le cadre d’activités météorologiques courantes. Il permet de mesurer la
température à 0,04 K près (degré de confiance: 95 %). Pour de plus amples informations,
reportez‑vous au chapitre 4 de la partie I.
On utilise encore les thermomètres à liquide sous verre pour les observations courantes de la
température de l’air, notamment les températures maximales, minimales et du thermomètre
mouillé. Ce type de thermomètre fait appel au principe de dilatation différentielle entre
un liquide pur et son contenant en verre. Le thermomètre est un tube capillaire fin en
communication avec le réservoir principal ; le volume de liquide est établi de manière à remplir
complètement le réservoir et partiellement le tube sur toute la plage de température à mesurer.
Les variations de volume du liquide dans son contenant se traduisent par une variation de
hauteur de la colonne de liquide le long du tube. Les graduations de l’échelle de température,
obtenues par étalonnage à l’aide d’un thermomètre de référence, peuvent être portées
directement sur le tube, ou sur une échelle séparée étroitement fixée au tube.
b) Le type à gaine, l’échelle étant gravée sur une plaque de verre opale fixée sur le tube du
thermomètre à l’intérieur de la gaine;
c) Le type sans gaine, l’échelle étant gravée sur le tube, fixé sur une monture en métal, en
porcelaine ou en bois qui comporte les valeurs;
Les tubes de certains thermomètres sont dotés d’une loupe pour offrir une image agrandie du fil
de mercure.
Les thermomètres des types a) et b) présentent un avantage sur les types c) et d): leur graduation
est complètement protégée contre l’usure alors qu’il peut s’avérer nécessaire de renoircir de
temps à autre les traits des deux derniers types d’instrument, lesquels sont en revanche plus
faciles à fabriquer. Les thermomètres des types a) et d) offrent l’avantage de réduire les risques
3
Des conseils pour utiliser le mercure en toute sécurité sont donnés à la section 3.2.7 du chapitre 3 de la partie I. La
Convention de Minamata sur le mercure du Programme des Nations Unies pour l’environnement est entrée en
vigueur en octobre 2013 et aura une incidence marquée sur l’utilisation du mercure aux fins d’applications
météorologiques.
70 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
d’erreurs de parallaxe (voir la section 2.2.4). Le HMSO (Her Majesty’s Stationery Office) propose
une description succincte des différents thermomètres utilisés en météorologie (Her Majesty’s
Stationery Office, 1980).
Quel que soit le type de thermomètre adopté, la gaine ou la monture aura de préférence la plus
faible capacité calorifique possible et, par conséquent, ne sera pas inutilement volumineuse, tout
en étant suffisamment robuste pour supporter les risques normaux liés à la manipulation et au
transport.
Dans le cas des thermomètres à mercure, en particulier les thermomètres à maximum, il est
important que le vide au‑dessus de la colonne de mercure soit quasi parfait. Il est recommandé
que tous les thermomètres comportent une graduation à l’épreuve d’une immersion totale, à
l’exception de ceux destinés à mesurer la température du sol. Les caractéristiques techniques des
différents thermomètres sont présentées dans les paragraphes suivants.
Cet instrument est le plus précis de tous les thermomètres utilisés en météorologie. Il s’agit le
plus souvent d’un thermomètre à mercure, avec une graduation de 0,2 ou 0,5 K, l’échelle étant
plus longue que celle des autres thermomètres météorologiques.
Le thermomètre ordinaire est utilisé sous abri pour éviter les erreurs dues au rayonnement. Il est
fixé sur un support destiné à le maintenir en position verticale, réservoir en bas. Ce dernier est en
forme de cylindre ou d’oignon.
Il est possible de coupler deux thermomètres ordinaires et de s’en servir comme psychromètre, à
condition que le réservoir de l’un d’entre eux soit entouré d’un manchon humide 4.
Le modèle recommandé est un thermomètre à mercure dans lequel le tube se rétrécit entre le
réservoir et le début de l’échelle, ce qui empêche la colonne de mercure de redescendre lorsque
la température baisse. Il est cependant possible de reformer la colonne de mercure en tenant
fermement l’instrument et en l’agitant vigoureusement, réservoir vers le bas, jusqu’à obtention
de l’effet recherché. Le thermomètre à maximum devrait alors être monté suivant un angle de
2° par rapport à l’horizontale, réservoir en bas, afin que la colonne de mercure vienne appuyer
contre l’étranglement et ne redescende pas sous l’effet de la gravité. Il est indiqué de choisir un
tube capillaire qui s’élargit au sommet du tube pour permettre à la colonne de mercure de se
reconstituer facilement en cas de fragmentation.
L’instrument le plus courant est un thermomètre à alcool, doté d’un index en verre foncé
d’environ 2 cm de long, immergé dans l’alcool. Étant donné que de l’air subsiste dans le tube de
ce type de thermomètre, celui‑ci devrait être muni à son extrémité supérieure d’une ampoule
de sécurité suffisamment grande pour que l’instrument puisse subir sans dommage une
température de 50 °C. Le thermomètre à minimum devrait être monté de la même manière
que le thermomètre à maximum, à savoir en position quasi horizontale. Différents liquides
peuvent être utilisés, par exemple l’alcool éthylique, le pentane et le toluène. Il est important
que le liquide soit aussi pur que possible car la présence de certaines impuretés accentue la
tendance qu’ont les hydrocarbures à se polymériser avec le temps sous l’action de la lumière,
polymérisation qui modifie l’étalonnage. Par exemple, l’alcool éthylique devrait être exempt de
toute trace d’acétone.
4
Les températures du thermomètre mouillé sont expliquées au chapitre 4 de la partie I.
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 71
On se sert également des thermomètres à minimum pour mesurer la température minimale sur
gazon.
On utilise généralement un thermomètre à mercure dont le tube est recourbé à angle droit
ou tout autre angle approprié au‑dessous du premier trait de graduation pour mesurer la
température du sol jusqu’à 20 cm de profondeur. Son réservoir est enfoncé dans le sol à
la profondeur voulue et l’échelle de lecture est placée sur le sol. Ces thermomètres sont à
immersion partielle (correspondant à la profondeur de mesure) et devraient être dotés d’une
ampoule de sécurité à l’extrémité du tube laissé à l’air libre pour permettre la dilatation du
mercure.
Pour mesurer la température à des profondeurs supérieures à 20 cm, il est recommandé d’utiliser
des thermomètres à mercure, placés dans des tubes en bois, en verre ou en plastique, dont le
réservoir est recouvert de cire ou d’une peinture métallique. L’ensemble thermomètre/tube est
ensuite suspendu ou glissé dans un tube fin en métal ou en plastique, enfoui dans le sol à la
profondeur requise. Dans les climats froids, il est conseillé de faire dépasser le sommet du tube
extérieur du sol d’une hauteur supérieure à l’épaisseur attendue de la couche de neige.
La technique qui consiste à utiliser un tube en acier placé verticalement ne se prête pas à la
mesure de la variation diurne de la température du sol, en particulier dans un sol sec. En effet, un
tel tube conduit la chaleur de la surface de la terre, ce qui peut induire des erreurs significatives
dans le calcul des propriétés thermiques du sol fondé sur de telles mesures.
Ces thermomètres sont dotés d’une grande capacité thermique et donc d’une grande inertie, et
on peut donc les retirer de leur tube et les lire avant que la température indiquée n’ait eu le temps
de varier sensiblement.
Lorsque le sol est recouvert de neige, il est recommandé de construire un pont de circulation
parallèle à la rangée de thermomètres afin que l’observateur puisse y accéder sans modifier
l’épaisseur de la couche de neige. Ce pont devrait être conçu de manière que le tablier puisse être
retiré entre les différents relevés, afin de ne pas perturber la couverture neigeuse.
Il est conseillé de lire le thermomètre le plus rapidement possible afin d’éviter les variations de
température liées à la présence de l’observateur. Le ménisque formé par le liquide, ou l’index,
et l’échelle du thermomètre ne se situant pas sur le même plan, il faut veiller à éviter les erreurs
de parallaxe. Pour ce faire, l’observateur devra s’assurer que la ligne droite entre son œil et
le ménisque, ou l’index, est bien perpendiculaire au tube du thermomètre. Les graduations
du thermomètre n’étant généralement pas inférieures au cinquième de degré, les lectures
au dixième degré le plus proche, essentielles en psychrométrie, doivent être réalisées par
estimation. On appliquera éventuellement une correction d’échelle aux valeurs lues. Il est en
outre conseillé de lire et régler les thermomètres à maximum et minimum au moins deux fois
par jour. Les valeurs relevées devraient être comparées à celles obtenues avec un thermomètre
ordinaire afin de vérifier qu’elles ne comportent pas d’erreurs graves.
La température minimale sur gazon est la température la plus basse indiquée pendant la nuit
par un thermomètre exposé à l’air libre juste au‑dessus d’un gazon court. Elle est mesurée par
un thermomètre à minimum comme celui décrit dans la section 2.2.1.3. L’instrument devrait être
monté sur un support adapté de manière à être incliné suivant un angle d’environ deux degrés
par rapport à l’horizontale, le réservoir étant situé plus bas que le tube, à une hauteur comprise
72 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
entre 25 et 50 mm au‑dessus du sol, et en contact avec les pointes de l’herbe. Sur sol enneigé,
le thermomètre devrait être placé le plus près possible de la surface immédiate de la neige, sans
toutefois l’effleurer.
Normalement, le thermomètre est mis en place pour la dernière observation une heure avant
le coucher du soleil, et le relevé est effectué le lendemain matin. L’instrument est conservé sous
abri ou à l’intérieur pendant la journée. Toutefois, dans les stations où aucun observateur n’est en
poste au coucher du soleil, il faut parfois laisser le thermomètre exposé toute la journée. Dans ces
circonstances, en cas de fort ensoleillement, le liquide organique contenu dans le thermomètre
risque de se distiller et de s’accumuler en haut du tube. On peut réduire ce phénomène au
minimum en recouvrant l’ampoule de sécurité d’une gaine en métal noir protégée par un
manchon de coton, gaine qui absorbe plus de rayons que le thermomètre et atteint donc une
température plus élevée que celui‑ci. Ainsi, la vapeur susceptible de se former se condensera plus
bas dans le capillaire au‑dessus de la colonne d’alcool.
Les profondeurs normalisées pour la mesure de la température du sol sont égales à 5, 10, 20, 50
et 100 cm. D’autres valeurs peuvent être envisagées. Le site de mesure est de préférence situé sur
une parcelle de sol nu d’environ 75 cm2, représentative des surfaces avoisinantes. Si tel n’est pas
le cas, la superficie ne devrait pas être inférieure à 100 m2. Lorsque le sol est recouvert de neige, il
est recommandé de mesurer également la température de la couche neigeuse. Lorsque la neige
est peu abondante, on peut la retirer avant de procéder aux relevés puis la remettre en place.
Il convient de préciser le type de sol, la nature du couvert végétal ainsi que l’angle et l’orientation
de la pente lorsqu’on décrit un site destiné à des mesures de température du sol. Chaque fois
que possible, on devrait indiquer les caractéristiques physiques du sol, telles que la densité
apparente, la conductivité thermique ou la capacité hygrométrique, mais aussi le niveau de la
nappe phréatique (s’il se trouve à moins de cinq mètres de la surface) et la structure du sol.
Pour les stations de météorologie agricole, il est recommandé d’enregistrer en continu les
températures du sol et de l’air à différents niveaux de la couche adjacente au sol (de la surface du
sol à environ dix mètres au‑dessus de la limite supérieure de la végétation dominante).
L’implantation et l’exposition d’un thermomètre à minimum sur gazon sont précisées dans la
section 2.2.2.2. Dans les stations où la neige est persistante et de profondeur variable, il est
possible d’utiliser un support permettant de remonter ou d’abaisser le thermomètre afin de le
maintenir à la distance voulue au‑dessus de la surface de la neige.
Les principales sources d’erreur communes à tous les thermomètres à liquide sous verre sont les
suivantes:
a) Erreurs d’élasticité;
e) Capillarité;
Les trois dernières causes d’erreur peuvent être réduites au minimum par le fabricant et
intégrées dans les corrections à appliquer aux valeurs observées. Il convient d’accorder une
attention particulière aux trois premiers types d’erreur. Les erreurs de type d) ne se produisent
habituellement pas lorsque les thermomètres sont utilisés à des fins météorologiques.
Il existe deux types d’erreurs d’élasticité: les erreurs réversibles et les erreurs irréversibles. L'erreur
réversible n’a d’importance que lorsque le thermomètre est exposé à une grande amplitude
thermique sur une courte durée. Ainsi, si l’on vérifie le thermomètre au point de vapeur et peu
après au point de glace, il donnera une mesure tout d’abord trop basse, puis la température
indiquée s’élèvera progressivement jusqu’à la valeur correcte. Cette erreur dépend de la qualité
du verre employé et peut atteindre 1 K (avec un verre de très haute qualité, elle ne devrait pas
dépasser 0,03 K) et pourrait être proportionnellement moindre pour une plage de température
plus restreinte. L’effet est négligeable dans les mesures météorologiques, sauf en cas d’éventuelle
erreur dans l’étalonnage initial.
Les changements irréversibles peuvent avoir une importance plus grande. Le réservoir du
thermomètre tend à se contracter lentement au fil des ans et à entraîner ainsi une élévation du
zéro. Le changement le plus important intervient la première année, puis la dégradation ralentit
progressivement. Ce phénomène peut être atténué en soumettant le réservoir à un traitement
thermique et en utilisant le verre le mieux adapté. Même avec un verre de très haute qualité, la
variation peut au début atteindre environ 0,01 K par an. Pour garantir l’exactitude de la mesure,
en particulier pour les thermomètres d’inspection ou de vérification, il est recommandé de
redéfinir le zéro à intervalles réguliers et d’apporter les corrections nécessaires.
Le thermomètre qui sert à mesurer la température de l’air est généralement environné d’air à
température à peu près uniforme. Il est étalonné soit par immersion totale, soit par immersion
partielle (jusqu’au sommet de la colonne de mercure). Utiliser ce type de thermomètre pour
déterminer la température d’un milieu autre que celui qui environne le tube, de sorte que la
température réelle du tube est différente de celle du réservoir, est source d’erreur.
Dans les applications météorologiques, le cas le plus probable dans lequel ce type de situation
risque de se produire est celui de la vérification de l’étalonnage d’un thermomètre ordinaire
dans un récipient contenant un autre liquide à une température sensiblement différente de la
température ambiante, alors que seul le réservoir ou la partie inférieure du tube sont immergés.
Des erreurs peuvent également se produire lorsque l’observateur, d’une manière ou d’une autre,
perturbe l’environnement en s’approchant pour procéder à la lecture du thermomètre. Il est
donc nécessaire qu’il effectue sa lecture au plus proche dixième de degré le plus rapidement
possible. Les erreurs grossières de lecture sont généralement de l’ordre de 1°, 5° ou 10°. De telles
erreurs peuvent être évitées en procédant à une nouvelle vérification du chiffre des dizaines et
des unités après une première lecture.
Le coefficient de dilatation cubique du mercure est de 1,82 · 10 –4 K–1, et celui de la plupart des
verres se situe entre 1,0 · 10 –5 et 3,0 · 10 –5 K–1. Le coefficient de dilatation du verre représente
donc une fraction importante de celui du mercure et il ne peut être négligé. Étant donné que ni
les coefficients de dilatation cubique du mercure et du verre ni la surface de la section interne
du tube ne sont strictement constants sur la plage de température et sur la longueur du tube, la
valeur scalaire de la longueur unitaire du tube varie le long de celle‑ci, et le thermomètre doit
être étalonné par rapport à un thermomètre étalon par le fabricant avant de pouvoir être utilisé.
Le coefficient de dilatation des liquides utilisés dans les thermomètres à alcool est beaucoup plus
élevé que celui du mercure et leur point de congélation nettement plus bas (l’alcool éthylique
gèle à ‑115° C). On utilise l’alcool dans les thermomètres à minimum car il est incolore et son
coefficient de dilatation plus élevé permet d’adopter un tube plus grand. À prix et à qualité
égaux, les thermomètres à alcool sont moins précis que les thermomètres à mercure. Outre les
défauts généraux des thermomètres à liquide, les thermomètres à alcool présentent certains
défauts qui leur sont propres:
L’étalonnage des thermomètres devrait confié à des laboratoires d’étalonnage agréés. Pour
les thermomètres à liquide, on devrait utiliser un bain de liquide susceptible de maintenir la
température à la valeur souhaitée dans la plage requise. De préférence, le coefficient de variation
de la température ne devrait pas excéder les limites recommandées et l’appareil d’étalonnage
devrait être équipé d’un dispositif destiné à agiter le liquide. Les thermomètres de référence et les
thermomètres étalonnés devraient être suspendus dans le récipient sans en toucher les parois, et
totalement immergés.
Il est recommandé de procéder à un nombre suffisant de mesures pour s’assurer que les
corrections à appliquer représentent les performances du thermomètre dans des conditions
normales d’utilisation, les erreurs d’interpolation à tout point intermédiaire ne dépassant pas les
erreurs non systématiques (voir le chapitre 4 de la partie IV).
Tous les thermomètres à liquide subissent une modification progressive du zéro. Il est donc
recommandé de les vérifier régulièrement, généralement tous les deux ans, et de les stocker en
position verticale à température ambiante au moins 24 h avant le début de la vérification.
Le point de glace peut être contrôlé en remplissant presque entièrement un vase de Dewar de
glace pilée obtenue à partir d’eau distillée et en la mouillant avec de l’eau distillée. L’espace entre
les morceaux de glace et le fond du récipient devrait être exempt d’air. L’eau devrait se maintenir
à deux centimètres en‑dessous de la surface de la glace. Une bouteille Thermos ordinaire permet
l’immersion totale de la plupart des thermomètres jusqu’à leur point de glace. Le thermomètre
devrait être placé de manière à ce que la colonne de mercure ou d’alcool émerge le moins
possible de la glace. Un laps de temps d’au moins 15 min devrait s’écouler avant toute lecture de
la température, pour permettre au thermomètre d’absorber la température de la glace fondante.
Il est conseillé d’agiter chaque thermomètre plongé dans le mélange d’avant en arrière, puis
de le lire immédiatement au dixième de la graduation. Des lectures successives devraient être
effectuées toutes les cinq minutes afin de calculer une valeur moyenne.
Les autres points de la plage de température peuvent être couverts par référence à un
étalon voyageur ou un thermomètre d’inspection. La comparaison devrait être effectuées en
immergeant le thermomètre de référence et le ou les thermomètres à étalonner dans un récipient
profond rempli d’eau. Il est généralement préférable de travailler à l’intérieur, surtout par temps
ensoleillé. Les résultats seront en outre meilleurs si l’eau est à température ambiante ou proche
de celle‑ci.
Il est conseillé de répéter cette opération au moins trois fois pour chaque paire de thermomètres.
Pour chaque série de comparaisons, l’écart moyen entre les lectures ne devrait pas dépasser les
tolérances indiquées dans le tableau de la section 2.1.3.2.
76 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les thermomètres dans le sol peuvent être étalonnés de la même manière, mais ils devraient
séjourner dans l’eau au moins 30 min afin de laisser à la cire qui entoure le réservoir le temps de
s’adapter à la température de l’eau. Étant donné la grande inertie de ce type de thermomètre,
il est difficile d’obtenir un résultat satisfaisant à moins de pouvoir stabiliser la température de
l’eau. Si l'étalonnage s’effectue dans une eau dont la température ne varie pas de plus de 1 K sur
30 min, la différence par rapport à la valeur corrigée du thermomètre de référence ne devrait pas
dépasser 0,25 K.
2.2.6 Corrections
En sortie de fabrication, tout thermomètre repéré par un numéro de série devrait s’accompagner
soit d’un certificat daté confirmant qu’il satisfait aux exigences d’incertitude, soit d’un certificat
d’étalonnage également daté indiquant les corrections à appliquer aux lectures pour obtenir
l’incertitude requise.
De manière générale, si les erreurs en des points donnés de l’échelle d’un thermomètre (0°,
10°, 20 °C par exemple) sont toutes inférieures à 0,05 K, il ne sera pas nécessaire d’appliquer
une correction, et les thermomètres pourront être utilisés directement comme thermomètres
ordinaires dans des abris à ventilation naturelle et comme thermomètres à maximum, à
minimum ou destinés à mesurer la température minimale sur gazon ou du sol. Mais en cas
d’erreurs supérieures à 0,05 K, l’observateur devrait disposer sur place d’une table de correction
accompagnée d’instructions claires quant à son application.
Les thermomètres pour lesquels un certificat est normalement délivré sont les suivants:
2.2.7 Maintenance
l’ampoule de sécurité au sommet du tube. Cette opération doit faire l’objet de la plus grande
attention en raison du risque d’éclatement du thermomètre suite à la dilatation du liquide dans
l’ampoule de sécurité.
L’un des autres inconvénients que peuvent présenter les thermomètres à liquide sous verre de
type sans gaine est l’effacement progressif des graduations. Ce problème peut être réglé sur
place en frottant l’échelle avec un crayon cire de couleur foncée ou un crayon noir à mine de
plomb.
2.2.8 Sécurité
Le mercure, liquide le plus couramment employé dans les thermomètres à liquide sous verre,
est toxique en cas d’ingestion ou d’inhalation. Si on casse le thermomètre, il convient de
récupérer les gouttelettes de mercure, lesquelles présenteraient sinon un danger pour la santé,
en particulier dans un espace confiné (voir les conseils de nettoyage à la section 3.2 du chapitre 3
de la partie I, consacrée aux baromètres à mercure). Le transport de thermomètres à mercure sur
les aéronefs peut également être soumis à certaines restrictions ou exiger certaines précautions
visant à éviter toute fuite de mercure en cas de bris. Il est recommandé de s’adresser aux autorités
compétentes ou au transporteur pour avis.
Les instruments qui sont encore le plus fréquemment utilisés sont les thermographes
mécaniques à bilame ou à tube de Bourdon, car ils présentent l’avantage d’être portatifs, fiables
et relativement peu coûteux. Toutefois, ils ne sont pas facilement adaptables aux enregistrements
électroniques ou à distance. Ces instruments comprennent un mécanisme rotatif actionnant un
tambour recouvert d’un papier graphe, mécanisme commun à tous les enregistreurs classiques.
En général, les thermographes devraient être capables de fonctionner sur une plage d’environ
60 K, ou même 80 K s’ils sont utilisés dans des climats continentaux. Il faut pouvoir disposer
d’une valeur d’échelle suffisante pour lire sans difficulté la température avec une exactitude
de 0,2 K sur un diagramme de format courant. À ces fins, il convient de prévoir un moyen
permettant de changer le réglage du zéro de l’instrument selon la saison. L’erreur maximale d’un
thermographe ne devrait pas excéder 1 K.
Dans cet instrument, le mouvement du style inscripteur est commandé par le changement de
courbure d’un bilame plan ou hélicoïdal, dont une extrémité est fixée rigidement à un bras
assujetti au cadre. Il est recommandé de prévoir un moyen d’ajustement très précis de ce bras
pour pouvoir modifier au besoin la position du zéro de l’instrument, ainsi qu’un dispositif
permettant de changer la valeur d’échelle par l’ajustement du levier destiné à transmettre
au style le mouvement du bilame. Il est conseillé de laisser le soin de procéder à ce dernier
ajustement à un personnel qualifié. L’élément bimétallique devrait être protégé contre la
corrosion, de préférence par un revêtement épais de cuivre, de nickel ou de chrome, encore
qu’une couche de laque puisse suffire sous certains climats. L’instrument possède ordinairement
une inertie de 25 s environ pour une vitesse de l’air égale à 5 m s–1.
78 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Afin d’améliorer la résolution des relevés, on pourra, selon la saison, régler le thermographe
sur l’une des deux plages de mesure disponibles et le diagramme qui lui correspond. La date
exacte du passage d’un jeu de diagrammes à l’autre dépendra du lieu. Toutefois, au moment
du changement, il conviendra de régler l’instrument. Il est recommandé de procéder à
cette opération soit sous abri par temps couvert et venté, à une heure où la température est
pratiquement constante, soit dans un local où règne une température constante. On procède en
desserrant la vis qui relie le bras du style à son axe pour placer ledit bras dans la bonne position,
puis en la resserrant. On devrait ensuite laisser l’instrument en l’état avant de procéder à une
nouvelle vérification et à d’éventuels ajustements.
Il est conseillé d’exposer ces instruments dans un abri pour thermomètres de grande dimension.
Il existe deux grandes méthodes pour étalonner les thermographes à bilame en laboratoire. La
première consiste à fixer l’instrument de manière à ce que l’élément bimétallique soit immergé
dans un bain d’eau. La seconde vise à placer le thermographe dans une chambre d’étalonnage
disponible dans le commerce dotée d’un thermostat pour contrôler la température de l’air, d’un
ventilateur et d’un thermomètre de référence.
Il est conseillé d’effectuer des comparaisons à deux températures différentes, ce qui permettra
de déterminer les éventuelles corrections à apporter au zéro et à l’amplification. Les ajustements
devraient être réalisés de préférence par un personnel agréé, lequel devra se référer au manuel
du fabricant.
Le coefficient d’inertie de cet instrument peut être de moitié inférieur à celui d’un thermomètre
ordinaire à mercure, de sorte qu’une comparaison régulière des lectures du thermomètre sec et
du thermographe, réalisée à heures fixes, ne produira généralement pas de résultats concordant
exactement, même si l’instrument fonctionne parfaitement. Il est préférable de vérifier la lecture
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 79
2.3.6 Corrections
Les thermographes ne sont généralement pas accompagnés d’un certificat de correction. Si les
vérifications à la station indiquent que l’instrument présente des erreurs excessives, lesquelles
ne peuvent pas être rectifiées sur place, il est conseillé de renvoyer l’instrument à un laboratoire
d’étalonnage compétent pour qu’il y soit réparé et étalonné de nouveau.
2.3.7 Maintenance
Les instruments électriques sont désormais largement utilisés en météorologie pour mesurer les
températures. Ces instruments ont le principal avantage de fournir un signal de sortie approprié
pour l’indication, l’enregistrement, le stockage ou la transmission à distance des données de
température. Les capteurs les plus courants sont les résistances électriques, les thermomètres à
semi‑conducteurs (thermistances) et les thermocouples.
Pour obtenir la température, on peut mesurer la résistance électrique d’un matériau dont on
connaît la résistance en fonction de la température.
Pour une variation faible de la température, l’augmentation de la résistance des métaux purs est
proportionnelle à ladite variation, comme l'indique l'équation 2.2:
RT = R0 1 + α (T − T0 ) (2.2)
où (T – T0) a une valeur faible, RT est la résistance d’une quantité fixe de métal à la température T,
R0 est la résistance du métal à la température de référence T0 et α est le coefficient thermique de
résistance au voisinage de T0.
Lorsque les variations de température sont plus élevées et que certains alliages de métaux sont
utilisés, l’équation 2.4 exprime cette relation avec plus de précision:
RT = R0 1 + α (T − T0 ) + β (T − T0 )
2
(2.4)
Si la température de référence est de 0 °C, l’équation 2.4 s’écrit:
(
RT = R0 1 + α ⋅ t + β ⋅ t 2 ) (2.5)
Ces équations donnent la variation proportionnelle de résistance d’un thermomètre réel, de sorte
que la valeur des coefficients α et β peut être obtenue par étalonnage du thermomètre utilisé. À
partir de ces résultats, on peut déterminer la fonction inverse, à savoir t fonction de R. Une telle
fonction peut s’exprimer sous la forme d’une série exponentielle de (R0 – RT), à savoir t = t (R0 –
RT) = c1 (R0 – RT) + c 2 (R0 – RT)2 + … .
a) Ses propriétés physiques et chimiques doivent rester stables sur toute la plage de mesure;
c) Des facteurs externes, tels que l’humidité, la corrosion ou les déformations physiques, ne
doivent pas modifier significativement sa résistance;
d) Ses caractéristiques doivent demeurer constantes sur une période d’au moins deux ans;
Le platine pur est le métal qui satisfait le mieux aux conditions ci‑dessus. C’est pourquoi il sert
à fabriquer les résistances des thermomètres utilisés comme étalons primaires pour le transfert
de l’EIT‑90 entre différents lieux d’observation. Les thermomètres à résistance de platine sont
également utilisés comme étalons secondaires ou capteurs opérationnels.
Les thermomètres destinés à un usage pratique en météorologie font l’objet d’un vieillissement
artificiel avant de servir, et leurs résistances sont le plus souvent en alliages à base de
platine, en nickel, en cuivre ou, parfois, en tungstène. Généralement, ces thermomètres sont
hermétiquement scellés dans une gaine en céramique. Leur inertie est inférieure à celle des
thermomètres à liquide sous verre.
Un autre type de résistance couramment utilisé est la thermistance. Il s’agit d’un semi‑conducteur
caractérisé par un coefficient de température de la résistance relativement élevé, qui peut être
positif ou négatif selon la nature du matériau utilisé. Les mélanges d’oxydes métalliques frittés
sont appropriés pour la fabrication de thermistances, qui prennent habituellement la forme de
disques, de tiges ou de sphères de petites dimensions souvent enrobés de verre. L’équation 2.6
donne la relation générale entre la température et la résistance (R) d’une thermistance:
R = a exp ( b T ) (2.6)
Pour la mesure des températures, les thermistances offrent les avantages suivants:
a) Étant donné la valeur élevée du coefficient thermique des résistances, la tension appliquée
à un pont de résistances peut être réduite sans que la sensibilité de ce pont diminue. Il
n’est donc pratiquement pas, voire nullement nécessaire de tenir compte de la valeur de la
résistance des conducteurs et de ses variations;
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 81
b) Les éléments peuvent être miniaturisés, et leur très faible capacité thermique permet
ainsi d’obtenir un faible coefficient d’inertie. Toutefois, ces thermistances présentent un
inconvénient: pour un taux de dissipation donné, l’effet d’échauffement est plus important
qu’avec de gros thermomètres. Il convient donc de maintenir la dissipation de puissance à
un faible niveau.
Une thermistance type possède une résistance qui varie d’un facteur 100 ou 200 sur la plage de
température comprise entre –40 et +40 °C.
2.4.1.3 Thermocouples
En 1821, Seebeck découvre qu’au point contact de deux métaux différents se produit une très
petite force électromotrice de contact. Dans le cas d’un circuit simple composé de deux métaux
ayant la même température au point de jonction, aucune force électromotrice n’en résulte dans
le circuit car les deux forces électromotrices, une à chaque jonction, s’opposent exactement
pour s’annuler. Si la température de l’une des jonctions est modifiée, les deux forces ne sont plus
en équilibre, et une force électromotrice nette apparaît alors dans le circuit, faisant circuler un
courant. En cas de jonctions multiples, la force électromotrice résultante est la somme algébrique
des différentes forces électromotrices. La grandeur et le signe de la force électromotrice de
contact provoquée à l’une quelconque des jonctions dépend du type des métaux en contact et
de la température du point de jonction et peut être représentée de manière empirique pour deux
métaux quelconques par l’expression suivante:
( ET − ES ) = α (T − TS ) + β (T − TS )2 (2.7)
où a et b sont des constantes correspondant aux deux métaux utilisés. Dans la plupart des
applications météorologiques, on peut négliger la valeur de b, qui est toujours faible par rapport
à a.
Les thermocouples sont fabriqués en soudant ou en brasant des fils de métaux différents. Ces
jonctions peuvent être très petites et ainsi dotées d’une capacité thermique négligeable.
fer‑constantan sont bien adaptées aux mesures météorologiques, car la force électromotrice
produite par degré Celsius est supérieure à celle des métaux plus rares et plus coûteux
généralement employés à hautes températures.
Les thermomètres à résistance électrique peuvent être raccordés à divers circuits électriques
de mesure, dont beaucoup sont des variantes des circuits en pont de résistances, équilibré ou
déséquilibré. Dans le cas du pont à l’équilibre, un potentiomètre de précision est ajusté jusqu’à
ce que le courant n’arrive plus à l’indicateur, la position du tube du potentiomètre étant liée à
la température. Dans le cas d’un pont hors équilibre, on peut mesurer le courant résultant du
déséquilibre à l’aide d’un galvanomètre. Ce courant ne dépend toutefois pas uniquement de la
température, mais il est aussi fonction d’un certain nombre d’autres facteurs. La solution pour
éviter une telle situation est de faire appel à une source constante de courant pour alimenter le
pont et mesurer la tension résultant du déséquilibre pour connaître la température.
Dans le cas d’une mesure à distance, il convient de tenir compte du fait que le fil reliant le
thermomètre à résistance au pont forme également une résistance qui varie avec la température.
Il convient de prendre les précautions nécessaires pour éviter ce type d’erreur.
On peut faire appel à un voltmètre numérique couplé à une source constante de courant pour
mesurer la chute de tension liée à la température dans l’élément thermométrique, la sortie
étant directement transposée en température. La sortie numérique peut être enregistrée ou
transmise sans perte d’exactitude à des fins ultérieures. Par la suite, cette sortie numérique peut
éventuellement être convertie de nouveau sous forme analogique, pour alimenter un appareil
enregistreur par exemple.
2.4.2.2 Thermocouples
Il existe essentiellement deux méthodes pour mesurer la force électromotrice produite par les
thermocouples, à savoir:
Selon la méthode a), le galvanomètre est directement raccordé en série aux deux jonctions. La
méthode b) est généralement utilisée si la marge d’incertitude requise est inférieure à 0,5 %.
Cette procédure ne dépend pas de l’amplitude ni des variations de la résistance de ligne étant
donné qu’aucun courant ne circule en cas d’équilibre.
Les exigences d’exposition et d’implantation des thermomètres électriques sont en général les
mêmes que celles des thermomètres à liquide sous verre (voir la section 2.2.3), avec toutefois des
exceptions, et notamment:
b) Mesure des températures en surface: les propriétés radiatives des thermomètres électriques
sont différentes de celles des thermomètres à liquide sous verre. Les thermomètres
électriques exposés pour la mesure de la température minimale sur gazon (ou autre mesure
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 83
en surface) donneront donc des valeurs différentes de celles données par les thermomètres
classiques exposés de manière analogue. Ces différences peuvent être réduites en plaçant le
thermomètre électrique dans une gaine en verre;
c) Mesure des températures du sol: les thermomètres à mercure placés dans des tubes d’acier
disposés verticalement sont relativement peu adaptés pour mesurer la variation diurne
de la température du sol, car ces derniers conduisent la chaleur présente en surface. On
peut obtenir des mesures beaucoup plus représentatives en installant des thermomètres
électriques dans des prises de laiton insérées à la profondeur requise dans la paroi verticale
non perturbée d’une tranchée que l’on aura creusée. Les connexions électriques sous tube
de plastique sont passées par la tranchée qui est ensuite rebouchée de manière à remettre
en place, dans la mesure du possible, les couches de drainage d’origine et à en restaurer les
caractéristiques.
La résistance des câbles de raccordement introduit une erreur dans la lecture de la température.
Cette erreur augmente avec la longueur du câble, par exemple lorsque le thermomètre à
résistance est placé à une certaine distance de l’instrument de mesure. Les erreurs de lecture
varient également avec les variations de température des câbles. Ces erreurs peuvent être
compensées en utilisant des conducteurs supplémentaires, des résistances stabilisatrices et
un réseau en pont adapté. Pour limiter ces erreurs, il est fortement recommandé d'utiliser des
thermomètres à résistance de platine à quatre fils.
De brusques variations de la résistance des contacteurs peuvent intervenir avec le temps. Ces
dernières peuvent être d’ampleur variable et n’être détectées qu’au cours de contrôles de routine
de l’étalonnage du système (voir la section 2.4.5).
2.4.4.2 Thermocouples
Lorsque la température est mesurée à l’aide de thermocouples, les principales sources d’erreur
de mesure sont les suivantes:
b) Conduction le long des câbles qui partent de la jonction lorsque le gradient de température
se situe au voisinage du point de mesure de la température;
d) Courants de fuite provenant des circuits électriques adjacents. Leur effet peut être minimisé
par un blindage approprié des câbles;
e) Courants galvaniques produits lorsque des câbles ou des jonctions sont exposés à
l’humidité;
2.4.5.2 Thermocouples
2.4.6 Corrections
En sortie de fabrication, un thermomètre électrique (doté d’un numéro de série) devrait être
accompagné:
b) D’un certificat d’étalonnage daté, indiquant la résistance réelle en des points fixes de la
plage de température. Il est recommandé d’utiliser ces valeurs pour vérifier l’incertitude
d’un instrument de mesure ou d’une interface système avant et pendant l’utilisation.
L’importance de l’écart de résistance par rapport à la valeur nominale ne devrait
généralement pas être supérieure à une erreur de température équivalente de 0,1 ou 0,2 K.
2.4.7 Maintenance
Il est recommandé de procéder à des vérifications régulières sur le terrain en vue de détecter
toute modification dans l’étalonnage du système. Un tel phénomène peut s’expliquer par des
changements dans les caractéristiques électriques du thermomètre sur le long terme, une
dégradation des câbles électriques ou de leurs connexions ou encore par une modification de
la résistance des contacteurs ou des caractéristiques électriques du matériel de mesure. Pour
pouvoir repérer la source exacte de ces erreurs et y remédier, il est nécessaire de disposer d’un
matériel et d’une formation spécialisés. Cette opération ne devrait donc être réalisée que par un
technicien de maintenance.
Des écrans dotés d’une ventilation forcée, dans lesquels de l’air est envoyé sur l’élément
thermométrique à l’aide d’un ventilateur, peuvent contribuer à éviter les erreurs de justesse
lorsque le microclimat qui règne à l’intérieur de l’écran s’écarte de la masse d’air environnante.
Un tel écart ne s’observe que lorsque la vitesse naturelle du vent est faible (< 1 m s–1). Dans
les cas de ventilation artificielle, des précautions devraient être prises pour éviter tout dépôt
d’aérosols ou de gouttes de pluie sur le capteur, au risque sinon de faire baisser la température
de ce dernier pour se rapprocher de la température du thermomètre mouillé. Les fabricants
d'abris de protection contre le rayonnement à ventilation artificielle sont incités à donner une
indication claire (par exemple au moyen d'un voyant à diodes électroluminescentes) de l'état
de fonctionnement du ventilateur directement sur l'écran ou sur l'unité de commande ou
l'enregistreur de données, afin de permettre au personnel de maintenance de vérifier de visu si
le ventilateur fonctionne correctement. De plus, l'état de fonctionnement du ventilateur et sa
vitesse devraient faire partie des données transmises aux fins de contrôle automatique.
Il est préconisé d’utiliser par exemple un écran fabriqué dans un métal non‑oxydé très poli en
raison de son grand pouvoir réfléchissant et de sa faible capacité d’absorption de la chaleur.
Toutefois, on lui préférera un isolant thermique plastique, simple à entretenir. Le recours à un
isolant thermique est obligatoire lorsque le système fait appel à la ventilation naturelle.
La performance d’un écran (tenue au rayonnement et effets du microclimat introduisant des biais
indésirables) dépend essentiellement de sa conception, laquelle devra être étudiée avec le plus
grand soin afin de garantir une protection contre le rayonnement et une ventilation suffisante.
Depuis les premières mesures de température à des fins météorologiques, une grande diversité
d’écrans ont été mis au point. Suite à l’introduction des mesures de température réalisées dans
des stations météorologiques automatiques, la gamme des modèles s’est considérablement
enrichie (OMM, 1998a). Il s’avère difficile de recommander un modèle particulier de mesures
86 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
à l’échelle mondiale tant sont divers les conditions particulières d’application, le niveau
d’automatisation et la situation climatologique. Toutefois, nombre de recherches et d’études
comparatives ont été réalisées sur les différents types de conception et leurs performances
respectives. L’OMM (OMM, 1972) propose une synthèse claire des différents modèles d’écran
existants. Les résultats des études comparatives portant sur les écrans de protection des
thermomètres sont présentés par Andersson et Mattison (1991); Sparks (2001); OMM (1998b,
1998c, 1998d, 2000a, 2000b, 2002b, 2002c, 2002d); et Zanghi (1987).
La norme internationale ISO/DIS 17714 définit les types d’écran les mieux adaptés et décrit les
méthodes à adopter pour déterminer ou comparer les performances des différents écrans (ISO,
2007).
La plupart des abris à persiennes, de conception très variée, font appel à la ventilation naturelle.
Il convient de choisir de préférence des parois à doubles persiennes pour ce type d’abri avec un
plancher fait de panneaux en chicane, (mais d’autres types de construction peuvent répondre
aux exigences indiquées ci‑dessus) et un toit à double paroi avec circulation d’air entre les deux
parois. Dans les régions à climat froid, en raison du coefficient élevé de réflexion de la neige
(jusqu’à 88 %), on préconise d’adopter également un double plancher capable de se rabattre ou
de s’incliner pour évacuer la neige qui aurait pu s’infiltrer dans l’abri au cours d’une tempête.
Dans un abri à double paroi, le rideau d’air entre les parois permet de réduire la quantité de
chaleur qui, sinon, se propagerait de la paroi extérieure à l’intérieur de l’enceinte, surtout en cas
de fort ensoleillement. Par vent fort, l’air circule continuellement entre les deux parois, ce qui
réduit encore davantage la propagation de la chaleur de la paroi externe vers l’intérieur de l’abri.
Les erreurs dues à des variations de la ventilation naturelle peuvent être réduites en adaptant
à l’abri un système de ventilation artificielle bien conçu destiné à maintenir un débit de
renouvellement de l’air connu et constant, du moins par vent faible. Lors de la conception de tels
systèmes, il faudrait veiller à ce que la chaleur dégagée par le ventilateur ou un moteur électrique
n’affecte pas la température sous l’abri.
En général, l’abri est doté d’une seule porte et est placé de sorte que les rayons du soleil ne
viennent pas frapper directement les thermomètres lorsque celle‑ci est ouverte pour effectuer
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 87
une observation. En revanche, dans les régions tropicales, il convient d’en prévoir deux, utilisées
alternativement en fonction de la saison. De même, dans les régions polaires (où le soleil
reste bas sur l’horizon), il est conseillé de prendre des précautions particulières pour protéger
l’intérieur de l’abri des rayons du soleil, soit par un système d’auvent, soit par un écran monté sur
un pivot permettant de l’orienter convenablement lorsqu’on ouvre la porte pour effectuer des
relevés.
La plupart des abris sont encore en bois, mais les nouveaux modèles en plastique récemment mis
au point, dotés de persiennes mieux conçues et donc d’une circulation d’air améliorée, offrent
une meilleure protection contre le rayonnement. En tout état de cause, l’abri et son support
devraient de préférence être construits dans un matériau robuste et solidement montés afin que
les erreurs de lecture des thermomètres à minimum et à maximum imputables aux vibrations
dues au vent soient réduites au minimum. Dans certaines régions, où ces vibrations ne peuvent
pas être éliminées entièrement, il est recommandé d’effectuer un montage sur des supports
élastiques. Le sol sous l’abri devrait être recouvert d’herbe ou laissé à l’état naturel.
La principale solution de rechange aux abris à persiennes, qu’ils soient à ventilation naturelle
ou artificielle, consiste à protéger le réservoir du thermomètre contre le rayonnement direct en
plaçant l’instrument dans l’axe de deux écrans cylindriques concentriques et en produisant une
circulation d’air (de 2,5 à 10 m s–1) entre ceux‑ci et à la hauteur du réservoir du thermomètre. Ce
type d’exposition est normal dans les psychromètres à aspiration (chapitre 4 de la partie I). En
principe, les écrans devraient être construits dans un matériau thermiquement isolant, bien que
dans le psychromètre d’Assmann l’écran soit réalisé en métal très poli afin de réduire l’absorption
du rayonnement solaire. Une circulation d’air est produite continuellement sur les deux côtés
de l’écran intérieur de manière que sa température, et donc celle du thermomètre, soient aussi
proches que possible de celle de l’air. Ordinairement, ces écrans sont montés à la verticale. La
quantité de rayonnement direct à partir du sol qui entre par leur base est faible; on peut même
la réduire en plaçant les écrans de façon que leur base se trouve bien au‑dessous du réservoir du
thermomètre. Quand la ventilation est produite par un ventilateur électrique, il faudrait s’efforcer
d’empêcher que la chaleur produite par le moteur et le ventilateur n’atteigne les thermomètres.
Le psychromètre de référence de l’OMM a été conçu de manière à tenir dûment compte des
effets du rayonnement et de l’utilisation d’une ventilation artificielle et d’écrans afin de s’assurer
que l’élément thermométrique est en équilibre à la température vraie de l’air (chapitre 4 de la
partie I).
ANNEXE. DÉFINITION DES POINTS FIXES DE L’ÉCHELLE
INTERNATIONALE DE TEMPÉRATURE DE 1990
Les tableaux 2.A.1 et 2.A.2 indiquent respectivement les points de référence fixes et les points de
référence secondaires de l’Échelle internationale de température de 1990 (EIT‑90) qui concernent
les mesures météorologiques.
La méthode standard d’interpolation entre les points de référence fixes fait appel à des formules
servant à établir la relation entre les indications des instruments étalons et les valeurs de l’EIT‑90
(BIPM, 1990). L’instrument étalon en usage pour la plage de températures comprise entre
–259,34 °C et 961,78 °C est un thermomètre à résistance de platine.
Une autre méthode pratique d'approximation de l'EIT‑90 lors de l'étalonnage d'un thermomètre
à résistance de platine consiste à obtenir des données résistance‑température (calcul de R0, A , B
et C, voir équation ci‑dessous) en effectuant une comparaison avec un thermomètre à résistance
de platine étalon étalonné à de nombreuses valeurs de la température dans la plage considérée
et en employant la méthode des moindres carrés pour établir un polynôme qui décrive au mieux
les données.
(
Rt = R0 1 + A ⋅ t + B ⋅ t 2 + C ⋅ ( t − 100 ) ⋅ t 3 )
où Rt est la résistance d’un fil de platine à la température t, R0 sa résistance à 0 °C (point de glace)
et A, B et C (C = 0 pour t > 0 °C) des constantes dont la valeur est déterminée en appliquant la
méthode des moindres carrés aux données acquises lors de l'étalonnage.
Équilibre entre les phases solide, liquide et vapeur du mercure (point 234,315 6 –38,834 4
triple du mercure)
Équilibre entre les phases solide, liquide et vapeur de l’eau (point triple 273,160 0 0,01
de l’eau)
Équilibre entre les phases solide et liquide du gallium (point de fusion 302,914 6 29,764 6
du gallium)
Équilibre entre les phases solide et liquide de l’indium (point de 429,748 5 156,598 5
congélation de l’indium)
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 89
Équilibre entre les phases solide et liquide du mercure (point de 234,296 –38,854
congélation du mercure) à la pression atmosphérique standard
Équilibre entre la glace et l’eau saturée d’air (point de fusion de la 273,150 0,00
glace) à la pression atmosphérique standard
Équilibre entre les phases solide, liquide et vapeur du phénoxybenzène 300,014 26,864
(diphényléther) (point triple du phénoxybenzène)
RÉFÉRENCES ET AUTRES LECTURES
Andersson, T. et I. Mattison, 1991: A Field Test of Thermometer Screens. SMHI Report No. RMK 62, Norrköping.
Bureau international des poids et mesures (BIPM), 1989: Procès‑verbaux du Comité international des poids et
mesures, 78e réunion, 1989, Paris (consultable à l'adresse www.bipm.org/utils/common/pdf/
its‑90/EIT‑90.pdf).
Bureau international des poids et mesures (BIPM), 1990: Échelle internationale de température de 1990
(EIT‑90). Procès‑verbaux du Comité international des poids et mesures, 78e réunion (consultable à
l'adresse www.bipm.org/utils/common/pdf/its‑90/EIT‑90.pdf).
Commission électrotechnique internationale (CEI), 2008: Thermomètres à résistance de platine industriels et
capteurs thermométriques en platine, CEI 60751:2008, Genève.
Her Majesty’s Stationery Office/Meteorological Office, 1980: Handbook of Meteorological Instruments,
Volume 2, Measurement of temperature, Londres.
Jones, E.B., 1992: Jones’ Instrument Technology. Volume 2: Measurement of temperature and chemical
composition, Butterworths‑Heinemann, Oxford.
Middleton, W.E.K. et A.F. Spilhaus, 1960: Meteorological Instruments, University of Toronto Press.
Organisation internationale de normalisation, 2007: Météorologie – Mesurage de la température de l'air –
Méthodes d'essai pour comparer les performances d'abris/d'écrans pour thermomètres et définir les
caractéristiques importantes, ISO 17714:2007, Genève.
Organisation météorologique mondiale, 1972 : The Effect of Thermometer Screen Design on the Observed
Temperature (W.R. Sparks) (WMO‑No. 315), Genève.
———, 1992: Measurement of Temperature and Humidity: Specification, Construction, Properties and Use of the
WMO Reference Psychrometer (R.G. Wylie et T. Lalas). Technical Note No. 194 (WMO‑No. 759),
Genève.
———, 1998a: Recent Changes in Thermometer Screen Design and their Impact (A. Barnett, D.B. Hatton et
D.W. Jones). Instruments and Observing Methods Report No. 66 (WMO/TD‑No. 871), Genève.
———, 1998b: An investigation of temperature screens and their impact on temperature measurements
(J. Warne). Papers Presented at the WMO Technical Conference on Meteorological and Environmental
Instruments and Methods of Observation (TECO‑98). Instruments and Observing Methods Report
No. 70 (WMO/TD‑No. 877), Genève.
———, 1998c: A thermometer screen intercomparison (J.P. van der Meulen). Papers Presented at the WMO
Technical Conference on Meteorological and Environmental Instruments and Methods of Observation
(TECO‑98). Instruments and Observing Methods Report No. 70 (WMO/TD‑No. 877), Genève.
———, 1998d: Comparison of meteorological screens for temperature measurement (G. Lefebvre). Papers
Presented at the WMO Technical Conference on Meteorological and Environmental Instruments and
Methods of Observation (TECO‑98). Instruments and Observing Methods Report No. 70
(WMO/TD‑No. 877), Genève.
———, 2000a: A comparison of air temperature radiation screens by field experiments and computational
fluid dynamics (CFD) simulations (A. Spetalen, C. Lofseik et P. Ø. Nordli). Papers Presented at the
WMO Technical Conference on Meteorological and Environmental Instruments and Methods of
Observation (TECO‑2000). Instruments and Observing Methods Report No. 74
(WMO/TD‑No. 1028), Genève.
———, 2000b: Temperature measurements: Some considerations for the intercomparison of radiation
screens (J.P. van der Meulen). Papers Presented at the WMO Technical Conference on Meteorological
and Environmental Instruments and Methods of Observation (TECO‑2000). Instruments and
Observing Methods Report No. 74 (WMO/TD‑No. 1028), Genève.
———, 2002a: Measurement of temperature with wind sensors during severe winter conditions (M. Musa,
S. Suter, R. Hyvönen, M. Leroy, J. Rast et B. Tammelin). Papers Presented at the WMO Technical
Conference on Meteorological and Environmental Instruments and Methods of Observation
(TECO‑2002). Instruments and Observing Methods Report No. 75 (WMO/TD‑No. 1123),
Genève.
———, 2002b: Norwegian national thermometer screen intercomparison (M.H. Larre et K. Hegg). Papers
Presented at the WMO Technical Conference on Meteorological and Environmental Instruments and
Methods of Observation (TECO‑2002). Instruments and Observing Methods Report No. 75
(WMO/TD‑No. 1123), Genève.
———, 2002c: Results of an intercomparison of wooden and plastic thermometer screens (D.B. Hatton).
Papers Presented at the WMO Technical Conference on Meteorological and Environmental Instruments
and Methods of Observation (TECO‑2002). Instruments and Observing Methods Report No. 75
(WMO/TD‑No. 1123), Genève.
CHAPITRE 2. MESURE DE LA TEMPÉRATURE 91
———, 2002d: Temperature and humidity measurements during icing conditions (M. Leroy, B. Tammelin,
R. Hyvönen, J. Rast et M. Musa). Papers Presented at the WMO Technical Conference on
Meteorological and Environmental Instruments and Methods of Observation (TECO‑2002).
Instruments and Observing Methods Report No. 75 (WMO/TD‑No. 1123), Genève.
———, 2011: WMO Field Intercomparison of Thermometer Screens/Shields and Humidity Measuring Instruments
(M. Lacombe, D. Bousri, M. Leroy et M. Mezred). Instruments and Observing Methods Report
No. 106 (WMO/TD‑No. 1579), Genève.
Sparks, W.R., 1970: Current concepts of temperature measurement applicable to synoptic networks.
Meteorological Monographs, 11(33): 247–251.
———, 2001: Field trial of Metspec screens. Technical Report TR19, Met Office/OD, Wokingham, Royaume‑Uni
de Grande‑Bretagne et d'Irlande du Nord.
Zanghi, F., 1987 : Comparaison des abris météorologiques, Note technique Nº 11, Météo‑France/SETIM,
Trappes.
TABLE DES MATIÈRES DU CHAPITRE
Page
Page
3.1 GÉNÉRALITÉS
3.1.1 Définition
La pression atmosphérique sur une surface donnée est la force que l’atmosphère sous‑jacente
exerce en raison de son poids par unité de surface; elle est donc égale au poids de la colonne
d’air verticale qui s’étend d’une projection horizontale de la surface en question jusqu’à la limite
supérieure de l’atmosphère.
L’unité fondamentale de pression atmosphérique est le pascal (Pa) (ou le newton par mètre
carré). La pratique veut que l’on utilise, pour indiquer la pression en météorologie appliquée,
l’hectopascal (hPa) qui équivaut à 100 Pa, principalement car il correspond à l’unité utilisée
auparavant, soit le millibar (mbar).
Si l’on admet le rapport conventionnel utilisé dans les domaines techniques entre le pouce et le
millimètre, à savoir 1 pouce = 25,4 millimètres, on obtient les facteurs de conversion suivants:
Pour les applications météorologiques, les échelles des baromètres à mercure devraient être
graduées de manière à donner directement des lectures exactes en unités standard lorsque
l’instrument tout entier est soumis à la température normale de 0 °C et à l’accélération normale
de la pesanteur (9,806 65 m s–2).
Plusieurs échelles peuvent être gravées sur un même baromètre, gradué par exemple hPa et
(mm Hg)n, ou hPa et (in Hg)n, pourvu que le baromètre soit correctement étalonné dans les
conditions normales.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 95
L’analyse des champs de pression tient une place fondamentale en météorologie. Comme
toutes les prévisions de l’état de l’atmosphère reposent sur cette analyse, il est indispensable
de définir avec exactitude les champs de pression. Compte tenu de limites financières réalistes,
la technologie détermine le degré d’exactitude qu’il convient d’atteindre dans la mesure de
la pression. Il faut en outre veiller à l’uniformité des procédures de mesure et d’étalonnage à
l’échelle internationale.
Les différentes commissions techniques de l’OMM ont défini les exactitudes requises pour que la
mesure de la pression satisfasse les exigences des diverses applications météorologiques, ce qui
est brièvement exposé dans l’annexe 1.E du chapitre 1 de la partie I, qui constitue la principale
référence pour les spécifications des mesures dans le présent guide. Les besoins sont les suivants:
Gamme de mesure: 500–1 080 hPa (pression à la station et pression au niveau de la mer)
Incertitude requise: 0,1 hPa
Résolution du relevé: 0,1 hPa
Constante de temps du capteur: 20 s (cette constante peut être ramenée à 2 s dans le cas
des baromètres les plus modernes – voir l’annexe 1.E du chapitre 1 de la partie I)
Intervalle de temps pour le calcul de la moyenne:1 min
Il y a lieu de tenir compte des exigences ci‑dessus comme de critères à respecter pour les
nouveaux baromètres placés dans des conditions subissant un contrôle strict, que l’on trouve
notamment dans les laboratoires bien équipés. Ce sont des critères à appliquer aux baromètres
avant l’installation dans un environnement opérationnel.
Pour ce qui concerne les baromètres fonctionnant dans des conditions d’exploitation, les
Services météorologiques nationaux doivent se doter d’instruments soigneusement conçus
pour maintenir l’exactitude requise, en dépit des contraintes d’ordre pratique. Une attention
particulière doit être portée au baromètre lui‑même, mais aussi à son exposition. Toutefois, pour
ce qui est des baromètres des stations appartenant à un réseau de mesure opérationnel, qui ont
été étalonnés par comparaison avec un baromètre étalon dont l’erreur instrumentale est connue
et a été compensée, les écarts spécifiés ne devraient pas être dépassés.
a) Ils doivent être étalonnés ou vérifiés régulièrement par comparaison avec un baromètre
étalon de travail et suivant les procédures établies. L’intervalle entre deux étalonnages
doit être suffisamment court pour que l’erreur totale absolue des mesures se situe dans les
limites de l’exactitude requise définies dans le présent chapitre;
b) Toutes variations de l’exactitude (à long terme ou à court terme) doivent être beaucoup
plus petites que les tolérances stipulées dans la section 3.1.3. Lorsque, grâce aux
96 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
étalonnages, on décèle une dérive pour certains instruments, ceux‑ci ne pourront servir en
exploitation qu’à condition de réduire suffisamment l’intervalle entre les étalonnages pour
garantir l’exactitude requise des mesures effectuées sur cette période;
c) Les variations de température ne devraient pas avoir d’effet sur les résultats des lectures de
l’instrument. Les conditions ci‑après doivent donc être remplies:
ii) Le capteur de pression est placé dans des conditions où la température est stabilisée,
de manière à parvenir à l’exactitude requise;
d) L’instrument doit être placé dans des conditions où les effets extérieurs n’entraîneront
pas d’erreur dans les mesures. Ces effets comprennent le vent, le rayonnement ou la
température, les chocs et les vibrations, les fluctuations de l’alimentation électrique et les
brusques variations de pression. L’emplacement de l’instrument doit être choisi avec le plus
grand soin, surtout dans le cas des baromètres à mercure.
Il importe que tous les observateurs en météorologie soient pleinement conscients de ces
effets et soient en mesure d’évaluer si l’un d’eux a des conséquences sur l’exactitude des
résultats des lectures du baromètre en service;
e) La lecture de l’instrument devrait être aisée et rapide. Les instruments doivent être conçus
de manière que l’écart type des relevés soit inférieur au tiers de l’exactitude absolue
stipulée;
Du point de vue historique, la méthode la plus utilisée pour mesurer la pression qu’exerce
l’atmosphère consiste à créer un équilibre par rapport au poids d’une colonne de liquide.
Pour diverses raisons, seul le mercure permet en pratique d’atteindre l’exactitude requise
pour ce mesurage. Les baromètres à mercure se distinguent en général par leurs bonnes
constance et exactitude à long terme, mais ils commencent à être supplantés par les baromètres
électroniques, tout aussi exacts et plus faciles à lire.
Une membrane constituée d’un matériau élastique, retenue sur son pourtour, se déforme en
cas de différence de pression entre ses deux côtés. Dans la pratique, on utilise une capsule
métallique fermée, à l’intérieur de laquelle on a créé un vide complet ou partiel, et contenant un
robuste ressort métallique qui empêche la capsule de s’affaisser sous la pression atmosphérique
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 97
Des éléments constitués de cylindres aux minces parois en alliage de nickel, sous vide, ont été mis
au point. La fréquence de résonance naturelle de ces cylindres varie en fonction de la différence
de pression entre l’intérieur du cylindre, qui se trouve à la pression atmosphérique ambiante, et
l’extérieur du cylindre maintenu sous vide.
Les transducteurs de la pression absolue composés d’un élément en cristal de quartz sont de plus
en plus utilisés. La pression qui s’exerce, par l’intermédiaire d’une capsule souple, sur une face
du cristal crée une force de compression. Compte tenu des propriétés piézoélectriques du cristal,
la pression modifie l’équilibre d’un pont de Wheatstone actif. Retrouver la condition d’équilibre
permet de déterminer avec exactitude la pression. L’hystérésis est virtuellement éliminée dans
ces types de transducteurs de pression.
La température d’ébullition d’un liquide varie en fonction de la pression qui s’exerce sur ce
liquide. Une fois la relation établie, il est possible d’obtenir avec un hypsomètre la pression
atmosphérique à partir de la température d’ébullition du liquide.
Ces baromètres sont de moins en moins utilisés, pour plusieurs raisons: le mercure dégage
des vapeurs très toxiques; à l’état libre, il corrode les alliages d’aluminium présents dans les
cellules d’aéronefs (ce qui a conduit certains pays à interdire la manutention ou le transport des
baromètres à mercure); le tube doit être fait d’un verre au plomb spécial; l’appareil est très fragile
et difficile à transporter; l’entretien est délicat et les déversements accidentels sont difficiles à
nettoyer; la lecture et les corrections doivent se faire à la main; enfin, on trouve couramment
aujourd’hui des capteurs de pression à affichage électronique qui présentent la même exactitude
et la même constance.
Plusieurs types de baromètres à mercure sont en usage dans les stations météorologiques, le
type à cuvette fixe et le type Fortin étant les plus courants. Il convient de mesurer la distance
entre le sommet de la colonne de mercure et le niveau supérieur du mercure dans la cuvette.
Chaque changement de la longueur de la colonne de mercure s’accompagne évidemment d’un
changement du niveau du mercure dans la cuvette. Dans le cas du baromètre Fortin, on ajuste
le niveau du mercure dans la cuvette de manière à le mettre en contact avec une pointe de
référence en ivoire, dont l’extrémité se trouve en face du zéro de l’échelle barométrique; dans
celui du baromètre à cuvette fixe, appelé également baromètre du type Kew, aucun ajustement
n’est nécessaire puisque l’échelle gravée sur le baromètre est établie de façon à compenser les
modifications du niveau du mercure dans la cuvette.
Un bon baromètre à mercure de station devrait remplir les conditions principales suivantes:
b) Sa lecture devrait être facile et rapide. Il faudrait corriger tous les effets connus dans les
relevés. Les observateurs qui procèdent aux corrections doivent être conscients de leur
importance, afin de les appliquer correctement et de ne pas, au contraire, entraîner une
détérioration de l’exactitude des mesures;
c) L’instrument devrait pouvoir être transporté sans que son exactitude en souffre;
e) Le tube devrait être préparé et rempli sous vide. La pureté du mercure revêtant une extrême
importance, il faudrait que celui‑ci ait été distillé deux fois, dégraissé, lavé à maintes reprises
et filtré;
f) La température réelle pour laquelle l’échelle est censée donner des lectures exactes (pour
une accélération normale de la pesanteur) devrait être gravée sur le baromètre; les échelles
devraient, de préférence, être graduées de façon que les lectures soient exactes à 0 °C;
g) Le ménisque ne devrait pas être plat, à moins que le tube n’ait un grand diamètre
(> 20 mm);
h) Pour un baromètre de marine, l’erreur ne devrait pas excéder 0,5 hPa, quel que soit le
relevé.
Le temps de réponse des baromètres à mercure utilisés dans les stations terrestres est
généralement très faible comparé à celui des baromètres de marine et des instruments servant à
mesurer la température, l’humidité et le vent.
La température normale à laquelle les lectures des baromètres à mercure sont réduites pour
éliminer les erreurs associées au changement de densité du mercure induit par la température est
0 °C.
La valeur admise pour la densité normale du mercure à 0 °C est 1,359 51· 10 4 kg m–3; pour
calculer la pression absolue à l’aide de l’équation hydrostatique, le mercure dans la colonne d’un
baromètre est, par convention, considéré comme un fluide incompressible.
L’utilisation de mercure impur, dont la masse volumique est différente de celle du mercure pur,
entraîne des erreurs de lecture, étant donné que la pression indiquée est proportionnelle à la
densité du mercure.
Note: La nécessité d’adopter une valeur de référence arbitraire pour l’accélération de la pesanteur est expliquée
dans OMM (1966). Cette valeur ne peut être associée précisément à une valeur mesurée ou théorique de l’accélération
de la pesanteur dans des conditions données, à une latitude de 45° et au niveau de la mer par exemple, puisqu’il est
probable qu’une telle valeur évolue en fonction des données expérimentales les plus récentes.
La lecture devrait être faite au plus proche dixième d’hectopascal. Il est en général impossible de
lire le vernier avec une exactitude plus grande.
Des systèmes optiques et numériques ont été mis au point pour améliorer la lecture des
baromètres à mercure. Bien qu’ils facilitent normalement les observations, ils peuvent néanmoins
constituer des sources d’erreurs s’ils n’ont pas été conçus et étalonnés soigneusement.
Chaque fois qu’une inspection révèle une variation de la correction du zéro d’un baromètre, il y a
lieu de chercher à en déterminer les causes, en tenant compte des points suivants:
c) L’ampleur de la variation;
e) L’existence éventuelle à la station d’un autre baromètre pour lequel la correction exacte est
connue;
Les variations de la correction du zéro, ou dérive, des baromètres de station peuvent être dues:
a) Aux variations de la dépression capillaire des surfaces de mercure lorsque celui‑ci est
contaminé. Dans les régions où l’atmosphère est très polluée par des sources industrielles,
la contamination du mercure peut constituer un problème sérieux et nécessiter un
nettoyage relativement fréquent du mercure et de la cuvette du baromètre;
Ces variations, suivant leurs causes, peuvent être irrégulières, ou constamment positives ou
négatives.
Elles peuvent aussi résulter d’un déplacement accidentel de l’échelle réglable et d’un décalage de
la pointe de référence dans le cas des baromètres du type Fortin.
a) Une variation de correction de moins de 0,1 hPa est négligeable à moins qu’elle ne persiste;
b) Une variation de correction supérieure à 0,1 hPa mais inférieure à 0,3 hPa peut être acceptée
provisoirement, sauf si elle est confirmée lors d’au moins une comparaison ultérieure;
c) Une variation de correction supérieure à 0,3 hPa ne peut être acceptée provisoirement
que si le baromètre est nettoyé et qu’il n’existe pas à la station d’autre baromètre dont on
connaisse la correction. L’instrument devrait être remplacé dès que l’on peut disposer d’un
autre baromètre correctement étalonné.
Les baromètres dont les variations de correction correspondent aux cas b) et c) devraient être
surveillés de près. Il faut les réétalonner ou les remplacer dès que possible.
Les critères établis pour les baromètres de station sont aussi applicables aux étalons voyageurs.
Une variation de correction inférieure à 0,1 hPa est négligeable si elle ne persiste pas. Une
variation plus importante devrait être confirmée et acceptée seulement après plusieurs
comparaisons répétées. Les corrections du zéro d’un baromètre voyageur, avant et après un
déplacement, ne devraient pas différer de plus de 0,1 hPa. C’est pourquoi on ne devrait utiliser
comme étalons voyageurs que des baromètres dont les corrections antérieures sont longtemps
restées constantes.
Il y a lieu d’appliquer les corrections ci‑après afin que les lectures du baromètre faites à des
heures différentes et en des lieux différents puissent être utilisées comme valeurs de la pression
atmosphérique:
b) Correction de pesanteur;
c) Correction de température.
Il est possible, en suivant les instructions fournies par le fabricant du baromètre, d’obtenir des
résultats acceptables pour un grand nombre d’applications météorologiques opérationnelles, à
condition d’être certain que ces procédures donneront des lectures de la pression qui présentent
l’incertitude requise. Toutefois, si les résultats ne sont pas satisfaisants ou si une plus grande
précision est exigée, il convient de suivre les procédures détaillées à l’annexe 3.A en ce qui
concerne la correction des facteurs indiqués ci‑dessus.
On présume en général que le vide est parfait ou qu’il n’y a qu’une quantité négligeable de gaz
au‑dessus de la colonne de mercure lorsque l’instrument est étalonné. Tout changement de cette
condition causera une erreur dans les lectures de la pression. Une façon rudimentaire de déceler
la présence de gaz dans le tube du baromètre consiste à incliner le tube en écoutant si un «clic»
se produit quand le mercure atteint le sommet ou à regarder si l’extrémité fermée ne renferme
pas une bulle d’air. Le diamètre de celle‑ci ne devrait pas excéder 1,5 mm lorsque le baromètre
est incliné. La présence de vapeur d’eau ne peut pas être décelée de cette façon, car la vapeur
se condense quand le volume d’espace diminue. Selon la loi de Boyle, l’erreur provoquée par
la présence d’air et de vapeur d’eau non saturante dans l’espace situé au‑dessus du mercure est
inversement proportionnelle au volume de cet espace. Le seul moyen satisfaisant de remédier à
cette erreur est d’effectuer un nouvel étalonnage sur toute l’étendue de l’échelle; si l’erreur est
grande, le tube du baromètre devrait être rempli de nouveau ou remplacé.
La hauteur du ménisque et, par conséquent, la dépression capillaire1 peuvent varier, pour
un tube donné, avec la tendance barométrique, l’âge du récipient de verre, la pollution du
mercure et la position de celui‑ci dans le tube. Dans la mesure du possible, la hauteur moyenne
du ménisque devrait être observée pendant l’étalonnage initial et notée sur le certificat du
baromètre. Cependant, aucune correction ne devrait être faite pour des écarts par rapport à la
hauteur initiale du ménisque; l’information ne devrait être utilisée que comme une indication
de la nécessité ou de l’inutilité d’une révision ou d’un nouvel étalonnage du baromètre. Une
variation de 1 mm dans la hauteur du ménisque (de 1,8 à 0,8 mm), pour un tube de 8 mm, peut
causer une erreur d’environ 0,5 hPa dans les lectures de pression.
1
On désigne par ce terme l’abaissement du ménisque d’un liquide placé dans un tube lorsque ce liquide (tel le
mercure) ne mouille pas les parois du récipient. Le ménisque est convexe, orienté vers le haut.
102 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il faut savoir également qu’une grande variation de l’angle de contact entre le mercure et la paroi
de la cuvette d’un baromètre à cuvette fixe peut causer des erreurs, petites mais appréciables,
dans les pressions observées.
Si la base d’un baromètre symétrique de longueur normale (environ 90 cm), suspendu librement,
est décalée de 6 mm environ par rapport à la position verticale, la pression indiquée sera trop
élevée d’à peu près 0,02 hPa. De tels baromètres sont en général suspendus plus verticalement
que cela.
Cependant, quand il s’agit d’un baromètre asymétrique, cette cause d’erreur est plus importante.
Si, par exemple, la pointe de référence dans la cuvette est à environ 12 mm de l’axe, il suffit que la
cuvette soit décalée d’environ 1 mm par rapport à la verticale pour causer une erreur de 0,02 hPa.
L’erreur type d’une seule lecture de baromètre corrigée, dans une station météorologique
ordinaire, devrait être inférieure à 0,1 hPa. Cette erreur sera principalement le résultat de
l’incertitude inévitable quant à l’erreur instrumentale, de l’incertitude quant à la température de
l’instrument et de l’erreur provoquée par l’effet de pistonnage des rafales de vent sur la surface
du mercure.
Le mercure est utilisé en assez grande quantité dans les baromètres; il s’agit d’un produit nocif
qui exige de prendre certaines précautions quand on le manipule. Aux températures et pressions
ordinaires à la surface terrestre, le mercure élémentaire est un liquide qui dégage, à l’air libre,
des vapeurs. Il est absorbé par voie transcutanée à l’état gazeux et liquide et par voie pulmonaire
sous forme de vapeur. Ses propriétés sont décrites par Sax (1975). Dans de nombreux pays,
les précautions qui s’appliquent à l’utilisation du mercure sont prescrites par les règlements
visant la manutention des matières dangereuses. La Convention de Minamata sur le mercure
du Programme des Nations Unies pour l’environnement (PNUE) est entrée en vigueur en
octobre 2013 et aura une incidence marquée sur l’utilisation du mercure aux fins d’applications
météorologiques.
En ce qui a trait aux baromètres, c’est dans les laboratoires où l’on vide ou remplit fréquemment
les instruments que les risques sont les plus importants. Il peut aussi survenir des problèmes
dans une station météorologique lorsque, par exemple, un baromètre s’est brisé et qu’on laisse le
mercure se transformer en vapeur dans un lieu clos où travaillent des personnes.
Un danger existe même si le mercure demeure dans un récipient hermétiquement fermé et si l’on
procède à un nettoyage en cas d’accident. Il y a lieu de tenir compte des points ci‑après lorsqu’on
travaille avec du mercure:
a) Le mercure doit être contenu dans des récipients scellés qui ne risquent pas de fuir ou de se
briser et qui sont inspectés régulièrement;
b) Dans les pièces où l’on entrepose ou emploie de grandes quantités de mercure, le sol
devrait être recouvert d’un revêtement, en polychlorure de vinyle (PVC) par exemple,
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 103
offrant une bonne étanchéité et ne présentant aucune fissure. En effet, des gouttelettes
de mercure pourraient se loger dans de petits interstices, entre des carreaux de sol par
exemple. Il est en outre préférable que le revêtement remonte d’une dizaine de centimètres
le long des murs afin qu’il n’y ait pas de joint au niveau des plinthes;
c) Il ne faut pas entreposer le mercure dans des récipients métalliques, puisqu’il entre en
réaction avec la plupart des métaux, à l’exception du fer, pour former un amalgame
potentiellement nocif. De même, il faudrait éviter tout contact entre le mercure et quelque
objet métallique que ce soit;
d) Il ne faut pas entreposer le mercure près d’autres substances chimiques, en particulier les
amines, l’ammoniac et l’acétylène;
f) Il ne faudrait jamais entreposer le mercure près d’une source de chaleur, quelle qu’elle soit,
car son point d’ébullition est assez bas (357 °C). En cas d’incendie notamment, le mercure
peut dégager des concentrations dangereuses de vapeurs toxiques;
a) Baromètres;
b) Hygromètres;
c) Manomètres;
d) Thermomètres;
e) Sphygmomanomètres.
Ramassage par aspiration: L’appareil utilisé comprend un tube en plastique de petit diamètre
servant à aspirer le mercure dans un vase de décantation en verre contenant environ 3 cm d’eau,
l’orifice du tube étant situé sous la surface de l’eau. Dans ce vase, plus précisément dans l’air qu’il
contient, aboutit l’extrémité d’une tubulure en plastique de diamètre plus important, qui est
reliée à un aspirateur ou à une pompe à vide. L’eau présente dans le vase empêche les vapeurs ou
les gouttelettes de mercure d’atteindre l’aspirateur ou la pompe. Une fois le nettoyage terminé,
la suspension épaisse (boue) est placée dans un récipient en plastique soigneusement identifié,
pour la mise au rebut.
Matériau adsorbant: Il est possible d’utiliser divers composés pour assurer l’adsorption ou
l’amalgamation du mercure, notamment de la poussière de zinc, de la fleur de soufre ou
du charbon actif. Le matériel nécessaire est vendu dans le commerce. Il suffit de répandre
l’adsorbant en poudre sur le mercure, de laisser l’adsorption ou l’amalgamation se produire, puis
de balayer la poudre et de la placer dans un récipient en plastique soigneusement identifié, pour
la mise au rebut.
Le mercure ainsi recueilli peut être soit mis au rebut, soit récupéré. Il est possible de se procurer,
auprès des autorités compétentes ou du fabricant, les consignes à suivre pour se débarrasser du
mercure. Le fabricant peut aussi indiquer comment récupérer et purifier le mercure.
3.2.7.2 Incendie
Le mercure ne brûle pas, mais dégage de grandes quantités de vapeurs denses et toxiques. À
la suite d’un incendie, les vapeurs se condensent sur les surfaces froides les plus proches. Elles
peuvent contaminer ainsi une zone assez vaste et être adsorbées sur des surfaces nues, telles que
le bois de charpente carbonisé. En cas d’incendie, il faut évacuer les lieux et se placer au vent du
sinistre. Il faut également signaler aux pompiers l’emplacement et la quantité du mercure.
3.2.7.3 Transport
Le transport par voie aérienne du mercure ou d’instruments contenant du mercure fait l’objet
d’une réglementation établie par l’Association du transport aérien international (IATA). Les
compagnies aériennes indiquent, sur demande, les conditions à respecter pour ce transport.
Le transport par voie ferrée ou par route est régi d’ordinaire par la réglementation des matières
dangereuses propre à chaque pays.
La plupart des baromètres de conception récente utilisent des transducteurs qui transforment les
variations d’un capteur de pression en un signal électrique. Il peut s’agir d’un signal analogique,
tel que la tension (en courant continu ou en courant alternatif, la fréquence étant fonction de la
pression), ou d’un signal numérique, tel que la fréquence de répétition des impulsions ou encore
découlant de protocoles de communication de données normalisés (RS232, RS422, RS485 ou
IEEE488, par exemple). Divers types d’appareils de mesure électroniques permettent d’afficher
les signaux analogiques. Les systèmes de contrôle et d’acquisition de données, tels ceux qui
équipent les stations météorologiques automatiques, sont fréquemment employés pour afficher
les signaux de sortie numériques ou les signaux analogiques numérisés.
La technologie appliquée actuellement aux baromètres électroniques fait appel à divers degrés
de redondance pour améliorer la constance à long terme des mesures et leur exactitude. L’une
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 105
des techniques employées consiste en trois capteurs fonctionnant de façon indépendante sous
le contrôle d’un microprocesseur central. Il est possible d’améliorer encore plus la constance et
la fiabilité en utilisant trois baromètres entièrement indépendants, comprenant trois ensembles
de transducteurs de pression et de microprocesseurs. Chaque configuration inclut une
compensation thermique automatique opérant à partir de capteurs de la température installés
à l’intérieur de l’instrument. Une triple redondance garantit une excellente constance à long
terme ainsi qu’une excellente exactitude des mesures, y compris pour les applications les plus
exigeantes. Par ces techniques, les performances de chacun des capteurs sont contrôlées en
permanence.
c) Considérer que certains types de baromètres numériques peuvent être utilisés comme
étalons voyageurs, étant donné leur facilité de transport et leur constance à court terme;
d) Considérer que la sélection d’un type particulier de baromètre numérique devrait être
fonction non seulement des spécifications de l’instrument, mais également des conditions
environnementales et des moyens d’entretien.
a) Améliorer les baromètres numériques pour les rendre moins tributaires de la température et
plus stables à long terme;
c) Veiller à ce qu’un baromètre numérique puisse fonctionner sur une large gamme de
tensions continues (par exemple, de 5 à 28 V).
Tous les éléments sensibles sont placés dans un boîtier moulé sous pression. Ce boîtier est
conservé à température constante à l’aide d’un réchauffeur à commande électronique. Il faut y
éviter toute condensation. Une bonne technique pour y parvenir consiste à insérer dans le boîtier
un agent hygroscopique, tel que des cristaux de gel de silice, et d’empêcher la vapeur d’eau de
106 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
s’y introduire en raccordant un long tube de plastique (d’environ 25 m), d’un diamètre intérieur
inférieur ou égal à 2 mm, entre la prise de pression et une prise de pression statique (voir la
section 3.8.1).
Le boîtier du capteur de pression doit être étanche et comporter une prise de pression extérieure.
Les baromètres numériques piézorésistifs utilisent des éléments découpés dans un cristal
de quartz auxquels sont appliquées des forces axiales. Ces éléments représentent un type
de transducteurs de la pression absolue. Le cristal de quartz est choisi pour ses propriétés
piézoélectriques, ses caractéristiques d’oscillateur à fréquence constante, fréquence qu’il
est possible de reproduire avec précision, et la faible influence de la température sur ces
caractéristiques. La pression qui s’exerce par une prise extérieure soumet, par l’intermédiaire
d’une capsule souple, l’élément en cristal de quartz à une force axiale ascendante et donc à
une compression. Le cristal constituant une membrane rigide, c’est l’ensemble de la structure
mécanique qui subit ainsi d’infimes déformations, ce qui élimine virtuellement l’hystérésis
mécanique.
Le pont de Wheatstone actif dont il a été question plus haut peut être composé de jauges de
contraintes semi‑conductrices ou de jauges piézorésistives. Les jauges de contraintes sont
soit collées sur un fin diaphragme circulaire dont la circonférence est fixe, soit insérées dans la
configuration du diaphragme de silicium par diffusion moléculaire. Dans ce dernier cas, la puce
de silicium comprenant le circuit intégré constitue le diaphragme. La pression est répartie sur
le diaphragme qui subit une tension, les contraintes résultantes étant perçues par les jauges de
contrainte. Les contraintes, proportionnelles à la pression, entraînent une rupture d’équilibre
au pont de Wheatstone, le signal de sortie du pont étant proportionnel à la différence nette de
pression que subit le diaphragme.
Le pont de Wheatstone, auquel est appliqué un courant continu, produit un signal de sortie qui
est converti en signal standard par un amplificateur. La valeur de la pression mesurée apparaît
généralement sur un dispositif d’affichage à diodes électroluminescentes ou à cristaux liquides.
Dans les baromètres à résonateur cylindrique, un cylindre en alliage de nickel à paroi mince sert
de capteur. Soumis à un champ électromagnétique, le cylindre est maintenu en mouvement
vibratoire radial. La pression produit une variation de la fréquence de résonance propre au
système mécanique vibratoire. Le mouvement de la paroi du cylindre est détecté par une bobine
exploratrice dont le signal est amplifié puis renvoyé à une bobine d’excitation. La pression
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 107
atmosphérique à mesurer est admise à l’intérieur du cylindre, alors que le vide servant de
référence est maintenu à l’extérieur de celui‑ci. La fréquence de résonance varie ainsi précisément
en fonction de la tension à laquelle la paroi du cylindre est soumise en raison de la différence de
pression. Quand la pression augmente, il en est de même pour la fréquence.
La rigidité et la masse du cylindre à paroi mince couvrent une gamme de mesure suffisante pour
les conditions d’utilisation du baromètre. Le cylindre, monté sur un support solide, est placé
dans une enceinte à vide. Pour mesurer la pression atmosphérique, l’ouverture du cylindre est
reliée à l’air libre. Compte tenu de la relation à caractère unique qui existe entre la fréquence de
résonance propre au cylindre et la pression, il est possible de calculer la pression atmosphérique
à partir de la fréquence de résonance mesurée. Toutefois, cette relation, établie lors de
l’étalonnage de l’appareil, est fonction de la température et de la densité du gaz. Il faut donc
procéder à une compensation pour la température, et l’air devrait être asséché avant de parvenir
à l’ouverture.
Aux transducteurs primaires, il est possible d’adapter des circuits capables d’apporter au signal
primaire les corrections des erreurs de linéarité du capteur et des effets de la température, et
capables aussi de convertir le signal primaire en unités du système recommandé. Le modèle type
du baromètre moderne comprend un capteur, un microprocesseur (avec un afficheur) et une
interface pour coupler l’appareil à un enregistreur de données ou à une station météorologique
automatique.
Il s’agit là de l’une des sources principales d’erreur pour les baromètres électroniques. Cette
dérive, relativement élevée quand l’instrument est neuf, a souvent tendance à s’estomper avec le
temps. Il peut arriver que l’instrument s’écarte brusquement du réglage obtenu par étalonnage.
3.3.5.2 Température
Les baromètres électroniques doivent être conservés à température constante pour éviter
une dérive. Il est en outre préférable que, dans les conditions d’exploitation, la température
soit proche de la température d’étalonnage. Il est cependant à déplorer que beaucoup de
baromètres électroniques disponibles dans le commerce ne comportent pas de système de
compensation pour la température et soient donc sujets à des erreurs importantes. Dans la
plupart des cas, l’instrument mesure avec exactitude la température du capteur de pression et
opère une correction électronique de la valeur de la pression. Selon cette méthode, le capteur du
baromètre ne doit pas être affecté par un gradient thermique. Quand la température varie assez
rapidement, il peut se produire des erreurs d’hystérésis en un court laps de temps.
Il existe un rapport étroit entre la dérive de l’instrument et les températures auxquelles celui‑ci
a été soumis au cours de son fonctionnement. Quand le baromètre est exposé longtemps à des
températures différentes de celle pour laquelle il est étalonné, il peut s’ensuivre des dérives à
moyen ou long terme.
L’électronique du baromètre est également source d’erreurs si elle n’est pas maintenue à la
même température que le capteur. On utilise très souvent les baromètres électroniques dans des
conditions climatiques extrêmes, en particulier dans les stations météorologiques automatiques.
Dans de tels cas, les baromètres risquent d’être exposés à des températures pour lesquelles ils
n’ont été ni conçus ni étalonnés.
Comme c’est le cas pour tous les appareils de mesure électroniques sensibles, il convient de
protéger les baromètres électroniques par un blindage et de les tenir éloignés des sources de
champs magnétiques importants, telles que les transformateurs, les ordinateurs, les radars, etc.
Bien que les problèmes ne soient pas fréquents, il peut survenir une augmentation du bruit qui
cause une diminution de l’exactitude de l’instrument.
Le baromètre anéroïde a sur le baromètre à mercure le grand avantage d’être portatif et peu
encombrant, ce qui le rend particulièrement pratique pour l’emploi en mer ou sur le terrain. Les
parties essentielles d’un baromètre anéroïde sont une chambre métallique fermée, à l’intérieur
de laquelle on a fait un vide complet ou partiel, et un robuste système de ressorts qui empêche
la chambre de s’affaisser sous la pression atmosphérique extérieure. À toute pression donnée, il y
aura un équilibre entre la force exercée par le ressort et la force exercée par la pression extérieure.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 109
La chambre anéroïde peut être faite d’un matériau (acier ou cuivre au béryllium) qui a des
propriétés d’élasticité telles que la chambre fait elle‑même office de ressort.
Il faut pouvoir déceler et afficher les changements de déflexion qui surviennent. Le moyen utilisé
peut être un système de leviers qui amplifie la déflexion et déplace une aiguille sur une échelle
graduée pour indiquer la pression. On peut aussi faire dévier un rayon de lumière sur l’échelle.
Au lieu de ces systèmes mécaniques analogiques, certains baromètres possèdent un micromètre
manuel dont le compteur indique la pression directement en dixièmes d’hectopascal. Pour
faciliter la lecture, un indicateur lumineux signale quand le micromètre entre en contact avec la
chambre anéroïde. Ce type de baromètre anéroïde est portatif et résistant.
Les principales caractéristiques d’un bon baromètre anéroïde sont les suivantes:
a) Il devrait être compensé pour la température de façon que les lectures ne varient pas de
plus de 0,3 hPa pour un changement de température de 30 K;
b) Les erreurs d’échelle à un point quelconque ne devraient pas excéder 0,3 hPa et devraient
rester dans les limites de cette tolérance pour des périodes d’au moins un an dans des
conditions normales d’emploi;
c) L’hystérésis devrait être assez faible pour que la différence entre les lectures effectuées avant
un changement de pression de 50 hPa et après le retour à la valeur initiale n’excède pas
0,3 hPa;
d) Il devrait être capable de supporter les risques ordinaires de transport sans que celui‑ci
cause des inexactitudes en dehors des limites spécifiées ci‑dessus.
Le baromètre anéroïde devrait toujours être lu dans la même position (verticale ou horizontale)
qu’au moment de son étalonnage. On devrait le tapoter avant la lecture et, autant que possible,
le lire au plus proche 0,1 hPa. Il existe des dispositifs optiques et numériques qui permettent
d’augmenter la justesse de la lecture et de réduire les erreurs causées par le fonctionnement des
leviers mécaniques.
En général, le baromètre anéroïde devrait être réglé de façon à indiquer la pression à l’altitude
de l’instrument. Cependant, à bord de navires ou dans les stations terrestres situées à basse
altitude, l’instrument peut être réglé de façon à indiquer la pression au niveau moyen de la mer,
pourvu que la différence entre la pression à la station et la pression au niveau de la mer puisse
être considérée comme constante. Les erreurs instrumentales devraient être corrigées, mais on
estime habituellement que l’instrument est suffisamment compensé pour la température et il n’a
pas besoin d’être corrigé pour l’accélération de la pesanteur.
110 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Dans la plupart des baromètres anéroïdes ordinaires, la compensation obtenue par ces méthodes
n’est complète qu’à une pression particulière de compensation. Il est préférable que tous les
baromètres et les barographes anéroïdes utilisés dans les stations météorologiques soient bien
compensés pour la température sur toute l’échelle des pressions. Dans les systèmes numériques
de lecture qui se prêtent à l’automatisation, des corrections complètes sont réalisées par
l’électronique.
Si un baromètre anéroïde est soumis à une variation rapide et ample de la pression suivie
d’un retour plus progressif à la valeur initiale, par exemple au cours d’une forte rafale de vent,
l’instrument indiquera une pression légèrement différente de la pression vraie, en raison de
l’hystérésis; il peut s’écouler un laps de temps considérable avant que cette différence devienne
négligeable. Comme les baromètres et barographes anéroïdes de surface ne sont pas, en
général, exposés directement à de grandes variations de pression, les erreurs qu’ils commettent
de ce fait restent modérées.
Les modifications lentes des propriétés du métal de la capsule anéroïde génèrent également une
erreur séculaire. Cet effet ne peut être évalué que par le biais de comparaisons périodiques, tous
les ans par exemple, avec un baromètre étalon. Un bon baromètre anéroïde devrait conserver
une exactitude de 0,1 hPa durant un an ou plus. Il convient, afin de déceler les instruments qui
viendraient à accuser des écarts plus grands, d’instaurer une procédure de vérification régulière
comprenant un étalonnage et les ajustements nécessaires.
3.5 BAROGRAPHES
Il existe différents types de barographes, mais nous ne traiterons ici en détail que du barographe
anéroïde. S’agissant des diagrammes des instruments utilisés à des fins synoptiques, il est
recommandé:
b) Il devrait être compensé pour la température de façon que la lecture ne varie pas de plus de
1 hPa pour un changement de température de 20 K;
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 111
d) L’hystérésis devrait être assez faible pour que la différence entre les lectures effectuées avant
un changement de pression de 50 hPa et après le retour à la valeur initiale n’excède pas
1 hPa;
e) Il devrait y avoir un dispositif pour marquer le temps qui permette de faire les marques sans
soulever le couvercle;
f) Le style porte‑plume devrait pivoter sur une «charnière» dont l’axe soit incliné de telle façon
que la plume repose sur le diagramme par l’effet de la pesanteur. Un moyen d’ajustement
devrait être prévu pour régler la position de la plume.
Les barographes de marine doivent présenter certaines caractéristiques spéciales qui sont
examinées dans le chapitre 4 de la partie II du présent guide.
Pour vérifier l’effet que peut avoir la friction sur le relevé détaillé de la pression, on peut
considérer la force qu’il faut appliquer au style pour le déplacer d’une unité de l’échelle (1 hPa), à
laquelle devrait être égale la force qu’il faudrait appliquer pour empêcher le style de se déplacer
quand la pression varie de 1 hPa.
En plus des erreurs mentionnées pour les baromètres anéroïdes (voir la section 3.4.4), la friction
entre la plume et le papier est importante. L’asservissement de la plume dépend pour une grande
part de la section transversale de la capsule anéroïde. Dans un barographe bien construit,
la friction de la plume est sensiblement plus forte que la friction totale de tous les pivots et
coussinets de l’instrument; une attention spéciale devrait donc être portée à la réduction de
telles erreurs, par exemple en ayant une capsule anéroïde suffisamment grande.
Un barographe de première qualité devrait présenter une incertitude d’environ 0,2 hPa,
corrections faites, et la conserver durant un mois ou deux. La variation barométrique lue sur un
tel barographe devrait habituellement être obtenue dans les mêmes limites.
Il faut pouvoir lire le barographe sans le toucher. Le marquage du temps et toute inspection de
l’instrument amenant à soulever le couvercle, entre autres, devraient toujours se faire après que
la lecture est terminée.
La correction de température de tout instrument devrait être vérifiée avant que l’instrument ne
soit utilisé, et le facteur d’échelle devrait être ajusté par contrôle dans une cloche à vide. Si le
barographe n’est utilisé que pour déterminer la variation barométrique, aucune correction n’est
généralement appliquée aux lectures. Dans ce cas, un réglage exact de la position de la plume
n’est pas important. Lorsque le barographe sert à obtenir des valeurs absolues de la pression, le
relevé devrait être comparé avec les lectures corrigées d’un baromètre à mercure ou d’un bon
baromètre anéroïde au moins une fois toutes les 24 h, et les valeurs désirées déterminées par
interpolation.
Le baromètre à tube de Bourdon contient habituellement un capteur dont la forme varie selon les
changements de pression, comme dans le cas d’une capsule anéroïde, ainsi qu’un transducteur
qui transforme les variations de forme pour les rendre directement utilisables par l’observateur.
Le dispositif d’affichage des résultats peut être éloigné du capteur. Les laboratoires d’étalonnage
utilisent des baromètres numériques précis et stables, renfermant des tubes de quartz, comme
étalons de travail ou de référence.
Les stations effectuant des observations au moins toutes les 3 h ont le choix entre deux
méthodes:
b) La variation peut être déterminée d’après les lectures appropriées du baromètre, corrigées
au niveau de la station. Si l’on dispose d’un baromètre à mercure ordinaire et d’un
barographe de première qualité à grande échelle, ce dernier devrait être choisi pour les
raisons exposées ci‑dessous.
L’erreur d’une seule lecture barométrique est essentiellement aléatoire, à condition que
l’instrument soit en parfait état de fonctionnement. Par conséquent, les erreurs peuvent
s’additionner quand on soustrait deux lectures l’une de l’autre afin d’obtenir la valeur de la
variation. Les erreurs du barographe sont en partie de nature systématique, de sorte que,
pendant la période relativement courte de 3 h, elles auront probablement le même signe et
seront donc réduites par la soustraction.
Une autre raison d’utiliser le barographe est qu’il n’est pas nécessaire de corriger les lectures
au niveau de la station. Il est, dans tous les cas, obligatoire de l’employer pour déterminer la
caractéristique de la variation barométrique.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 113
Les baromètres à affichage numérique se révèlent également très utiles pour déterminer
l’amplitude et la caractéristique des variations de pression.
Tous les types de baromètre sont sensibles aux effets du vent. On trouvera de plus amples
renseignements à ce sujet dans Liu et Darkow (1989).
Un baromètre ne donnera pas d’indication correcte de la pression statique s’il est soumis à des
rafales de vent. Ses indications varieront avec la vitesse et la direction du vent, et avec la grandeur
et le signe des variations, dépendant également de la nature des ouvertures de la salle et de
leur position par rapport à la direction du vent. En mer, l’erreur existe toujours en raison du
mouvement du navire. Un problème analogue se présente si le baromètre est installé dans un
local climatisé.
Le vent peut souvent causer des variations dynamiques de la pression dans la pièce où est placé
le baromètre. Ces fluctuations se superposent à la pression statique; par vent fort soufflant en
rafales, elles peuvent atteindre 2 à 3 hPa. Il est en général impossible d’effectuer la correction
pour de telles fluctuations, l’effet de «pistonnage» sur la surface du mercure dépendant à la fois
de la direction et de la force du vent ainsi que des conditions locales dans lesquelles est placé le
baromètre, si bien que la «valeur moyenne» ne représente même pas la pression statique vraie.
Lorsque l’on compare deux baromètres installés dans des bâtiments distincts, il convient de se
rappeler que l’effet du vent peut provoquer une différence entre les lectures.
Il est possible, dans une très grande mesure, de réduire cet effet en plaçant une prise de pression
statique entre l’atmosphère extérieure et la prise du capteur. Plusieurs publications exposent
en détail les principes de fonctionnement des prises de pression statique (Miksad, 1976; United
States Weather Bureau, 1963). Dans le cas d’un baromètre à mercure, il s’agit de rendre la cuvette
étanche à l’air, à l’exception d’un conduit relié à une prise d’air spéciale placée à l’extérieur et
réalisée de manière à assurer une pression interne égale à la véritable pression statique. En
général, les baromètres anéroïdes et électroniques sont équipés d’un branchement simple pour
une prise de pression statique, laquelle devrait être placée dans un milieu ouvert, où elle ne sera
pas affectée par la proximité de bâtiments. Sa conception demande beaucoup d’attention. Des
prises de pression statique sont vendues dans le commerce, mais aucun texte n’a été publié sur
leur performance relative.
Aux conditions générales d’exposition du baromètre à mercure déjà décrites viennent s’ajouter
les points exposés ci‑après. Il est toujours préférable de suspendre un baromètre à mercure
contre un mur intérieur. Pour des mesures très précises, la meilleure installation consisterait
en une pièce de sous‑sol sans fenêtre et non chauffée, équipée d’un petit ventilateur afin
d’empêcher toute stratification de la température.
Il est conseillé d’utiliser la lumière artificielle pour toutes les observations, afin d’obtenir des
conditions d’éclairage uniformes pour la lecture du baromètre. À cette fin, on peut prévoir un
dispositif quelconque d’éclairage pouvant créer, pour le ménisque du mercure et, au besoin,
pour la pointe de référence, un arrière‑plan blanc et faiblement lumineux. Si l’on n’emploie
pas de dispositif d’éclairage, il faudrait veiller à munir le ménisque et la pointe de référence
d’un arrière‑plan clair au moyen de plaques de verre laiteux, de celluloïd blanc ou d’une feuille
de papier blanc. Une source de lumière artificielle devrait aussi être prévue pour la lecture de
l’échelle du baromètre et de son thermomètre. Il faudrait toutefois prendre garde de ne pas
réchauffer le baromètre par la lumière artificielle pendant la lecture.
Afin de protéger le baromètre des manipulations brusques, de la poussière et des courants d’air,
il est recommandé de le placer dans une boîte munie d’une porte à charnières et suffisamment
ventilée pour que l’air ne s’y stratifie pas.
Il y a lieu d’installer les baromètres à affichage numérique dans un endroit suffisamment éclairé,
mais pas face à une fenêtre ou à une autre source lumineuse trop forte.
Les conditions d’exposition des baromètres à mercure (voir la section 3.9.1) s’appliquent
aussi aux baromètres anéroïdes, compte tenu de la compensation imparfaite des effets de
la température propre à ces instruments. Il est préférable de monter le baromètre dans un
emplacement où la température demeure relativement uniforme tout au long de la journée,
c’est‑à‑dire qu’il doit être protégé des rayons directs du soleil et des sources de chaleur ou de
froid pouvant entraîner des variations brusques et marquées de sa température.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 115
Dans les stations terrestres, il est bon d’installer le baromètre anéroïde près d’un baromètre à
mercure afin de faciliter la comparaison et l’étalonnage (voir la section 3.10).
Un barographe devrait être installé de façon à être protégé des changements brusques de
température, des vibrations et de la poussière. Il ne devrait pas être exposé directement à la
lumière solaire. Il devrait se trouver à un emplacement difficilement accessible à des personnes
non autorisées. Placer le barographe sur un coussin en caoutchouc mousse est un moyen
pratique de réduire les effets des vibrations. L’endroit choisi devrait être propre et sec; l’air
devrait être relativement exempt de substances risquant d’entraîner la corrosion, le blocage du
mécanisme ou d’autres problèmes.
Il importe d’installer le barographe à hauteur des yeux, afin de faciliter la lecture dans les
conditions normales de fonctionnement et de réduire l’erreur de parallaxe. L’exposition devrait
être telle qu’elle offre des conditions d’éclairage uniformes, un éclairage artificiel étant prévu au
besoin.
Si un barographe doit être transporté à haute altitude, par voie aérienne notamment, il convient
de débrancher le style et de prendre des précautions pour que le mécanisme soit capable de
supporter la surcharge causée par le dépassement de la portée normale de l’instrument.
Étant donné l’importance que revêt l’exactitude des observations de la pression, spécialement
de celles qui sont destinées à la météorologie synoptique et à l’aéronautique, et compte tenu
des diverses possibilités d’erreurs auxquelles sont sujets les baromètres, tous les baromètres de
station devraient être vérifiés régulièrement par un inspecteur. Quelques directives sont données
dans les sections suivantes sur l’équipement à utiliser pour les vérifications, sur la fréquence des
vérifications ainsi que sur diverses questions connexes. Lorsque des baromètres anéroïdes de
précision sont utilisés comme baromètres de station, il y a lieu de les vérifier fréquemment (au
moins une fois par semaine) par comparaison avec un baromètre à mercure ou numérique. Il
faudrait consigner les résultats de toutes ces vérifications sur un support approprié ou dans un
registre spécial.
Toutefois, on peut se dispenser d’utiliser un baromètre à mercure si l’on fait une comparaison
quotidienne tant avec les lectures d’un second baromètre anéroïde installé à la station qu’avec
l’analyse des pressions relevées dans les environs de la station. Cette démarche devrait être
appuyée par des contrôles semestriels à l’aide d’un étalon voyageur.
A: Baromètre étalon, primaire ou secondaire, capable à lui seul d’indiquer la pression avec une
incertitude de 0,05 hPa ou moins;
C: Baromètre étalon de référence utilisé pour les comparaisons des étalons voyageurs et des
baromètres des stations principales d’un Service météorologique national;
Afin que les programmes de comparaison de baromètres conduits par tous les Services
météorologiques nationaux aient la même base de référence, il est souhaitable d’observer
des règles uniformes en ce qui concerne la qualité des équipements utilisés, la fréquence des
comparaisons, les procédures à suivre, les tolérances dans la correction du zéro et les critères
déterminant les mesures correctives à prendre.
Les opinions varient quant au meilleur type de baromètre à utiliser comme étalon primaire
(OMM, 2010c). Deux types sont présentés dans les paragraphes suivants.
Il est possible d’utiliser un appareil d’essai à contrepoids qui fournit une pression étalonnée
en fonction des masses utilisées et du champ gravitationnel local. Son emploi est relativement
simple, et l’appareil est exempt du problème de dérive excessive qui afflige les baromètres à
mercure dans un milieu pollué.
Il peut s’agir aussi d’un baromètre à mercure de grande qualité spécialement construit dans
ce but. Un tel baromètre doit contenir du mercure de grande pureté et de masse volumique
connue, maintenu sous vide poussé et à une température constante, dans un milieu préservé de
la pollution. Il doit être doté d’une échelle étalonnée et d’un mécanisme optique de lecture. Ce
type de baromètre mesure la pression absolue avec une grande exactitude, tandis que l’appareil
à contrepoids fournit une pression étalonnée.
Compte tenu du coût de ces étalons primaires et des contraintes liées à leur usage et à leur
entretien, ces baromètres sont le plus souvent utilisés dans des laboratoires d’étalonnage de haut
niveau.
Les étalons de travail et de référence, ainsi que les étalons voyageurs utilisés pour comparer les
baromètres, devraient avoir une grande constance pendant de longues périodes. Il peut s’agir
soit de baromètres à mercure, soit de baromètres électroniques. Dans le cas des baromètres
à mercure, le diamètre intérieur du tube devrait être de 12 mm au moins. Il est également
souhaitable que le vide puisse être contrôlé dans le tube. Enfin, toutes les erreurs ayant été
décelées à la suite d’au moins deux comparaisons récentes de ces instruments avec des
baromètres d’une catégorie supérieure devraient être entièrement et soigneusement corrigées.
Un étalon voyageur est jugé sûr si la correction de son zéro ne varie pas de plus de 0,1 hPa
pendant son transport. Il devrait être étalonné avant et après chaque déplacement, par
comparaison à un baromètre étalon de travail ou de référence. Une fois étalonné avant un
déplacement, il ne devrait en aucun cas être ouvert ou réglé tant qu’il n’a pas fait l’objet
d’une comparaison à son retour à la station de départ. Les baromètres étalons voyageurs sont
transportés dans un étui protecteur solide et bien rembourré.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 117
Compte tenu des restrictions concernant le transport du mercure et de l’essor des baromètres
numériques, les Services météorologiques nationaux peuvent utiliser un baromètre numérique
de haute précision adéquat comme baromètre étalon voyageur. En ce cas, il leur faudrait
contrôler régulièrement la dérive de ces instruments en procédant à des comparaisons
périodiques avec des étalons de travail ou de référence.
Si un baromètre à mercure qui sert d’étalon voyageur est utilisé avant un déplacement, il est
recommandé de l’examiner soigneusement, afin de s’assurer de la propreté du mercure contenu
dans le tube et dans la cuvette, de l’absence de bulles d’air dans le tube et d’un bon maintien du
vide dans la chambre barométrique au‑dessus du mercure. La manipulation, l’emballage et le
transport des étalons voyageurs nécessitent beaucoup de soins pour éviter autant que possible
toute variation, aussi faible soit‑elle, de la correction du zéro. Il faudrait éviter les mouvements
brusques et saccadés qui peuvent entraîner la formation, dans la cuvette, de bulles d’air qui
s’élèvent ensuite dans le tube. Les baromètres à mercure servant d’étalons voyageurs devraient
être transportés dans un étui en cuir ou en métal bien rembourré, en maintenant la cuvette
toujours plus haut que le tube.
Pour qu’un baromètre à mercure soit utilisé comme baromètre de la catégorie P, il doit être
construit de telle sorte que le vide de la chambre barométrique puisse être vérifié ou obtenu
en reliant le sommet du tube à une pompe à vide. Il est essentiel que la chambre barométrique
soit fermée de manière hermétique par une valve de contrôle. Le diamètre intérieur du tube
ne devrait pas être inférieur à 12 mm. L’instrument devrait être caractérisé par une grande
constance pendant de longues périodes. Il est souhaitable, en outre, qu’il comporte un dispositif
permettant de déterminer si la quantité de mercure contenue dans la cuvette n’a pas varié depuis
le moment où celle‑ci a été remplie pour la première fois.
Les comparaisons internationales de baromètres revêtent une grande importance car, sans
elles, il serait impossible de garantir l’uniformité des normes nationales auxquelles doivent
répondre les instruments de mesure de la pression et, par conséquent, l’homogénéité
118 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
a) La comparaison, au moins une fois tous les deux ans, de l’étalon national de travail B avec
un baromètre étalon A, primaire ou secondaire. Si les étalons A et B se trouvent dans le
même centre, l’emploi d’étalons voyageurs est inutile;
b) La comparaison, au moins une fois tous les deux ans, de l’étalon de référence C avec l’étalon
national de travail B, à l’aide d’étalons voyageurs;
c) La comparaison, au moins une fois par an, du baromètre de station S avec l’étalon de
référence C à l’aide d’étalons voyageurs, ou avec l’étalon de travail B à intervalle d’un ou
deux ans, en fonction des caractéristiques des baromètres utilisés. Selon le principe adopté,
la comparaison se déroule soit à la station, soit dans un centre équipé à cet effet, l’utilisation
d’étalons voyageurs s’avérant alors inutile.
Bien entendu, l’erreur relevée pour chaque baromètre après chaque intervention dans la série
des comparaisons est déterminée par rapport au baromètre étalon A, primaire ou secondaire, de
manière que les lectures barométriques corrigées aient une base de référence absolue, quel que
soit le niveau auquel l’intervention est effectuée.
L’inspection des baromètres de station peut être faite à l’aide de baromètres Fortin ayant un
tube de 9 mm de diamètre intérieur, sans négliger les restrictions imposées quant au transport
d’instruments renfermant du mercure (voir la section 3.2.7.3). Des baromètres électroniques
peuvent aussi être utilisés comme étalons voyageurs s’ils ont la constance et l’exactitude requises.
Les instructions données dans les sections précédentes devraient, de manière générale, être
respectées. Toutes les précautions habituelles lors du réglage des baromètres et de la lecture
de la pression devraient faire l’objet d’une attention particulière. Des études ont montré
qu’en prenant les précautions nécessaires, il est normalement possible de faire des lectures
comparatives avec une exactitude moyenne de 0,05 hPa.
Les relevés comparatifs des baromètres devraient être notés sur des imprimés appropriés. Un état
permanent de tous les contrôles effectués devrait être attaché à chaque instrument et comporter,
notamment, la date de chaque vérification, la température et la pression relevées lors de chaque
comparaison, ainsi que les corrections obtenues.
Les comptes rendus des comparaisons de baromètres devraient être transmis à la direction
du Service météorologique national qui évaluera les erreurs, calculera et communiquera les
corrections nécessaires et déterminera s’il y a lieu de prendre des dispositions en vue de remédier
aux insuffisances constatées. Un état permanent des relevés comparatifs devrait être conservé
avec soin pour chaque baromètre de station, afin que les performances de l’instrument puissent
être étudiées sur plusieurs années et que ses défauts éventuels puissent être décelés. Pour le
programme de contrôle de qualité des baromètres, les relevés peuvent être établis sous forme de
tableaux ou de graphiques.
Compte tenu de leur degré actuel de perfectionnement, il importe d’étalonner les baromètres
électroniques à intervalle d’un an environ. Il est normal d’apporter un baromètre électronique
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 119
dans un centre d’étalonnage immédiatement avant de l’envoyer dans une station d’observation
météorologique. À la station, plusieurs relevés comparatifs devraient être effectués entre le
baromètre électronique et l’étalon voyageur à différentes pressions (soit sur une période de
temps appropriée, soit au moyen d’un générateur de pression). Les baromètres étant installés à
la même hauteur, ces relevés devraient avoir lieu dans les conditions suivantes: vitesse du vent
inférieure à 12 m s–1 et pression constante ou variant de moins de 1 hPa h–1. Tout baromètre
électronique devrait être considéré comme inutilisable et renvoyé au centre d’étalonnage pour
un nouvel étalonnage si la différence moyenne des relevés par rapport à l’étalon voyageur est
supérieure à 0,25 hPa.
Dans la mesure du possible, il est conseillé d’installer deux baromètres électroniques distincts à
la station d’observation météorologique. L’un d’entre eux devrait, de préférence, avoir présenté
une dérive faible pendant une longue période. Le personnel du centre d’étalonnage est chargé
de déterminer à partir des résultats des étalonnages antérieurs quels sont les baromètres à dérive
faible. Lorsqu’une station reçoit un nouveau baromètre, un ensemble de relevés comparatifs sont
exécutés, comme cela est décrit plus haut, et on établit la différence moyenne entre le baromètre
à faible dérive et le nouveau baromètre. Par la suite, la pression devrait être relevée chaque
jour sur les deux baromètres et le total cumulé de 25 différences devrait être calculé. En cas de
différence de dérive entre le nouveau baromètre et le baromètre à faible dérive, les sommes
des 25 différences varieront. Lorsqu’une station est équipée d’un baromètre à mercure et d’un
baromètre électronique, il est normal de prendre pour baromètre à dérive faible le baromètre
à mercure. Le fait que la dérive est effectivement faible devrait néanmoins être vérifié par des
contrôles réguliers.
La comparaison de baromètres est essentielle. Elle devrait être effectuée de la façon suivante:
b) Pour les besoins de l’étalonnage, les étalons voyageurs devraient être placés près du
baromètre à comparer de manière que l’exposition de tous les instruments soit la même
pendant au moins 24 h avant que les premières lectures comparatives soient effectuées.
L’égalisation des températures sera facilitée en dirigeant sur les instruments un courant d’air
produit par un ventilateur électrique. La température de la pièce devrait être maintenue
aussi uniforme que possible;
d) Les lectures comparatives devraient être faites à intervalles réguliers, d’une durée de 15 min
au moins;
e) L’expérience montre qu’il est nécessaire de procéder à cinq lectures comparatives au moins
pour étalonner les baromètres de la catégorie S des stations ordinaires et que ce nombre
s’élève à dix au moins pour les baromètres des catégories A, B et C;
f) Dans ces derniers cas, les lectures comparatives devraient être faites, si les conditions
météorologiques le permettent, sur toute une gamme de valeurs allant des pressions faibles
aux pressions élevées;
h) En cas d’emploi d’instruments de la catégorie N, les lectures devraient être faites au moins
sur deux baromètres anéroïdes de précision, corrigées sur une base commune, si ces
instruments n’ont pas le même étalonnage par rapport à un baromètre de la catégorie A
ou B. Les lectures corrigées des baromètres anéroïdes doivent être concordantes dans les
limites d’exactitude tolérées, sinon la comparaison ne pourra pas être considérée comme
valable;
i) Avant que les étalons voyageurs soient transportés à la main du lieu où se trouve le
baromètre 1 au lieu où se trouve le baromètre 2;
ii) Au retour des étalons voyageurs depuis le lieu où se trouve le baromètre 2. Les
résultats des deux comparaisons, avant le départ et après le retour, devraient être
ensuite vérifiés. Si ces résultats concordent avec les indications du baromètre 1, dans
les limites d’exactitude tolérées pour chaque instrument utilisé, on admettra que
l’exactitude des comparaisons des étalons voyageurs et du baromètre 2 est identique,
à condition que les comparaisons aient été faites en prenant les précautions d’usage.
Mais si l’on constate une divergence notable ou si l’on sait qu’à la suite d’un incident
les instruments ont pu être endommagés, ou encore si les données sont douteuses
pour quelque raison que ce soit, la comparaison est estimée non valable et le
processus doit être répété;
j) Dans la mesure du possible, toutes les divergences devraient finalement être exprimées par
rapport aux lectures faites sur un baromètre primaire ou secondaire de la catégorie A. On
obtiendra ainsi une base commune pour toutes les comparaisons. Chaque compte rendu de
comparaison devrait mentionner le type d’étalon utilisé;
Note: Lorsque le programme choisi prévoit l’élimination des erreurs résiduelles, on utilisera un système
homogène de données d’observation barométrique basées sur un étalon unique, de manière à éliminer les
erreurs dues aux instruments dans la détermination des gradients horizontaux de la pression;
k) Chaque fois que l’on nettoie le mercure d’un baromètre ou que l’on déplace un baromètre
dans un laboratoire ou une station, il est nécessaire de faire des comparaisons avec d’autres
baromètres avant et après l’opération, de manière à déceler immédiatement toute anomalie
éventuelle.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 121
Les mesures ci‑après doivent être prises lors de la planification des comparaisons interrégionales:
a) Les pays Membres de chaque Région doivent choisir un baromètre étalon primaire ou
secondaire de la catégorie A qui servira d’étalon Ar dans leur Région. Si aucun baromètre
étalon primaire ou secondaire n’est disponible dans la Région, ils choisiront un baromètre
de la catégorie B qui sera le baromètre étalon de leur Région, désigné par le symbole Br. Si
cela leur paraît plus avantageux financièrement, ils peuvent adopter plusieurs baromètres
étalons régionaux;
b) Une personne compétente transportera des étalons voyageurs depuis un centre disposant
d’un baromètre de la catégorie Ar jusqu’à une Région voisine disposant au moins d’un
baromètre de la catégorie B ou Br, puis devrait procéder à la comparaison des baromètres.
Lorsque la comparaison a lieu dans des conditions ambiantes, elle devrait s’effectuer
selon la méthode exposée à la section 3.10.3. Sinon, en présence d’un générateur de
pression, la comparaison peut s’effectuer pour plusieurs points d’étalonnage de la pression
couvrant l’ensemble de l’intervalle considéré et sur plusieurs cycles. Cela permet de
définir l’exactitude des étalons à différents niveaux de pression et de déterminer certaines
caractéristiques métrologiques telles que l’hystérésis, la répétabilité et la reproductibilité.
Il est parfois souhaitable de procéder à des vérifications et comparaisons supplémentaires
et de renouveler le processus en comparant le baromètre Br avec un baromètre de la
catégorie Ar d’une autre Région;
c) Les relevés obtenus au cours de la comparaison devraient être transmis à chaque centre
disposant d’un baromètre A ainsi qu’à la station où se trouve le baromètre B ou Br ayant
fait l’objet de la comparaison. Des résumés des résultats de la comparaison faite de cette
manière devraient être adressés à tous les Services météorologiques nationaux de la Région
où se trouve le baromètre B ou Br.
Les mesures ci‑après doivent être prises lors de la planification des comparaisons internationales:
d) Les relevés et comptes rendus résumés des comparaisons devront être établis et
communiqués aux organismes intéressés suivant la procédure indiquée à l’alinéa c) du
paragraphe 3.10.5.2.
Il est nécessaire de réduire au même niveau les observations barométriques faites à des stations
situées à des altitudes différentes, afin de pouvoir les comparer. Plusieurs méthodes sont
appliquées pour procéder à cette réduction, mais l’OMM n’a pas encore recommandé une
méthode particulière, sauf dans le cas des stations situées à faible altitude.
La méthode recommandée est décrite dans diverses notes techniques de l’OMM (1954, 1964,
1968). Les Tables météorologiques internationales (OMM, 1966) contiennent un ensemble détaillé
de formules pouvant servir au calcul de la pression.
La pression atmosphérique observée devrait être réduite au niveau moyen de la mer pour toutes
les stations où cela peut se faire avec une exactitude suffisante (voir le chapitre 1 de la partie I).
Lorsque cela se révèle impossible, la station devrait indiquer, en vertu d’un accord régional,
soit le géopotentiel d’un «niveau de pression constante» convenu, soit la pression réduite à un
niveau de référence convenu pour cette station. Le niveau choisi pour chaque station devrait être
communiqué au Secrétariat de l’OMM en vue de sa notification officielle.
Formule de réduction de la pression au niveau de la mer possible pour les stations situées à
moins de 750 m d’altitude (voir OMM, 1964, p. 22, éq. 2):
p0 K p ⋅ H p Kp ⋅Hp
log10 = = (3.1)
ps Tmv a⋅Hp
Ts + + es ⋅ Ch
2
où p0 = pression réduite au niveau de la mer, en hPa; pS = pression à la station, en hPa;
Kp = constante égale à 0,014 827 5 K/gpm; Hp = altitude de la station, en gpm; Tmv = température
virtuelle moyenne de la colonne d’air fictive sous l’altitude de la station, en K (Tmv = TS + (a ·
Hp)/2 + eS · Ch); TS = température à la station, en K; TS = 273,15 + t, t = température à la station,
en °C; a = gradient vertical supposé dans la colonne d’air fictive s’étendant du niveau de la mer à
l’altitude de la station = 0,0065 K/gpm; eS = tension de vapeur à la station, en hPa; Ch = coefficient
égal à 0,12 K/hPa.
Aux stations situées à faible altitude (soit à moins de 50 m au‑dessus du niveau moyen de la mer),
on devrait réduire la pression au niveau moyen de la mer en ajoutant à la pression de la station
un terme constant de réduction C, donné par l’expression ci‑dessous:
C = p⋅Hp ( 29, 27 Tv ) (3.3)
Note: La température virtuelle de l’air humide est la température à laquelle l’air sec soumis à la même pression aurait
la même densité que l’air humide. Les Tables météorologiques internationales (OMM, 1966) donnent les accroissements de
la température virtuelle de l’air saturé pour diverses pressions et températures.
Cette méthode ne devrait être employée que pour les stations d’une altitude si basse que,
lorsque les valeurs extrêmes absolues de la température virtuelle sont substituées à Tv dans
l’équation, l’écart entre les résultats ainsi obtenus dû aux autres approximations de l’équation
(utilisation de la hauteur au lieu du géopotentiel standard et attribution d’une petite valeur à C
par rapport à celle de p) est négligeable.
Les erreurs résiduelles dans la graduation de l’échelle d’un baromètre devraient être déterminées
par comparaison avec un baromètre étalon. Elles peuvent inclure des erreurs dues à une fixation
ou une division inexacte de l’échelle, à la capillarité et à un vide imparfait. Les certificats de
comparaison avec l’étalon devraient mentionner les corrections à appliquer pour l’erreur
instrumentale en quatre points de l’échelle au moins, par exemple tous les 50 hPa. Pour un bon
baromètre, ces corrections ne devraient pas excéder quelques dixièmes d’hectopascal.
Corrections de pesanteur
La lecture d’un baromètre à mercure à une pression et à une température données dépend de
l’accélération de la pesanteur qui, à son tour, varie avec la latitude et l’altitude. Les baromètres
qui servent aux applications météorologiques sont étalonnés de manière à donner des lectures
barométriques vraies à l’accélération normale de la pesanteur (9,806 65 m s–2), et les valeurs
lues sur l’échelle du baromètre pour toute autre valeur de la pesanteur doivent être corrigées.
Pour réduire ces lectures à la valeur normale de l’accélération de la pesanteur, il est recommandé
d’appliquer la méthode suivante: soit B = valeur de la pression lue sur l’échelle du baromètre
à mercure, Bt = valeur de la pression réduite à la température normale et corrigée des erreurs
instrumentales, mais non réduite à l’accélération normale de la pesanteur, Bn = valeur de la
pression réduite à l’accélération normale de la pesanteur et à la température normale, et corrigée
des erreurs instrumentales, Bca = moyenne climatologique de Bt à la station, gφH = valeur locale
de l’accélération de la pesanteur (en m s‑2) à une station située à la latitude φ et à l’altitude H
au‑dessus du niveau de la mer et gn = accélération normale de la pesanteur, soit 9,806 65 m s–2.
(
Bn = Bt gϕ H g n ) (3.A.1)
ou
( )
Bn = Bt + Bt gϕ H g n − 1
(3.A.2)
On peut utiliser l’approximation 3.A.3 ci‑dessous, à condition que le résultat auquel elle conduit
ne diffère pas plus de 0,1 hPa de celui qui serait obtenu au moyen de l’équation 3.A.2:
( )
Bn = Bt + Bca gϕ H g n − 1
(3.A.3)
L’accélération locale de la pesanteur gφH devrait être déterminée par l’une des méthodes exposées
dans la section qui suit. Les valeurs ainsi obtenues devraient être signalées comme appartenant à
l’IGSN71 (International Gravity Standardization Net 1971).
Deux techniques peuvent être utilisées pour déterminer, avec un degré d’exactitude satisfaisant,
la valeur locale de l’accélération de la pesanteur à une station. Ces techniques nécessitent, dans
le premier cas, l’utilisation d’un gravimètre (instrument permettant de mesurer la différence
entre la valeur de l’accélération de la pesanteur à deux points) et, dans le second cas, l’emploi
de ce que l’on appelle l’anomalie de Bouguer. Il convient d’utiliser de préférence la méthode
du gravimètre. Si aucune des deux méthodes ne peut être suivie, l’accélération locale de la
pesanteur peut être calculée au moyen d’un modèle simple de la Terre.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 125
Utilisation du gravimètre
Si l’on ne dispose pas d’un gravimètre, on peut utiliser l’anomalie de Bouguer (A B) pour calculer
la valeur de g en un point donné. Il faut pour cela pouvoir se procurer une carte d’isohypses de
l’anomalie auprès d’une organisation géodésique ou par l’intermédiaire d’un réseau de stations
gravimétriques implanté au voisinage du point et ayant une densité d’au moins une station par
10 000 km2 (100 km de distance au plus entre deux stations).
Il est possible de prendre pour base les données d’un réseau un peu moins dense si l’organisation
géodésique considère qu’on obtiendra ainsi des résultats plus sûrs qu’en employant un
gravimètre.
( )
g s = gϕ ,0 s − C ⋅ H + AB (3.A.5)
Quand on désire connaître la valeur de g dans une station donnée alors qu’elle n’y a pas été
mesurée, il convient de la calculer au moyen de l’équation 3.A.5, à condition de pouvoir
interpoler la valeur appropriée de A B à l’emplacement de la station en se servant soit des cartes
d’isohypses mentionnées ci‑dessus, soit des données représentant l’anomalie de Bouguer fournie
par un réseau adéquat de stations gravimétriques.
Si aucune des méthodes décrites précédemment ne peut être appliquée, il est possible de
calculer la valeur locale, avec moins d’exactitude, en fonction d’un modèle simple. Selon
le GRS80 (Geodetic Reference System 1980), la valeur théorique (gφ,0) de l’accélération de la
pesanteur au niveau moyen de la mer, à la latitude géographique φ, se calcule au moyen de
l’équation 3.A.6:
(
gϕ ,0 = 9, 806 20 1 − 0, 002 644 2 cos 2ϕ + 0, 000 005 8 cos2 2ϕ ) (3.A.6)
La valeur locale de l’accélération de la pesanteur en un point donné à la surface du sol pour une
station terrestre se calcule au moyen de l’équation 3.A.7:
g = gϕ ,0 − 0, 000 003 086 H + 0, 000 001118 ( H − H ' ) (3.A.7)
réelle du point donné, en mètres, au‑dessus du niveau moyen de la mer; H’ = valeur absolue, en
mètres, de la différence entre l’altitude du point donné et l’altitude moyenne de la surface réelle
du terrain comprise à l’intérieur d’un cercle d’environ 150 km de rayon, centré sur le point donné.
Dans les stations côtières ou aux points situés sur ou près d’une côte, la valeur locale de
l’accélération de la pesanteur devrait être calculée, autant que possible, au moyen des
équations 3.A.7 et 3.A.8 sur une base proportionnelle, en donnant au dernier terme de
l’équation 3.A.7 une pondération en accord avec la proportion de la surface terrestre incluse
dans le cercle spécifié et en donnant au dernier terme de l’équation 3.A.8 une pondération en
accord avec la proportion de la surface maritime incluse à l’intérieur du cercle. Les valeurs ainsi
déterminées sont alors combinées algébriquement pour obtenir la correction à appliquer aux
deux derniers termes dans le membre de droite de chacune de ces équations, comme le montre
l’équation 3.A.9 ci‑dessous:
g = gϕ ,0 − 0, 000 003 086 H + 0, 000 001118 α
(3.A.9)
( H − H ' ) − 0, 000 006 88 (1 − α ) ( D − D ' )
où α est la fraction de la région visée qui est couverte de terre et H’ et D’ sont respectivement les
zones terrestres et aquatiques réelles.
Corrections de température
Les résultats des lectures du baromètre doivent être réduits aux valeurs que l’on aurait obtenues
si le mercure et l’échelle avaient été soumis à leur température normale, qui est de 0 °C pour les
baromètres à mercure. Suivant les baromètres, l’échelle utilisée peut fournir la pression exacte à
0 °C, ou encore à 20 °C.
Le baromètre à cuvette fixe nécessite une correction supplémentaire. En effet, une augmentation
de la température de l’instrument entraîne l’augmentation tant du volume du mercure que de la
section de la cuvette (de fer) et du tube (de verre). Compte tenu de ces variations de sections, la
montée apparente du mercure dans le tube découlant de l’augmentation de la température est
inférieure à ce qu’elle serait si les sections en question demeuraient constantes, puisqu’une partie
du mercure occupe la capacité accrue produite par la dilatation de la cuvette et du tube.
L’échelle du baromètre à cuvette fixe doit, pour diverses raisons, être étalonnée par comparaison
avec un baromètre étalon primaire à cuvette réglable. Certains fabricants réduisent le volume de
mercure de telle façon que les lectures du baromètre correspondent aux valeurs fournies par le
baromètre étalon à 20 °C. Il est possible de dresser des tables de correction pour les baromètres
à cuvette fixe à partir des valeurs fournies par le baromètre étalon primaire dont l’échelle est juste
à la température de référence de 20 °C.
CHAPITRE 3. MESURE DE LA PRESSION ATMOSPHÉRIQUE 127
Les corrections de température à appliquer aux baromètres à mercure ont fait l’objet de travaux
de recherche approfondis, dont les résultats sont résumés ci‑après :
2. Échelle juste à 0 °C et
Volume de Hg juste à 20 °C Ct,V = –B (α – β) · t – (α – 3η) · (t – 20) · 4V/3A
4. Échelle juste à 20 °C et
a) Volume de Hg juste à 20 °C Ct,V = –B [α · t – β (t – 20)] – (α – 3η) · (t – 20) · (4V/3A)
b) Diminution du volume de Hg équivalant
à 0,36 hPa Ct,V = –B (α – β) · t – (α – 3η) · (t – 20) · (4V/3A)
où :
Ct = correction de température
t = température
II Calcutta, Inde Br
V Melbourne, Australie Ar
VI Hambourg, Allemagne Ar
Londres, Royaume‑Uni Ar
Saint‑Pétersbourg, Fédération de Russie Ar
Toulouse, France Ar
Note:
a La définition des catégories est donnée dans la section 3.10.5.1.
RÉFÉRENCES ET AUTRES LECTURES
Liu, H. et G. Darkow, 1989: Wind effect on measured atmospheric pressure. Journal of Atmospheric and
Oceanic Technology, 6(1): 5–12.
Miksad, R., 1976: An omni‑directional static pressure probe. Journal of Applied Meteorology, 15: 1215–1225.
Organisation météorologique mondiale, 1954: Reduction of Atmospheric Pressure: Preliminary Report on
Problems Involved. Technical Note No. 7 (WMO‑No. 36, TP. 12), Genève.
———, 1964: Note on the Standardization of Pressure Reduction Methods in the International Network of Synoptic
Stations: Report of a Working Group of the Commission for Synoptic Meteorology.
Technical Note No. 61 (WMO‑No. 154, TP. 74), Genève.
———, 1966: Tables météorologiques internationales (dir.: S. Letestu) (modifiées en 1973) (OMM‑No 188,
TP. 94), Genève.
———, 1968: Methods in Use for the Reduction of Atmospheric Pressure. Technical Note No. 91 (WMO‑No. 226,
TP. 120), Genève.
———, 1985: "Pressure tendency" and "discontinuity in wind" – discussion of two algorithms used in
Swedish automatic weather stations (L. Bergman, T. Hovberg et H. Wibeck). Papers Presented at
the Third WMO Technical Conference on Instruments and Methods of Observation (TECIMO‑III).
Instruments and Observing Methods Report No. 22 (WMO/TD‑No. 50), Genève.
———, 1992: The WMO Automatic Digital Barometer Intercomparison (J.P. van der Meulen). Instruments and
Observing Methods Report No. 46 (WMO/TD‑No. 474), Genève.
———, 2010a: Manuel du Système mondial de traitement des données et de prévision (OMM‑N° 485), Volume I,
Genève.
———, 2010b: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2010c: Guidance on Instrumentation for Calibration Laboratories, Including RICs (D. Groselj). Instruments
and Observing Methods Report No. 101 (WMO/TD‑No. 1543), Genève.
———, 2014: Guide des systèmes d’observation et de diffusion de l’information pour l’assistance météorologique à la
navigation aérienne (OMM‑N° 731), Genève.
Programme des Nations Unies pour l’environnement (PNUE), 2013: Convention de Minamata sur le mercure,
Genève, ONU.
Sax, N.I., 1975: Dangerous Properties of Industrial Materials. Van Nostrand Reinhold Co., New York.
United States Weather Bureau, 1963: Manual of Barometry (WBAN). 1, US Government Printing Office,
Washington.
TABLE DES MATIÈRES DU CHAPITRE
Page
Page
4.1 GÉNÉRALITÉS
4.1.1 Définitions
Les définitions des termes utilisés dans le présent chapitre sont celles que donne le Règlement
technique de l’OMM (2011a) dans son appendice B, dont le texte est reproduit dans l’annexe 4.A
figurant à la fin du présent chapitre.
Voici les définitions simples des grandeurs les plus usuelles dans la mesure de l’humidité:
Le rapport de mélange r est le rapport entre la masse de la vapeur d’eau et la masse de l’air sec;
L’humidité spécifique q est le rapport entre la masse de la vapeur d’eau et la masse de l’air humide;
La température du point de rosée Td est la température à laquelle l’air humide, saturé par rapport
à l’eau à la pression donnée, a un rapport de mélange de saturation égal au rapport de
mélange donné;
La tension de vapeur e’ est la pression partielle exercée par la vapeur d’eau contenue dans l’air;
Les tensions de vapeur saturantes e’w et e’i sont les tensions exercées par la vapeur contenue dans
l’air, en équilibre avec, respectivement, une surface d’eau et une surface de glace.
L’annexe 4.B présente les formules et coefficients permettant de calculer les diverses quantités
qui donnent une indication de l’humidité de l’air. Ces formules et coefficients ont été adoptés
par l’OMM en 19901. Ils sont utiles et d’une exactitude suffisante pour toutes les applications
météorologiques courantes (OMM, 1989a).
Sonntag (1990, 1994) présente des formules à la fois plus exactes et plus détaillées ainsi que le
calcul d’autres quantités. D’autres formules détaillées2 sont présentées dans les publications de
l’OMM (1966, introductions aux tableaux 4.8 à 4.10; 2011a, appendice A).
Les unités et symboles qui suivent servent normalement à exprimer les quantités les plus souvent
utilisées relativement à la vapeur d’eau dans l’atmosphère:
b) Les tensions de vapeur dans l’air e’, e’w, e’i ainsi que la pression p en hPa;
1
Résolution 6 (EC-XLII) adoptée par le Conseil exécutif à sa quarante-deuxième session.
2
Résolution 19 (Cg-IV) adoptée par le Quatrième Congrès météorologique mondial.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 133
e) L’humidité relative U en %.
D’une façon générale, les mesures de l’humidité à la surface du globe servent à l’analyse et
à la prévision en météorologie, aux études climatologiques ainsi qu’à de nombreuses autres
applications spéciales dans les domaines de l’hydrologie, de l’agriculture, de l’aéronautique et
de l’environnement. Leur lien avec les changements d’état de l’eau dans l’atmosphère les rend
particulièrement importantes.
Dans l'annexe 1.E du chapitre 1 de la partie I sont donnés les critères généraux qui s’appliquent
à l’étendue, la résolution et l’exactitude des mesures de l’humidité. Les incertitudes
réalisables figurant dans le tableau se rapportent à des instruments de qualité, en bon état de
fonctionnement et utilisés comme il convient. Il n’est pas facile d’atteindre de telles valeurs dans
la pratique. On peut citer notamment le cas du psychromètre sous abri météorologique sans
ventilation forcée, soit une configuration encore très répandue, dont les performances peuvent
être très inférieures à ce qui est requis.
Une constante de temps de l’ordre de la minute convient pour la plupart des applications.
Les temps de réponse des différents instruments utilisés en exploitation sont indiqués à la
section 4.1.4.9.
Sonntag (1994) fait le point des connaissances actuelles dans le domaine de l’hygrométrie.
4.1.4.1 Hygromètres
Les conditions générales d’exposition des capteurs d’humidité sont analogues à celles des
capteurs de température. Il est donc possible de placer ces capteurs dans un abri météorologique
installé correctement. Il convient en particulier:
L’exposition convenant à chaque instrument est décrite ci‑après (sections 4.2 à 4.7).
134 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Dans l’annexe 1.B du chapitre 1 de la partie 1, intitulée «Classification de sites pour les stations
terrestres d'observation en surface», des indications supplémentaires sont données sur le choix
des sites et l'emplacement d'un hygromètre dans une station aux fins d'une représentativité
optimale.
a) La modification de l’échantillon d’air, par exemple par une source ou un puits de chaleur ou
de vapeur d’eau;
Il devrait y avoir cohérence entre la constante de temps du capteur, l’intervalle de temps pour le
calcul de la moyenne et les exigences touchant les données.
Les causes d’erreur qui précèdent s’appliquent différemment aux divers capteurs d’humidité. De
plus amples détails figurent donc dans les sections pertinentes qui suivent.
Cette méthode repose sur l’absorption par un agent déshydratant de la vapeur d’eau contenue
dans un volume d’air connu. (L’hygromètre gravimétrique n’est employé que pour les étalons
primaires.) La section 4.9 fournit quelques détails à ce sujet.
La méthode gravimétrique offre une mesure absolue de la teneur en vapeur d’eau d’un
échantillon d’air dont elle fournit le rapport de mélange. Il s’agit tout d’abord d’extraire la vapeur
d’eau contenue dans l’échantillon à l’aide d’un agent déshydratant. Le déshydratant est pesé
avant, puis après l’opération et la différence permet d’établir la masse de la vapeur d’eau. On
détermine la masse de l’échantillon sec soit en pesant celui‑ci soit en mesurant son volume.
Cette méthode est uniquement employée pour fournir un étalon absolu servant de référence,
appareil que l’on trouve principalement dans les laboratoires d’étalonnage nationaux.
L’hygromètre à miroir (refroidi) sert à mesurer Td ou Tf. Les systèmes les plus courants sont
équipés d’une petite surface réfléchissante de métal poli, refroidie par dispositif électrique à effet
Peltier, et d’un élément optique servant à détecter la condensation.
Des instruments fonctionnant selon cette méthode sont employés pour les besoins de
l’observation, mais peuvent servir aussi d’étalons de travail ou d’étalons de référence (voir la
section 4.4).
La tension de vapeur d’équilibre à la surface d’une solution saline saturée est inférieure à celle
présente à une surface semblable d’eau pure à la même température. Cela est vrai pour toutes les
solutions salines, mais l’effet est particulièrement évident dans le cas du chlorure de lithium dont
la tension de vapeur d’équilibre est exceptionnellement basse.
Il est possible de chauffer une solution aqueuse saline (dont la tension de vapeur d’équilibre
est inférieure à la tension de vapeur ambiante) jusqu’à ce que soit atteinte une température
à laquelle sa tension de vapeur d’équilibre dépassera la tension de vapeur ambiante. Il n’y a
plus alors condensation, mais évaporation, ce qui en fin de compte mène à un changement de
phase de la solution aqueuse qui prend une forme (cristalline) hydratée solide. Il est possible
de détecter cette transition, puisqu’elle est marquée par une diminution de la conductivité
électrique de la solution lorsque celle‑ci se cristallise. La tension de vapeur ambiante est déduite
de la température de la solution à laquelle cette tension de vapeur ambiante est atteinte. À
cet effet, on place un thermomètre dans la solution en prenant soin d’établir un bon contact
thermique. Il est possible de déterminer le point de rosée ambiant (c’est‑à‑dire par rapport à
la surface plane d’une eau pure) à l’aide de données empiriques établissant la relation entre
la tension de vapeur et la température tant pour l’eau pure que pour des solutions salines. Le
chlorure de lithium est la solution saline la plus utilisée pour ce type de capteur.
La méthode est employée pour les besoins de l’observation, en particulier dans les stations
météorologiques automatiques (voir la section 4.5).
On emploie beaucoup cette méthode pour les besoins de l’observation. Les instruments servent
souvent aussi d’étalons de travail.
Certaines substances interagissent avec la vapeur d’eau et subissent, dans leurs propriétés
chimiques ou physiques, un changement suffisamment réversible pour que l’on puisse les
utiliser en tant que capteurs de l’humidité ambiante. Ces substances peuvent soit adsorber soit
absorber la vapeur d’eau, l’adsorption étant la fixation d’une substance à la surface d’une autre,
tandis que l’absorption, la pénétration d’une substance dans une autre. De façon caractéristique,
136 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
un corps est dit hygroscopique lorsqu’il absorbe la vapeur d’eau présente dans l’atmosphère
environnante, car sa tension de vapeur saturante est inférieure à celle de l’air environnant. Pour
que le phénomène d’absorption se produise, il est indispensable que la tension de vapeur de
l’atmosphère ambiante soit supérieure à la tension de vapeur saturante du corps en question. La
sorption possède constamment les deux propriétés suivantes:
On utilise de plus en plus les capteurs électriques d’humidité relative dans les applications
exigeant une lecture à distance, en particulier lorsqu’il est nécessaire de disposer d’un
affichage direct de l’humidité relative.
Les propriétés couramment utilisées pour la mesure de l’humidité relative sont la résistance
électrique, dans le cas de capteurs fabriqués en matière plastique traitée à surface
conductrice, et la capacité électrique, dans celui de capteurs dont le fonctionnement repose
sur la variation des propriétés diélectriques d’un solide hygroscopique en fonction de
l’humidité relative ambiante.
Les molécules d’eau absorbent le rayonnement électromagnétique dans une gamme de bandes
d’ondes et à des longueurs d’onde spécifiques. Il est possible de tirer parti de cette propriété
pour mesurer la concentration moléculaire de la vapeur d’eau dans un gaz. Les régions du
spectre électromagnétique se prêtant le mieux à ce type d’application se situent dans l’ultraviolet
et l’infrarouge. Le principe appliqué consiste à déterminer l’atténuation du rayonnement dans
une bande d’ondes correspondant à la bande d’absorption de la vapeur d’eau, le long d’un trajet
optique entre la source du rayonnement et un récepteur. Il existe principalement deux méthodes
pour déterminer le degré d’atténuation du rayonnement:
b) La transmission d’un rayonnement à deux longueurs d’onde, l’une caractérisée par une
forte absorption par la vapeur d’eau et l’autre par une absorption soit nulle, soit très faible.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 137
Pour que l’on puisse préciser la constante de temps d’un capteur d’humidité, le temps de réponse
du capteur à un changement brusque spécifié de l’humidité doit correspondre à une fonction
connue. En général, le terme désigne le temps que prend le capteur pour indiquer 63,2 % (1/e)
d’une variation échelonnée du mesurande (l’humidité dans le cas présent), étant entendu que le
capteur fournit une réponse du premier ordre à la variation que subit le mesurande (c’est‑à‑dire
que la vitesse de variation de la grandeur mesurée est proportionnelle à la différence entre la
grandeur mesurée et le mesurande). Il est donc possible de prévoir que 99,3 % de la variation
sera prise en compte au bout d’une durée correspondant à cinq fois la constante de temps.
Le tableau 4.1 fournit les valeurs types de la fonction (1/e) de la constante de temps pour divers
capteurs d’humidité.
Cheveux laminés 10 10 12
Psychromètre d’Assmann
Hygromètres électrolytiques
a) Propreté: les capteurs et leurs enveloppes devraient être tenus propres. Pour certains
capteurs, tels que les hygromètres à miroir et les hygromètres à cheveux, il convient de
procéder à un nettoyage régulier avec de l’eau distillée. Pour d’autres, notamment ceux
équipés d’une forme quelconque de revêtement électrolytique, mais aussi ceux comprenant
un substrat polymère, il ne faut surtout pas procéder de la sorte. Il est donc essentiel de
fournir des instructions claires et précises à ce sujet aux observateurs et au personnel de
maintenance;
138 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il est possible d’utiliser des solutions salines saturées pour vérifier les capteurs ne nécessitant
qu’un échantillon de faible volume. La température ambiante devant demeurer constante au
cours d’une telle vérification, il est difficile d’utiliser ces solutions sur le terrain.
Il importe de vérifier périodiquement l’étalonnage des interfaces électriques pour toute l’étendue
de mesure. À cet effet, il est possible d’utiliser un simulateur à la place du capteur. Il demeurera
cependant indispensable d’étalonner l’ensemble capteur‑interface à des points sélectionnés,
car des erreurs jugées négligeables au cours des étalonnages distincts des deux composants
pourraient, par leur cumul, entraîner un fonctionnement hors spécifications.
Les exigences détaillées quant à la maintenance propre à chaque classe d’hygromètre décrite
dans le présent chapitre figurent dans les sections appropriées.
D’ordinaire, les capteurs d’humidité sont équipés d’un filtre destiné à les protéger contre les
contaminants qui risqueraient d’abaisser leurs performances. Lorsqu’un capteur n’est pas ventilé
par un moyen artificiel, l’équiper d’un filtre tend à augmenter son temps de réponse puisque
l’air ne circule plus librement et que la vapeur d’eau atteint alors l’élément sensible par diffusion
moléculaire à travers le matériau filtre. Bien que la diffusion de la vapeur d’eau à travers certains
matériaux, tels que des matières cellulosiques, se produise en théorie plus rapidement que dans
un air calme, la pratique montre que les meilleures vitesses de diffusion sont atteintes à travers
des membranes poreuses hydrophobes. Les pores devraient être suffisamment petits pour que le
filtre retienne les aérosols indésirables – dans un environnement marin, il est possible de trouver
de grandes quantités de particules de sel marin dont le diamètre minimal peut atteindre 0,1 µm –
et la porosité, adéquate pour permettre une vitesse de diffusion suffisante.
Il convient en général de protéger les capteurs non ventilés à l’aide d’un matériau inerte et
hydrophobe. À cet effet, des membranes polymères à forte porosité, en polytétrafluoréthylène
(PFTE) expansé, ont donné satisfaction dans diverses situations et sont relativement solides.
Il est possible d’employer des filtres en métal fritté, mais il convient de les chauffer pour éviter
tout problème de condensation. Ces filtres ne sont pas adaptés normalement aux capteurs
d’humidité relative, mais ils conviennent tout à fait aux capteurs de point de rosée. Les filtres
en métal fritté sont solides et bien adaptés aux applications faisant appel à l’aspiration qui
permettent d’utiliser des filtres de grande surface présentant par conséquent une différence de
pression suffisamment faible pour être acceptable.
Lorsque l’aspiration n’améliore pas la diffusion, il faut alors tenir compte de la relation entre la
superficie du filtre et le volume d’air échantillonné par le capteur. Dans le cas d’un capteur à
CHAPITRE 4. MESURE DE L’HUMIDITÉ 139
sorption type, composé d’un substrat plat, une membrane plate placée près de la surface du
capteur représente la configuration optimale. Dans le cas d’une surface sensible cylindrique, il y a
lieu d’employer un filtre cylindrique.
4.2 PSYCHROMÈTRE
4.2.1 Généralités
On trouvera dans les paragraphes ci‑après un résumé des méthodes employées actuellement
pour établir les tables psychrométriques.
Habituellement, dans les conditions d’observation, on obtient la tension de vapeur e’ par les
formules semi‑empiriques:
e' = e' w ( p, Tw ) − Ap (T − Tw ) (4.1)
et:
e' = e'i ( p, Ti ) − Ap (T − Ti ) (4.2)
où e’w est la tension de vapeur saturante par rapport à l’eau, à la pression p et à la température Tw
du thermomètre mouillé, e’i est la tension de vapeur saturante par rapport à la glace, à la pression
p et à la température Ti du thermomètre recouvert de glace, p est la pression atmosphérique et T
la température du thermomètre sec, enfin A est le coefficient psychrométrique. (Cette dernière
expression est préférable à «constante psychrométrique» utilisée couramment, mais incorrecte.)
On examine dans ce qui suit les formules et coefficients qui s’appliquent aux divers types de
psychromètres.
140 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
L’équipement employé pour les observations psychrométriques devrait, autant que possible, être
conforme aux recommandations suivantes (voir les sections 4.2.3 et 4.2.6):
a) Au niveau de la mer, lorsque les thermomètres utilisés sont d’un modèle ordinairement en
usage dans les stations météorologiques, l’air devrait être aspiré à une vitesse comprise
entre 2,2 m s–1 au moins et 10 m s–1 au plus au niveau des réservoirs. À des altitudes
sensiblement différentes, il convient d’adapter ces limites de vitesse d’une manière
inversement proportionnelle à la densité de l’atmosphère;
b) Il faut protéger les thermomètres sec et mouillé des effets du rayonnement, de préférence
à l’aide d’au moins deux écrans. Dans le cas d’un psychromètre à aspiration, tel celui
d’Assmann, les écrans peuvent être en métal poli et non peint, et séparés des autres parties
de l’appareil par un isolant. En principe, il est préférable d’employer un isolant thermique,
ce qui est indispensable dans le cas des psychromètres sans ventilation artificielle;
c) Quand le psychromètre est logé dans un abri à persiennes doté d’une ventilation forcée,
des conduits séparés devraient être aménagés pour les deux thermomètres. L’entrée des
conduits devrait être située de telle manière que les thermomètres mesurent la température
réelle ambiante et leur sortie située au‑dessus de l’abri, de façon à empêcher la recirculation
de l’air évacué;
d) Il convient de prendre toutes les precautions pour empêcher tout transfert thermique
appréciable du moteur du ventilateur aux thermomètres;
e) Le réservoir à eau et la mèche devraient être disposés de telle façon que l’eau atteigne le
thermomètre mouillé à peu près à la même température que ce dernier et qu’ils n’aient
aucune influence sur la température du thermomètre sec.
Le thermomètre mouillé est d’ordinaire équipé d’une mèche ou mousseline en coton, ou autre
tissu comparable, bien ajusté autour de l’élément sensible pour y maintenir appliquée une fine
couche d’eau uniforme, soit directement, soit par capillarité à partir d’un réservoir d’eau. La
mèche forme en général un manchon bien ajusté autour du réservoir du thermomètre mouillé,
débordant d’au moins deux centimètres sur la tige du thermomètre.
Le tissu utilisé pour couvrir le thermomètre mouillé devrait être mince, mais d’une trame
serrée. Avant sa mise en place, il devrait être parfaitement lavé dans une solution aqueuse de
bicarbonate de soude (NaHCO3) dilué à raison de 5 g par litre d’eau et rincé à plusieurs reprises à
l’eau distillée. Il est possible aussi de le laver au savon pur et à l’eau. Si une mèche est employée,
elle devrait subir le même traitement.
Par temps sec et chaud, il peut être bon d’humecter le manchon à partir d’un récipient poreux.
L’eau sera ainsi refroidie par évaporation à la surface du matériau poreux avant d’atteindre le
thermomètre. Il convient de tenir le récipient à l’ombre, mais pas trop près du psychromètre.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 141
Bien que difficile à employer à des températures inférieures à 0 °C, le psychromètre est en
usage dans des régions où de telles températures sont observées. Lorsque la température
du thermomètre mouillé est inférieure à 0 °C, on ne peut utiliser une mèche pour amener
par capillarité l’eau du réservoir au manchon du thermomètre mouillé. Dans ces conditions,
il faudrait veiller à ce qu’il ne se forme qu’une mince couche de glace sur le manchon. Il faut
absolument que les thermomètres soient ventilés artificiellement; dans le cas contraire, il est
extrêmement difficile de faire fonctionner le thermomètre mouillé.
Autant que possible, l’eau devrait avoir une température proche du point de congélation. Si un
«bouton» de glace se forme à la partie inférieure du réservoir, il y a lieu de tremper le réservoir
dans l’eau assez longtemps pour que la glace fonde.
Le temps nécessaire pour que le thermomètre mouillé se stabilise après que le manchon a été
humecté est fonction de la ventilation et de la température réelle du thermomètre mouillé. Un
thermomètre non ventilé demande habituellement entre un et trois quarts d’heure, alors qu’un
thermomètre à aspiration n’aura besoin que d’un laps de temps beaucoup plus court. Il est
essentiel qu’une nouvelle pellicule de glace se forme sur le réservoir au moment voulu. Quand
les observations ont lieu chaque heure à l’aide d’un psychromètre simple, il sera en général
préférable de provoquer la formation d’une nouvelle pellicule de glace immédiatement après
chaque observation. En cas d’observations plus espacées, l’observateur devrait se rendre à l’abri
suffisamment tôt avant chaque observation pour provoquer la formation d’une nouvelle pellicule
de glace sur le réservoir. Le thermomètre mouillé des psychromètres à aspiration et de ceux du
type fronde devrait être humecté immédiatement avant l’emploi.
On peut remédier à l’effet de l’eau surfondue sur le thermomètre mouillé de deux façons:
a) En utilisant des tables différentes selon que le thermomètre mouillé est recouvert de
glace ou d’eau surfondue. Pour determiner quelle table employer, l’observateur devrait,
dès l’observation terminée, toucher le thermomètre mouillé d’un cristal de neige, de
la pointe d’un crayon ou de tout autre objet. Si la température s’élève jusque vers 0 °C,
puis redescend, l’observateur peut présumer que l’eau sur le thermomètre mouillé était
surfondue au moment de l’observation;
La première méthode est habituellement la plus rapide, mais elle nécessite l’emploi de deux
tables, ce qui peut créer quelque confusion.
142 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
c) Au cours de l’observation, il convient, autant que possible, de lire simultanément les deux
thermomètres. On devrait s’assurer que le thermomètre mouillé reçoit suffisamment d’eau.
Les formules psychrométriques (voir l’annexe 4.B) s’appliquant aux psychromètres à aspiration
de type Assmann sont également valables lorsque des thermomètres à résistance électrique
de platine remplacent les instruments à mercure sous verre, la configuration des composants,
y compris les thermomètres, étant différente. La formule s’appliquant au thermomètre mouillé
(eau) est également valable pour certains psychromètres à aspiration transversale (OMM,
1989a).
a) Erreurs instrumentales des thermomètres: dans les mesures psychrométriques, il est très
important de connaître les erreurs instrumentals des thermomètres pour toute la gamme
réelle des températures et d’appliquer aux lectures les corrections appropriées avant
d’employer les tables d’humidité.
Le tableau 4.2 indique, en pourcentage et pour une gamme de températures vraies de l’air
(quand le thermomètre sec est censé fournir la température vraie de l’air), l’erreur ε (U)
qu’engendre, dans la détermination de l’humidité relative, une erreur ε (t x), où x représente
l’eau pour t > 0 °C ou la glace pour t < 0 °C, de 0,5 et de 0,1 K découlant respectivement de
mesures de la température du thermomètre mouillé et du thermomètre recouvert de glace,
l’humidité relative U étant de 50 %.
b) Coefficients de retard des thermomètres: pour que les psychromètres présentent une
grande exactitude, il est conseillé de faire en sorte que les thermomètres sec et mouillé
aient à peu près le même coefficient de retard. Si les réservoirs sont de mêmes dimensions,
le thermomètre mouillé a un coefficient de retard sensiblement plus faible que le
thermomètre sec.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 143
c) Erreurs dues à la ventilation: les erreurs dues à une ventilation insuffisante s’aggravent
considérablement lorsque des tables d’humidité inappropriées sont employées (voir les
sections portant sur les divers types de psychromètres).
d) Erreurs dues à un épais dépôt de glace sur le thermomètre mouillé. Un épais dépôt de
glace sur le réservoir augmente le retard du thermomètre, aussi faudrait‑il faire fondre
immédiatement la glace en trempant le réservoir dans de l’eau distillée.
Tableau 4.2. Erreur dans l’humidité relative déduite découlant d’une erreur instrumentale
ε (t x) affectant la mesure de la température du thermomètre mouillé
ou recouvert de glace, pour U = 50 %
–20 27 5
–10 14 3
0 8 2
10 5 1
20 4 0,5
30 3 0,5
40 2 0,5
50 2 0
4.2.2.1 Description
rayonnement thermique externe, chaque thermomètre est logé dans deux tubes métalliques
coaxiaux, d’un poli intérieur et extérieur spéculaire. Les tubes sont séparés l’un de l’autre par un
isolant thermique.
Une comparaison internationale de psychromètres du type Assmann utilisés par dix pays,
organisée par l’OMM, a montré (OMM, 1989a) une bonne concordance entre les mesures
des températures du thermomètre mouillé et du thermomètre sec exécutées à l’aide de
psychromètres dont les dimensions sont proches des spécifications d’origine et dans lesquels la
vitesse de l’air aspiré est supérieure à 2,2 m s–1. Parmi les appareils disponibles dans le commerce,
certains ne répondent pas entièrement à ces critères. Pour de plus amples détails, le lecteur se
reportera à la publication OMM (1989a). Sur le terrain, le psychromètre d’Assmann permet
d’atteindre le degré d'exactitude précisé dans l'annexe 1.E du chapitre 1 de la partie I et de
nettement le dépasser si un grand soin est apporté à la mesure.
L’annexe 4.B fournit la liste des formules types à utiliser pour le calcul de l’humidité à partir des
mesures exécutées à l’aide d’un psychromètre d’Assmann3 et d’autres types de psychromètres à
aspiration forcée, en l’absence d’autres solutions bien établies.
La mèche, qui doit être exempte de graisse, est humidifiée avec de l’eau distillée. Toute mèche
souillée ou durcie devrait être remplacée. Il faudrait veiller à ce que l’eau transportée par la
mèche n’entre pas en contact avec l’écran de protection contre le rayonnement.
Il faudrait aussi vérifier que la colonne de mercure des thermomètres n’est pas fractionnée, ce
qu’il convient de corriger le cas échéant, notamment par le remplacement du thermomètre.
Le psychromètre devrait être à la même température que l’air qui l’entoure. Quand la
température de l’air est supérieure à 0 °C, il faudrait effectuer au moins trois mesures à des
intervalles d’une minute, après une période d’aspiration. Au‑dessous de 0 °C, il faut attendre que
le processus de congélation prenne fin et vérifier si la mèche est couverte d’eau ou de glace. Au
cours des processus de congélation et de décongélation, la température du thermomètre mouillé
demeure constante à 0 °C. Lorsque le mesurage se déroule à l’extérieur, il convient de le répéter
à plusieurs reprises, puis de prendre comme résultat la moyenne des valeurs obtenues. Les
thermomètres devraient être lus au dixième de kelvin près ou mieux.
c) Attendre deux à trois minutes ou jusqu’à ce que l’indication du thermomètre mouillé se soit
stabilisée;
3
Recommandation adoptée par la CIMO lors de sa dixième session (1989).
CHAPITRE 4. MESURE DE L’HUMIDITÉ 145
Avec un psychromètre du type Assmann, l’observation devrait être faite dans un emplacement
dégagé, l’instrument étant soit suspendu à un crochet ou à un support fixé à un poteau mince,
soit tenu d’une main à bout de bras avec les orifices d’aspiration légèrement inclinés dans
la direction d’où vient le vent. Ces orifices devraient se trouver à une hauteur de 1,25 à 2 m
au‑dessus du sol, dans le cas d’un mesurage normal de la température et de l’humidité de l’air.
Il faudrait bien prendre garde que les lectures ne soient faussées par la présence de l’observateur
ou la proximité de toute autre source de chaleur et de vapeur d’eau, telle que l’échappement
d’un véhicule à moteur.
4.2.2.4 Étalonnage
Il convient de vérifier régulièrement le système de ventilation, au moins une fois par mois.
Il convient aussi de vérifier régulièrement l’étalonnage des thermomètres. Il est possible de les
comparer l’un à l’autre pour la mesure de la température du thermomètre sec. Il faudrait les
comparer à un thermomètre de référence certifié au moins une fois par an.
4.2.2.5 Maintenance
Entre les lectures, l’instrument devrait être conservé dans une pièce non chauffée ou, sinon,
protégé contre les précipitations et le fort rayonnement. Lorsque l’instrument n’est pas utilisé, il
faudrait le placer dans un étui solide, tel que celui fourni par le fabricant, que l’on conservera à
l’intérieur d’un local.
4.2.3.1 Description
Il est recommandé que les psychromètres sous abri soient ventilés artificiellement. La vitesse de
l’air aspiré aux deux thermomètres devrait atteindre 3 m s–1. Pour cela, on utilise couramment
des ventilateurs électriques ou à ressort. Au niveau des réservoirs des thermomètres, l’air
devrait circuler horizontalement et non verticalement. Il devrait être évacué en outre de façon à
empêcher sa recirculation.
146 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Le psychromètre sous abri peut donner des résultats dont l’exactitude est bien moins bonne que
celle indiquée dans l'annexe 1.E du chapitre 1 de la partie I, en particulier par vent faible lorsque
l’abri n’est pas équipé d’une ventilation forcée.
Les formules psychrométriques précisées à la section 4.2.1.1 s’appliquent aux psychromètres sous
abri, mais une grande incertitude affecte les coefficients. Bindon (1965) fournit un récapitulatif
de quelques‑unes de ces formules. Si une ventilation forcée permet à l’air d’atteindre au moins
3 m s–1 au niveau du réservoir du thermomètre mouillé, il est possible d’appliquer les valeurs
indiquées dans l’annexe 4.B, avec un coefficient psychrométrique de 6,53 · 10 ‑4 K–1 pour l’eau. On
utilise cependant des valeurs allant de 6,50 à 6,78 · 10 –4 pour une température du thermomètre
mouillé supérieure à 0 °C, mais de 5,70 à 6,53 · 10 –4pour une température du thermomètre
mouillé inférieure à 0 °C. Dans le cas des psychromètres sous abri sans ventilation artificielle, les
coefficients employés varient entre 7,7 et 8,0 · 10 –4 pour une température supérieure à 0 °C et
entre 6,8 et 7,2 · 10 –4 pour une température inférieure à 0 °C, et ce lorsque l’air circule dans l’abri,
ce qui est probablement presque toujours le cas. Toutefois, l’emploi de coefficients allant jusqu’à
12 · 10 –4 pour l’eau et 10,6 · 10 –4 pour la glace a été préconisé quand l’air ne circule pas dans
l’abri.
La méthode décrite à la section 4.2.1.5 s’applique au psychromètre sous abri. Dans le cas d’un
thermomètre mouillé sans aspiration artificielle, à condition que l’eau ait à peu près la même
température que l’air, la température exacte du thermomètre mouillé sera atteinte en 15 minutes
environ après que l’on aura ajusté un nouveau manchon. Si la température de l’eau diffère
largement de la température de l’air, il pourra être nécessaire d’attendre 30 minutes.
4.2.4.1 Description
La configuration du thermomètre mouillé varie suivant les types d’instruments. Dans certains
cas, le réservoir du thermomètre mouillé est protégé du rayonnement solaire direct par un écran,
ce qui est préférable pour les mesures météorologiques.
Il est possible d’appliquer à ces instruments les formules psychrométriques indiquées dans
l’annexe 4.B.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 147
a) Toutes les instructions ayant trait à la manipulation des psychromètres du type Assmann à
aspiration forcée s’appliquent aussi aux psychromètres frondes;
b) Les psychromètres frondes non équipés d’un écran destiné à protéger les réservoirs des
thermomètres contre le rayonnement solaire devraient être protégés d’une autre manière;
c) Il convient de lire les thermomètres dès que l’on cesse de les ventiler, car la température
du thermomètre mouillé commence à s’élever immédiatement et il est probable que les
thermomètres subissent en outre les effets du rayonnement solaire.
Le psychromètre chauffant fonctionne selon le principe suivant: La teneur en vapeur d’eau d’un
volume d’air demeure constante si ce dernier est chauffé. Ainsi est‑il inutile de disposer d’un
réservoir recouvert de glace lorsque la température est inférieure à 0 °C.
4.2.5.1 Description
L’air est aspiré dans un conduit sur un élément électrique chauffant, puis dans une enceinte de
mesure qui contient les thermomètres sec et mouillé ainsi qu’un réservoir à eau. Le circuit de
commande de l’élément chauffant est étalonné de sorte que la température de l’air ne puisse
descendre sous une valeur donnée, ordinairement établie à 10 °C. Le réservoir d’eau est de la
même façon maintenu à la même température. Ainsi, ni l’eau contenue dans le réservoir, ni celle
qui humecte la mèche ne gèlent, à condition que la différence psychrométrique soit inférieure
à 10 K et que le psychromètre continue de fonctionner normalement lorsque la température de
l’air descend au‑dessous de 0 °C. À une température supérieure à 10 °C, l’élément chauffant peut
s’éteindre automatiquement et l’instrument fonctionner comme un psychromètre ordinaire.
Ce type d’appareil utilise des thermomètres électriques qu’il est possible de loger entièrement
dans l’enceinte de mesure et qui rendent inutile une lecture directe.
Un second thermomètre sec est placé à l’entrée du conduit pour mesurer la température de l’air
ambiant, ce qui permet de déterminer l’humidité relative ambiante.
Les réservoirs des thermomètres du psychromètre chauffant sont ventilés dans une direction
axiale, l’air atteignant une vitesse voisine de 3 m s–1.
Ce type de psychromètre peut être employé dans des stations météorologiques automatiques.
L’instrument à proprement parler devrait être fixé à l’extérieur de l’abri météorologique. L’orifice
d’aspiration, où la température de l’air ambiant est mesurée, devrait se trouver à l’intérieur de
l’abri.
l’instrument est autonome. Le psychromètre de référence se distingue par le fait qu’il est possible
de calculer le coefficient psychrométrique à partir de la théorie des échanges de chaleur et de
masse qui s’opèrent au réservoir du thermomètre mouillé et que ce coefficient diffère de celui des
autres psychromètres puisqu’il a pour valeur 6,53 · 10 –4 K–1 pour une humidité relative de 50 %, à
20 °C et 1 000 hPa. Cet instrument donne une température du thermomètre mouillé très proche
de la valeur théorique (voir les paragraphes 18 et 19 de l’annexe 4.A). Cela est rendu possible
grâce à une évaporation particulièrement efficace au réservoir du thermomètre mouillé et à un
apport de chaleur externe minimal. La forme étudiée du conduit et du réservoir du thermomètre
mouillé ainsi que la vitesse de l’air aspiré déterminent la nature de l’écoulement d’air au niveau
du réservoir du thermomètre mouillé. La face externe du double écran de protection est
fortement réfléchissante, tandis que sa face interne est noircie. En outre les thermomètres sont
entourés d’isolant et séparés par un écran. Les écrans et l’élément qui comprend le thermomètre
mouillé sont en acier inoxydable afin d’en réduire la conduction thermique.
La méthode d’utilisation du psychromètre de référence permet d’éviter tout dépôt gras sur le
réservoir du thermomètre mouillé, et ce même à l’échelle des couches monomoléculaires, ce qui
survient chaque fois que l’on manipule une pièce quelconque de l’instrument avec les doigts.
Il est probable que ce soit principalement pour cette raison que le coefficient psychromètre de
cet instrument est si proche de la valeur théorique et qu’il diffère des coefficients des autres
instruments.
À l’aide du psychromètre de référence, il est possible d’atteindre une grande exactitude, le degré
d’incertitude étant de l’ordre de 0,38 % pour une humidité relative de 50 % à 20 °C. L’OMM a
en outre adopté cet instrument en tant que thermomètre de référence. Il est conçu pour une
utilisation sur le terrain, mais non régulière. Seul le personnel qualifié pour mener des travaux
très fins de laboratoire devrait l’utiliser. Son emploi en tant qu’instrument de référence est précisé
à la section 4.9.7.
4.3.1 Généralités
Tout corps absorbant tend à atteindre un état d’équilibre thermique et hygrométrique avec le
milieu environnant. La tension de vapeur d’eau à la surface de ce corps est déterminée par la
quantité d’eau absorbée par celui‑ci et par sa température. Le transfert de molécules d’eau tend à
éliminer toute différence entre cette tension et la tension de vapeur d’eau de l’air environnant.
Un bon hygrographe en parfait état devrait pouvoir enregistrer l’humidité relative avec
une exactitude de ±3 % à des températures modérées et avec une exactitude inférieure par
températures basses.
À basse température, pour que les mesures donnent des résultats utiles, il est indispensable de
disposer d’un instrument équipé de cheveux laminés (voir la description ci‑dessus).
4.3.2 Description
Les détails du mécanisme des hygromètres à cheveux varient suivant les fabricants. Certains
instruments comprennent un transducteur qui fournit un signal électrique et peuvent aussi
disposer d’une fonction de linéarisation pour fournir une réponse globale linéaire aux variations
de l’humidité relative.
L’hygromètre à cheveux le plus utilisé est l’hygrographe. Celui‑ci est constitué d’un faisceau
de cheveux maintenu en légère tension par un petit ressort et relié au style inscripteur par un
système amplifiant ses variations de longueur. Une plume est fixée à l’extrémité du style et
maintenue au contact du diagramme ajusté sur un cylindre métallique; elle enregistre ainsi les
déplacements angulaires du style. Le cylindre tourne autour de son axe à une vitesse constante
commandée par un mouvement d’horlogerie mécanique. La vitesse de rotation est en général
égale à un tour par jour ou par semaine. Le diagramme porte en abscisse l’échelle de temps, qui
s’étend sur la circonférence du cylindre, et en ordonnée l’échelle d’humidité, parallèle à l’axe du
cylindre ordinairement vertical.
Le mécanisme reliant le style au faisceau de cheveux peut comprendre des cames spécialement
conçues pour convertir l’élongation non linéaire des cheveux découlant des variations de
l’humidité en un déplacement angulaire linéaire du style.
Certains hygromètres utilisent des fibres synthétiques au lieu de cheveux. Quand il s’agit
de cheveux, ceux‑ci sont en général traités d’abord, comme cela est décrit à la section 4.3.1,
afin d’améliorer la linéarité de la réponse et de diminuer le temps de réponse, ce traitement
entraînant cependant une baisse de la résistance à la traction.
L’ensemble style et mouvement du cylindre repose sur une platine et il est normalement protégé
par un carter muni d’une vitre destinée à faciliter la lecture de l’humidité enregistrée sans qu’il
y ait à déplacer ou décapoter l’instrument. L’élément sensible à cheveux se trouve à l’extérieur
du carter qui présente donc une ouverture à cet endroit. Le carter repose sur la platine à laquelle
il n’est fixé que par une charnière située à l’extrémité opposée à l’élément sensible. Cette
configuration permet l’accès au mouvement du cylindre et à l’élément sensible qui peut être en
outre protégé par une cage à maille ouverte.
Il faudrait toujours tapoter légèrement du doigt l’hygromètre à cheveux avant la lecture afin de
libérer le mécanisme de toute tension résiduelle. Par contre, il faudrait, autant que possible, ne
pas toucher l’hygrographe entre les changements de diagrammes, sauf pour tracer les repères
chronologiques.
L’humidité de l’air peut varier très rapidement et, par conséquent, il est très important de tracer
avec beaucoup d’exactitude les repères chronologiques. Pour ce faire, le style ne devrait être
déplacé que dans la direction de l’humidité relative décroissante sur le diagramme. Par un tel
déplacement, les cheveux sont relâchés et c’est le ressort de tension qui applique la force qui
rétablit le style dans sa position normale. Toutefois, le fait que le style ne retourne pas se placer
dans sa position d’origine met en évidence un effet d’hystérésis.
Lorsqu’il est employé dans des régions polaires, l’hygrographe devrait être logé de préférence
dans un abri météorologique spécial qui le protège suffisamment contre les précipitations et la
chasse‑neige basse. On peut, par exemple, recouvrir l’abri d’un filet à mailles fines (Mullergas)
pour éviter une accumulation de cristaux de neige sur les cheveux et sur les surfaces de liaison de
la tringlerie mécanique. Ce procédé n’est valable que s’il n’y a aucun risque que les cristaux de
neige mouillent le filet en fondant.
Le zéro de l’hygrographe est sujet à se décaler pour diverses raisons mal connues. La cause la
plus probable est que les cheveux se sont étirés sous l’effet d’une tension excessive. Cela peut
être le cas, par exemple, lorsqu’on trace les repères chronologiques sur le diagramme dans
le sens de l’humidité relative croissante, ou encore lorsque le mécanisme de l’instrument se
coince alors que l’humidité relative diminue. Le zéro peut aussi varier parce que l’hygrographe a
séjourné longtemps dans de l’air très sec, auquel cas le remède consiste à conserver suffisamment
longtemps l’instrument dans de l’air saturé.
La plupart des poussières sont de nature à provoquer des erreurs sensibles dans les observations
(parfois jusqu’à 15 % d’humidité relative). Dans la majeure partie des cas, il est possible
d’éliminer ou du moins de réduire l’erreur en nettoyant et en lavant les cheveux, mais les
poussières peuvent aussi transporter des substances qui détruisent les cheveux (voir la
section 4.3.4).
4.3.5.3 Hystérésis
Quant à l’élément sensible à cheveux, l’hystérésis est normalement un effet de courte durée
découlant des processus d’absorption et de désorption. Elle n’est pas une cause importante
d’erreur une fois l’équilibre de tension de vapeur établi. Il convient cependant de lire la
section 4.3.5.1 pour ce qui est d’une exposition prolongée à une faible humidité.
Il n’est possible de procéder à un étalonnage exact qu’à l’aide d’une enceinte à atmosphère
contrôlée et par comparaison à des instruments de référence.
Il est possible de vérifier le point correspondant à 100 % d’humidité relative. Il suffit pour cela
d’entourer l’instrument d’un tissu saturé d’eau, l’opération devant se dérouler de préférence à
l’intérieur d’un local à une température de l’air constante. (Toutefois, on ne pourra pas obtenir la
valeur exacte si une masse importante de gouttelettes d’eau se forme sur les cheveux.)
L’humidité ambiante à l’intérieur d’un local peut permettre de vérifier une valeur de faible
humidité relative par comparaison avec un psychromètre ventilé de référence. Il y a lieu
d’exécuter une série de lectures.
Il est possible d’évaluer la constance à long terme et la justesse d’un instrument en établissant
une fonction de corrélation à partir des comparaisons effectuées avec un psychromètre ventilé de
référence.
4.3.7 Maintenance
Les cheveux devraient être lavés fréquemment avec une brosse douce trempée dans de l’eau
distillée, afin d’enlever la poussière ou les contaminants solubles qui s’y seraient accumulés.
Il ne faudrait en aucun cas toucher les cheveux avec les doigts. Il convient de tenir propres les
roulements du mécanisme et d’y appliquer occasionnellement un peu d’huile fine. Les surfaces
de liaison de tout mécanisme de linéarisation contribuent pour une large part au frottement total
de la tringlerie. Il est possible de réduire ce frottement en polissant ces surfaces avec du graphite,
par exemple à l’aide de papier buvard frotté avec la mine d’un crayon noir.
Si l’entretien est bien fait, les cheveux peuvent durer plusieurs années sous un climat tempéré,
à condition de ne pas être soumis à une pollution atmosphérique importante. En cas de
remplacement des cheveux, il est nécessaire de procéder au réglage et au réétalonnage de
l’instrument.
4.4.1 Généralités
4.4.1.1 Théorie
L’hygromètre à point de rosée (ou à point de gelée), appelé encore hygromètre à miroir (refroidi)
ou à condensation, est utilisé pour mesurer la température à laquelle l’air humide, quand il est
152 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
refroidi, atteint son point de saturation et de la rosée (ou de la glace) se forme sur une surface
solide, généralement un miroir, le dépôt pouvant normalement être détecté par un moyen
optique. Le principe de mesure est décrit à la section 4.1.4.5 et ci‑dessous.
La température thermodynamique du point de rosée est définie par rapport à une surface plane
d’eau pure. Dans les réalisations pratiques, l’état d’équilibre est atteint pour des gouttelettes
d’eau ayant une surface courbe. La tension de vapeur saturante au‑dessus de ce type de
surface est plus élevée que pour une surface plane (ce qui est connu comme l’effet Kelvin).
Les impuretés hydrophobes tendent à exagérer l’effet en question, et inversement pour les
impuretés hydrophiles, puisqu’elles tendent à faire baisser la tension de vapeur saturante (effet
Raoult). L’effet Kelvin et l’effet Raoult (dont le premier élève, et le second abaisse, le point de
rosée apparent) sont réduits si la taille critique des gouttelettes est relativement grande, cela
diminue directement l’effet de la courbure et réduit l’effet Raoult en abaissant la concentration
des impuretés solubles.
4.4.1.2 Principes
L’hygromètre mesure Td ou Tf. Malgré les grandes variations dynamiques de l’humidité dans la
troposphère, il peut détecter des concentrations très élevées ou très faibles de vapeur d’eau à
l’aide seulement d’un capteur de température.
On a utilisé des fluides ayant un point d’ébullition peu élevé pour refroidir le miroir, mais cette
méthode est maintenant abandonnée en général, si ce n’est pour de très faibles concentrations
de vapeur d’eau.
Compte tenu de ce qui précède, il faut pouvoir déterminer si le dépôt présent sur le miroir est
formé d’eau surfondue ou de glace lorsque la température de la surface est égale ou inférieure à
0 °C.
L’hygromètre à miroir sert pour les mesures météorologiques ainsi qu’en tant qu’instrument de
référence, tant sur le terrain qu’en laboratoire.
4.4.2 Description
Les systèmes les plus courants sont équipés d’une petite surface réfléchissante de métal poli,
refroidie par un dispositif électrique à effet Peltier. Le capteur est constitué d’un miroir métallique
peu épais, de faible diamètre (2 à 5 mm), soumis à l’influence d’un dispositif de refroidissement
(et éventuellement d’un dispositif de chauffage), ainsi que d’un capteur de température (un
thermocouple ou un thermomètre à résistance de platine) accolé au dos du miroir. Le miroir
devrait avoir à la fois une grande conductibilité thermique, une grande réflectivité optique et une
grande résistance à la corrosion, ainsi qu’une faible perméabilité à la vapeur d’eau. Il peut être en
or, en argent rhodié, en cuivre chromé ou en acier inoxydable.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 153
Le miroir devrait être équipé d’un système (de préférence automatique) qui permette de déceler
les impuretés qui peuvent élever ou abaisser le point de rosée apparent (voir la section 4.4.2.2),
afin que l’on puisse les éliminer.
On peut observer la formation des gouttelettes à l’aide d’un microscope et régler manuellement
la température du miroir, mais cela demande beaucoup de temps et une compétence
particulière.
Un dispositif à effet Peltier constitue une pompe à chaleur réversible simple, la polarité du
courant continu appliqué aux bornes du dispositif déterminant si la jonction thermique absorbe
de la chaleur pour refroidir le miroir ou si elle en dégage pour le chauffer. Il importe que soit
maintenu un bon contact thermique entre le dispositif et le dos du miroir auquel il est collé. Pour
le mesurage de températures du point de rosée très basses, il peut falloir utiliser un instrument
équipé d’un dispositif à effet Peltier à plusieurs étages.
Il est possible d’utiliser un fluide ayant un point d’ébullition peu élevé, tel que l’azote liquide,
pour refroidir le miroir, mais cette technique n’est plus beaucoup employée. Il est aussi possible
d’utiliser un fil de résistance pour chauffer le miroir, mais compte tenu de la percée des dispositifs
à effet Peltier de faible encombrement, ce système est maintenant abandonné.
La température du point de rosée que l’instrument fournit à l’observateur n’est autre que la
température du miroir, telle que la mesure le thermomètre électrique logé sous la surface du
miroir. Les instruments disponibles dans le commerce comprennent normalement une interface
électrique pour le thermomètre du miroir ainsi qu’un affichage numérique, mais ils peuvent
154 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
aussi comporter des sorties électriques numériques ou analogiques servant à les raccorder
à des systèmes d’enregistrement des données. Il est particulièrement utile de disposer d’un
enregistrement sur diagramme pour surveiller les performances de l’instrument, notamment
quand le signal continu provenant du thermomètre du miroir n’est pas fourni par l’affichage
numérique, mais qu’il l’est par la sortie analogique.
Un système commandé par microprocesseur peut comprendre des algorithmes lui permettant
de calculer et d’afficher l’humidité relative. Dans ce cas, il importe que l’instrument puisse établir
correctement la différence entre un dépôt d’eau surfondue et un dépôt de glace.
Pour les mesures météorologiques, ainsi que dans la plupart des applications expérimentales,
l’instrument doit être équipé d’une petite pompe chargée d’aspirer l’air à échantillonner au
travers de l’enceinte de mesure. Il doit être équipé aussi d’un dispositif capable de régler le débit
de l’air pour que le système de servocommande de la température du miroir fonctionne sans
à‑coups et que le temps de réponse aux variations de l’humidité soit satisfaisant. Le débit d’air
optimal est fonction de l’humidité de l’air échantillonné et se situe normalement entre 0,25 et
1 l min–1.
Les meilleurs instruments offrent une exactitude de ±0,3 K sur une vaste étendue de mesure du
point de rosée (de –60 °C à +50 °C).
Les critères d’installation du capteur sont analogues à ceux qui s’appliquent à tout hygromètre
ventilé. Ils sont moins stricts que dans le cas d’un psychromètre ou d’un capteur d’humidité
relative, car les variations de la température de l’air ambiant, à condition que cette température
demeure toujours supérieure au point de rosée, n’ont pas d’effet sur le point de rosée ou de
gelée blanche d’un échantillon d’air. Il n’est donc pas nécessaire de placer le capteur dans un
abri météorologique. Il convient de l’installer dans un endroit dégagé, sur un pied support par
exemple, ceint d’une enveloppe protectrice, l’orifice d’aspiration étant situé à la hauteur voulue.
Il faut en outre prévoir un système d’échantillonnage de l’air. Il s’agit ordinairement d’une petite
pompe destinée à aspirer l’air à la sortie de l’enceinte de mesure et à l’éjecter loin de l’orifice
d’aspiration. Pour que la technique d’échantillonnage soit valable, il faudrait en effet éviter la
recirculation de l’air. Dans des conditions stables de fonctionnement, la teneur en vapeur d’eau
de l’air devrait être identique à l’entrée et à la sortie du système d’aspiration. Il est possible
d’empêcher la recirculation de l’air en positionnant l’orifice d’évacuation plus haut que celui
d’aspiration, cette technique pouvant cependant ne pas être efficace dans des conditions
atmosphériques déterminées par le rayonnement, soit en présence d’un gradient thermique
vertical négatif.
Il convient d’équiper d’un filtre à air les instruments qui fonctionnent en continu à l’extérieur. Ce
filtre doit permettre la circulation de l’air et ne pas se colmater rapidement, puisqu’un colmatage
risquerait d’entraîner une baisse importante de la pression et de modifier ainsi la température de
condensation dans l’enceinte de mesure. Le filtre en question peut être en métal fritté et capturer,
les plus petites mises à part, l’ensemble des particules d’aérosols. Un filtre en métal présente
l’avantage de pouvoir être chauffé facilement à l’aide d’un élément électrique, afin qu’il reste sec
dans toutes les conditions. Il est en outre plus solide qu’une membrane filtrante et mieux indiqué
pour les débits d’air relativement élevés que nécessite la méthode du miroir refroidi, à comparer
à la méthode de sorption. Par contre, il risque d’être moins résistant que certaines membranes
filtrantes à la corrosion causée par les polluants atmosphériques.
4.4.5 Étalonnage
Les performances d’un hygromètre à miroir servant aux observations sur le terrain pouvant se
dégrader pour diverses raisons, il convient de procéder régulièrement à des comparaisons à
l’aide d’un instrument de référence, tel un psychromètre d’Assmann ou un autre hygromètre
à miroir. Lorsqu’un instrument fonctionne continuellement sur le terrain, il faudrait procéder
à des mesures de contrôle hebdomadaires. Quand l’occasion se présente, il y a lieu de vérifier
l’instrument, tant pour la mesure du point de rosée que pour celle du point de gelée blanche.
Lorsque la température du miroir est inférieure à 0 °C, il faudrait examiner le dépôt pour voir s’il
s’agit d’eau surfondue ou de glace.
4.5.1 Généralités
4.5.1.1 Principes
Les principes physiques sur lesquels repose la méthode des solutions salines chauffées sont
examinés à la section 4.1.4.5.2. La tension de vapeur d’équilibre à la surface d’une solution
saturée de chlorure de lithium est exceptionnellement faible. Il en découle qu’une solution de
chlorure de lithium est extrêmement hygroscopique dans des conditions normales d’humidité
atmosphérique en surface. À condition que la tension de vapeur ambiante soit plus élevée que
la tension de vapeur d’équilibre de la solution, il y aura condensation de la vapeur d’eau à la
surface de la solution. À 0 °C, par exemple, la vapeur d’eau se condense sur la surface plane
d’une solution saturée de chlorure de lithium jusqu’à ce que l’humidité relative n’atteigne plus
que 15 %.
Compte tenu de ce qui précède, on peut déduire qu’il existe, pour la tension de vapeur ambiante,
un seuil inférieur qu’il est possible de mesurer ainsi à une température quelconque. Au‑dessous
de cette valeur seuil, il faudrait refroidir la solution saline pour que la vapeur d’eau se condense,
soit une méthode équivalente à celle du miroir refroidi, si ce n’est que la condensation se produit
sur le miroir à une température inférieure, lorsqu’il y a saturation par rapport à une surface d’eau
pure, c’est‑à‑dire au point de rosée ambiant.
La méthode reposant sur l’emploi du chlorure de lithium présente un certain degré d’incertitude,
puisqu’il existe quatre hydrates différents de ce sel. À certaines températures critiques, deux de
ces hydrates peuvent se trouver dans un état d’équilibre avec la phase aqueuse et la température
d’équilibre obtenue en chauffant la solution varie en fonction de la transformation en hydrate qui
s’ensuit. Dans les applications météorologiques, cette incertitude est la plus gênante lorsqu’elle
intervient à des températures ambiantes du point de rosée inférieures à –12 °C. Pour un point de
rosée ambiant de –23 °C, la différence éventuelle de température d’équilibre, selon laquelle une
des deux transformations de solution en hydrate se produit, entraîne une incertitude de ±3,5 K
dans la valeur du point de rosée obtenue.
4.5.1.2 Description
L’hygromètre dit cellule à point de rosée mesure la température à laquelle la tension de vapeur
d’équilibre pour une solution saline saturée est égale à la tension de vapeur d’eau ambiante. Les
équations empiriques de transformation, fondées sur les données relatives à la tension de vapeur
saturante pour la solution de chlorure de lithium et pour l’eau pure, permettent de déduire la
CHAPITRE 4. MESURE DE L’HUMIDITÉ 157
tension de vapeur d’eau et le point de rosée ambiants par rapport à une surface plane d’eau
pure. À une plage de températures du point de rosée allant de –12 °C à +25 °C correspond une
plage de températures fournies par la cellule à point de rosée allant de +17 °C à +71 °C.
Le capteur est formé d’un tube, ou bobine, dans lequel vient se loger dans une position axiale
un thermomètre à résistance. La surface externe du tube est recouverte d’un tissu de verre
(habituellement une bande à la fois enroulée autour du tube et disposée longitudinalement)
imprégné d’une solution aqueuse de chlorure de lithium, parfois mélangé à du chlorure de
potassium. Un double fil d’argent ou d’or est enroulé par‑dessus le revêtement de la bobine,
l’intervalle entre chaque tour étant identique. Une source de courant alternatif est connectée aux
deux extrémités de l’enroulement bifilaire. Habituellement, le courant provient de l’alimentation
secteur (50 ou 60 Hz). La conductivité électrique de la solution de chlorure de lithium est
fonction de son degré de concentration. Le courant circule entre les deux fils adjacents de
l’enroulement bifilaire, qui tiennent lieu d’électrodes, au travers de la solution. Par effet Joule, le
courant chauffe la solution dont la température augmente.
Si ce n’est dans des conditions de très faible humidité, la tension de vapeur ambiante est
supérieure à la tension de vapeur d’équilibre à la surface de la solution de chlorure de
lithium, à la température de l’air ambiant, et la vapeur d’eau se condense à la surface de la
solution. Quand la solution est chauffée par le courant électrique, elle finit par atteindre une
température au‑dessus de laquelle la tension de vapeur d’équilibre est supérieure à la tension
de vapeur ambiante; c’est alors que la concentration de la solution commence à augmenter par
évaporation.
Mis sous tension, l’instrument atteint normalement une température d’équilibre qui varie en
fonction de la tension de vapeur d’eau ambiante. Au‑dessus de cette température d’équilibre,
la concentration de la solution augmente par évaporation, le courant électrique et l’effet
Joule diminuent, la solution peut alors subir des pertes de chaleur et sa température s’abaisse.
Au‑dessous de la température d’équilibre, la concentration de la solution diminue par
condensation, le courant électrique et l’effet Joule augmentent, ce qui provoque une élévation
de la température de la solution. À la température d’équilibre, il ne se produit ni évaporation
ni condensation, car la tension de vapeur d’équilibre et la tension de vapeur ambiante sont
identiques.
Une ventilation trop forte modifie les caractéristiques de transfert thermique propres au capteur
dont le fonctionnement est en outre instable si la ventilation fluctue.
Afin de réduire les risques associés à une impulsion de courant excessive lorsque l’hygromètre
est mis sous tension (la résistance de la solution à température ambiante étant relativement
faible), un limiteur de courant, à savoir une petite ampoule, est normalement connecté en série
avec l’élément chauffant. L’ampoule est choisie de façon que, compte tenu d’un courant normal
de fonctionnement de la bobine, la résistance du filament soit suffisamment faible pour ne pas
entraver le bon fonctionnement de l’hygromètre, le courant de fonctionnement de l’ampoule à
incandescence (compte tenu notamment d’une bobine dont la résistance serait nulle) demeurant
suffisamment faible pour ne pas risquer d’endommager l’élément chauffant.
La tension de vapeur d’équilibre d’une solution saturée de chlorure de lithium est fonction
de l’hydrate en état d’équilibre avec la solution aqueuse. Dans la plage des températures
de la solution correspondant à une plage de points de rosée allant de –12 °C à +41 °C, il
s’agit normalement du chlorure de lithium monohydraté. Au‑dessous de –12 °C se forme le
dihydrate, tandis qu’au‑dessus de 41 °C, il s’agit du chlorure de lithium anhydre. Au voisinage
158 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il est possible d’améliorer l’exactitude du système décrit à la section 4.5.1.2 par un chauffage
indirect de la solution de chlorure de lithium. La conductivité de la solution est mesurée entre
deux électrodes de platine et permet de commander une résistance chauffante.
Une fois la température d’équilibre de la bobine lue, une fonction de transfert permet d’obtenir
la température du point de rosée.
Il convient d’éviter de toucher le capteur, car toute variation thermique à la surface de la bobine
entraîne une modification de la température d’équilibre.
Il y a lieu d’exécuter à intervalles réguliers des mesures de contrôle à l’aide d’un hygromètre
étalon de travail et, au besoin, de nettoyer l’instrument et d’opérer une nouvelle application de
chlorure de lithium.
Si l’instrument fourni par le fabricant n’est pas équipé d’un limiteur de courant, il faudrait
installer un tel système. Sans ce dernier, le capteur risque d’être endommagé par une impulsion
de courant trop importante pouvant survenir lorsque l’instrument est mis sous tension.
Il convient d’installer l’hygromètre dans un endroit dégagé sous une enveloppe le protégeant
des effets du vent et de la pluie. L’instrument nécessite aussi un système capable de maintenir
constante la vitesse de l’air aspiré.
Les variations d’aspiration ont une influence sur les échanges thermiques et donc sur la
constance de l’instrument. Pour que le fonctionnement soit stable, la vitesse de l’air aspiré doit
être constante.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 159
Il convient de procéder à au moins une inspection mensuelle sur le terrain, par comparaison
avec un étalon de travail. Le thermomètre de la bobine et l’affichage de la température devraient
être étalonnés régulièrement, comme c’est le cas pour les autres thermomètres et systèmes
d’affichage utilisés en exploitation.
4.5.6 Maintenance
Pour préparer une nouvelle solution, on pourra combiner du chlorure de lithium anhydre à de
l’eau distillée dans une proportion en masse de 5 %, ce qui équivaut à 1 g de chlorure de lithium
anhydre pour 20 ml d’eau.
Le capteur de température devrait être entretenu suivant les recommandations qui s’appliquent
aux instruments électriques employés pour mesurer la température de l’air, mais il convient de
faire cas de la différence dans l’étendue des températures mesurées.
4.6.1 Généralités
On utilise de plus en plus les capteurs électriques d’humidité relative dans des applications
exigeant une lecture à distance, en particulier lorsqu’il est nécessaire de disposer d’un affichage
direct de l’humidité relative. Beaucoup de ces capteurs fournissant une réponse véritablement
non linéaire aux variations d’humidité, les fabricants les équipent souvent de systèmes spéciaux
de traitement et d’affichage des données.
Pour les besoins de la météorologie, il est ainsi possible d’employer des capteurs constitués de
matière plastique traitée dont la couche superficielle conductrice est solidaire du substrat isolant.
La résistivité de cette couche superficielle varie en fonction de l’humidité relative ambiante.
Dans ce cas, le phénomène d’adsorption prédomine par rapport à l’absorption, puisque la partie
sensible à l’humidité se limite à la couche superficielle. Ce type de capteur présente donc un
temps de réponse court à une variation de l’humidité ambiante.
La méthode repose sur la variation des propriétés diélectriques d’un solide hygroscopique en
fonction de l’humidité relative ambiante. Le plus souvent les capteurs de ce type sont formés de
polymères. L’eau absorbée, dont les molécules ont un moment dipolaire important, modifie les
propriétés diélectriques du polymère.
La partie sensible du capteur d’humidité est une feuille de polymère prise entre deux électrodes
pour constituer un condensateur. L’impédance de ce condensateur fournit une mesure de
l’humidité relative. La valeur nominale de la capacité peut n’atteindre que quelques picofarads
ou encore plusieurs centaines de picofarads, selon les dimensions des électrodes et l’épaisseur du
diélectrique. À son tour, cette valeur a une influence sur la fréquence d’excitation, normalement
de l’ordre d’au moins plusieurs kilohertz, utilisée pour mesurer l’impédance du dispositif. Cela
exige des connexions courtes entre le capteur et l’interface électrique pour réduire l’effet des
capacités parasites. Par conséquent, l’interface électrique fait normalement partie intégrante du
capteur capacitif et il faut tenir compte de l’effet de la température ambiante sur les performances
des composants du circuit ainsi constitué.
Les capteurs dont le fonctionnement repose sur les variations des propriétés électriques de
matériaux hygroscopiques sont souvent utilisés pour fournir une lecture à distance de l’humidité
relative ainsi que dans les stations météorologiques automatiques.
Il convient d’installer ces capteurs dans des abris météorologiques. On devrait se reporter
aux instructions fournies par le fabricant pour monter le capteur proprement dit. Il faut
obligatoirement utiliser des filtres protecteurs. Tout élément sensible à base d’électrolyte
hygroscopique sera gravement endommagé s’il entre en contact direct avec de l’eau. Il faudrait
donc prendre beaucoup de précautions pour que cela ne se produise pas.
4.6.7 Maintenance
Les molécules d’eau absorbent le rayonnement électromagnétique dans une gamme de bandes
d’ondes et à des longueurs d’onde spécifiques. Il est possible de tirer parti de cette propriété
pour mesurer la concentration moléculaire de la vapeur d’eau dans un gaz. Les régions du
spectre électromagnétique se prêtant le mieux à ce type d’application se situent dans l’ultraviolet
et l’infrarouge. Aussi classe‑t‑on souvent ce type de techniques dans l’hygrométrie optique, ou,
avec plus de justesse, dans l’hygrométrie d’absorption du rayonnement électromagnétique.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 161
b) Transmission d’un rayonnement à deux longueurs d’onde, l’une caractérisée par une
forte absorption par la vapeur d’eau et l’autre par une absorption soit nulle soit très faible.
Lorsque le rayonnement émis aux deux longueurs d’onde provient d’une seule source, il
est possible de connaître avec exactitude le rapport des intensités entre les deux longueurs
d’onde, de sorte que l’atténuation du rayonnement émis à la longueur d’onde fortement
absorbée peut être déterminée par la mesure du rapport en question au récepteur. Selon
cette technique, le rayonnement provient le plus souvent d’une lampe à incandescence, des
filtres permettant d’isoler deux longueurs d’onde dans l’infrarouge. La mesure nécessite
une trajectoire normalement supérieure à un mètre de long.
4.8 SÉCURITÉ
Pour mesurer l’humidité, on se sert beaucoup de solutions salines saturées. Voici quelques
conseils à suivre pour utiliser en toute sécurité certains sels d’usage courant:
a) Le chlorure de baryum (BaCl2) se présente sous la forme de cristaux incolores très solubles
dans l’eau. Il est stable, mais il peut s’en dégager des fumées toxiques en cas d’incendie.
Il ne réagit pas dangereusement avec l’eau, les acides, les bases, les oxydants ou les
combustibles. En cas d’ingestion, il provoque nausées, vomissements, maux d’estomac
et diarrhées. Il est dangereux d’en inhaler les poussières. Par contact, il irrite la peau et
les yeux. Traiter en rinçant abondamment avec de l’eau; en cas d’ingestion, consulter un
médecin;
c) Le chlorure de lithium (LiCl) se présente sous la forme de cristaux incolores, stables quand
maintenus au sec et très solubles dans l’eau. Il peut s’en dégager des fumées toxiques en cas
d'incendie. Par ingestion, il peut modifier le bilan ionique du sang et provoquer anorexie,
diarrhées, vomissements, étourdissements et troubles du système nerveux central; il peut
aussi causer des lésions rénales lorsque la personne touchée suit un régime pauvre en sel
(faire boire beaucoup d’eau et consulter un médecin). Il ne réagit pas dangereusement avec
l’eau, les acides, les bases, les oxydants ou les combustibles;
Des conseils pour utiliser le mercure en toute sécurité sont fournis dans la section 3.2.7 du
chapitre 3 de la partie I.
Dans la plupart des cas, on emploie de bons psychromètres ventilés, des capteurs à point
de rosée ou des hygromètres capacitifs pour procéder concrètement à des inspections sur le
terrain. On doit pouvoir raccorder ces étalons de types particuliers à des étalons des niveaux les
plus élevés par des étalonnages effectués avec soin. Tout instrument servant d’étalon doit être
étalonné lui‑même pour tous les paramètres entrant dans le calcul de l’humidité (température de
CHAPITRE 4. MESURE DE L’HUMIDITÉ 163
Étalon secondaire
Étalon de référence
Étalon de travail
Tous les capteurs d’humidité utilisés sur le terrain nécessitent un étalonnage périodique. Pour
ce qui est des psychromètres et des hygromètres à point de rosée, équipés d’un détecteur de
température, l’étalonnage du détecteur pourra être contrôlé à chaque opération régulière de
maintenance. Il faudrait en outre comparer l’instrument avec un étalon de travail, tel qu’un
psychromètre d’Assmann, au moins une fois par mois.
estimer que l’aspiration fonctionne bien lorsque le ventilateur produit un son normal. Il y a lieu
d’étalonner l’instrument de référence à intervalles appropriés en fonction du type auquel il
appartient.
Il est possible d’utiliser des solutions salines saturées pour vérifier les capteurs ne nécessitant
qu’un échantillon de faible volume. La température ambiante devant demeurer constante au
cours d’une telle vérification, il est difficile d’accorder foi à l’utilisation de ces solutions sur le
terrain. Lorsqu’on utilise des solutions salines dans le but de contrôler un instrument, il faudrait
se rappeler que la valeur nominale d’humidité donnée pour la solution saline n’est raccordée à
aucun étalon primaire.
Il est possible de contrôler le bon fonctionnement d’un instrument dans des conditions
stabilisées à l’intérieur d’un local par comparaison avec un instrument de référence, tel
qu’un psychromètre d’Assmann ou un hygromètre étalon à miroir. Lorsque l’instrument
de terrain comprend un détecteur de glace, il convient de contrôler aussi le bon
fonctionnement de ce système;
La méthode gravimétrique offre une mesure absolue de la teneur en vapeur d’eau d’un
échantillon d’air dont elle fournit le rapport de mélange. Il s’agit tout d’abord d’extraire la
vapeur d’eau contenue dans l’échantillon à l’aide d’un déshydratant dont la masse est connue,
notamment l’anhydride phosphorique (P2O5) ou le perchlorate de magnésium (Mg(ClO4)2).
Le déshydratant est pesé avant, puis après l’opération et la différence permet d’établir la masse
de la vapeur d’eau. On détermine la masse de l’échantillon sec soit en pesant celui‑ci (après
liquéfaction afin qu’il soit plus aisé de manipuler le volume de l’échantillon) soit en mesurant son
volume (en ayant connaissance de sa masse volumique).
La méthode décrite nécessite un appareil d’une telle complexité pour atteindre l’exactitude
requise que son application se limite au laboratoire. Pour atteindre une exactitude suffisante dans
les mesures, il faut en outre examiner un échantillon d’air d’un volume considérable. Aussi, en
utilisation pratique, faut‑il que l’air circule dans l’appareil à débit constant pendant un certain
nombre d’heures, qui variera en fonction de l’humidité de l’air, afin que la masse de la vapeur
CHAPITRE 4. MESURE DE L’HUMIDITÉ 165
d’eau extraite de l’échantillon soit suffisante pour permettre une pesée exacte. En conséquence,
la méthode est uniquement employée pour fournir un étalon absolu servant de référence et l’on
trouvera l’appareil principalement dans les laboratoires d’étalonnage nationaux.
Cet appareil de laboratoire sert de source de gaz dont l’humidité absolue est déterminée. Le gaz
vecteur traverse une enceinte de saturation à la pression P1, puis passe dans une autre enceinte
dans laquelle il se produit une détente isotherme à une pression basse P2. Les deux enceintes sont
maintenues à la même température par un bain d’huile. Selon la loi de Dalton sur les pressions
partielles, l’humidité relative du mélange gaz‑vapeur d’eau est directement liée à la pression
totale dans chacune des deux enceintes. En effet, la même relation existe entre, d’une part, la
tension partielle e’ de la vapeur dans l’enceinte à basse pression et la tension de vapeur saturante
e’w et, d’autre part, la pression totale dans le saturateur à haute pression et la pression totale dans
l’enceinte à basse pression. L’humidité relative Uw est donc fournie par l’équation suivante:
U w = 100 ⋅ e' e' w = 100 ⋅ P1 P2 (4.5)
La relation s’applique aussi à la phase solide, à savoir lorsque le gaz est saturé par rapport à la
glace à la pression P1:
U i = 100 ⋅ e' e'i = 100 ⋅ P1 P2 (4.6)
Cet appareil de laboratoire fournit, à une température T1, un flux de gaz humide ayant une
température de point de rosée ou de point de gelée blanche T2. Il comprend deux bains à
température contrôlée, équipés chacun d’échangeurs thermiques et, dans l’un, d’un saturateur
contenant soit de l’eau soit de la glace. L’air circulant sur ces bains est d’abord saturé à la
température T1, puis il subit un réchauffement isobare à la température T2. Dans les appareils
conçus pour un usage pratique, la saturation est obtenue par une circulation continue de l’air.
Dans les instruments de contrôle, l’air est aspiré à la température T2 et à un faible débit par
rapport à la circulation principale.
Il convient d’entretenir avec soin un instrument étalon secondaire. Il ne sera retiré du laboratoire
que pour être étalonné par rapport à un étalon primaire ou pour les besoins d’une comparaison
entre étalons secondaires. Les étalons secondaires peuvent servir d’étalons de transfert à partir
d’étalons primaires.
Il est possible d’utiliser un hygromètre à miroir comme instrument étalon secondaire dans des
conditions contrôlées de température, d’humidité et de pression. Dans ce cas, l’hygromètre en
question devrait avoir été étalonné par un laboratoire accrédité, et l’on disposera des limites
d’incertitude associées à cet instrument, pour l’ensemble de son étendue de mesure utile. Il
faudra en outre pouvoir relier directement l’étalonnage à un étalon primaire. L’étalonnage
devrait être renouvelé aux intervalles réguliers qui conviennent (en général une fois par an).
Les caractéristiques générales des hygromètres à miroir sont examinées à la section 4.4. Ce
type d’instrument met en pratique une technique fondamentale pour déterminer l’humidité
de l’air. À condition que les consignes d’entretien et d’utilisation fournies par le fabricant soient
bien respectées, l’instrument donne une mesure primaire du point de rosée ou du point de
gelée blanche dans des limites d’incertitude fonction de la concordance entre la température
superficielle du miroir au point approprié du cycle de condensation‑évaporation et la
température enregistrée par le thermomètre du miroir au moment de l’observation. Il faut en
outre tenir compte des effets Kelvin et Raoult sur la température de condensation ainsi que de
toute variation de la pression de l’air causée par la technique d’échantillonnage, et ce, en utilisant
les équations indiquées à la section 4.4.1.2.
166 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Étant donné que ses performances sont calculables, cet instrument est essentiellement un
étalon primaire. Il sert principalement toutefois d’instrument de référence de grande précision,
en particulier pour les essais d’homologation d’autres types d’instruments sur le terrain. Il est
conçu comme un instrument autonome, à utiliser près d’un abri ou d’un autre instrument de
terrain. Il est réalisé suivant des spécifications précises. Il exige des opérateurs compétents,
ayant l’expérience des travaux de précision en laboratoire. Ceux‑ci devraient porter une
attention particulière à l’aspiration et prendre toutes les précautions pour ne pas contaminer le
thermomètre mouillé par contact avec les doigts ou tout autre objet. Il existe toutefois des tests
simples qui permettent de valider les lectures à tout moment et qu’il convient donc d’employer
fréquemment en cours d’utilisation. La publication OMM (1992) décrit cet instrument et ses
consignes d’utilisation.
Une solution saline génère, au‑dessus d'elle, des valeurs caractéristiques de l'humidité relative de
l'air. Ces valeurs dépendent de la structure chimique et de la concentration du sel ainsi que de la
température. Il existe deux types de solutions salines:
a) Les solutions salines non saturées, contenues dans des ampoules, génèrent une atmosphère
présentant une certaine humidité relative. Ces ampoules sont en principe utilisées pour
imbiber un tampon placé dans un récipient conçu pour exposer un capteur à l'humidité
produite.
b) Les solutions salines saturées maintiennent une concentration stable d'humidité relative
quand les deux phases du sel coexistent: la solution est saturée en sel et une petite quantité
de sel reste en phase solide. Dans ce cas, la pression de vapeur dépend uniquement de la
température.
Pour les besoins de l’étalonnage des capteurs d’humidité relative, il est possible d’utiliser des
récipients contenant des solutions saturées des sels appropriés. Voici la liste des sels utilisés
habituellement ainsi que leur humidité relative à saturation, à 25 °C:
Il importe que la solution présente une surface importante à comparer à celle de l’élément
sensible et au volume d’air échantillonné pour que l’état d’équilibre soit rapidement atteint.
Un orifice d’accès hermétiquement clos doit en outre être prévu pour le capteur de contrôle. Il
convient de mesurer la température du récipient et de la maintenir constante, car, pour la plupart
des sels, le degré d’humidité à saturation est affecté d’un coefficient thermique non négligeable.
L’emploi des solutions salines saturées exige certaines précautions. Le personnel chargé de
manipuler de tels produits chimiques devrait en connaître la toxicité et le caractère corrosif. Il
est possible d’utiliser les sels dont la liste figure ci‑dessus en toute sécurité, en évitant contact
CHAPITRE 4. MESURE DE L’HUMIDITÉ 167
avec la peau, ingestion et projection dans les yeux. Il faudrait toujours conserver ces sels dans
des récipients solides et bien étiquetés, sur lesquels seront indiqués clairement tous les dangers
qu’ils présentent. Il convient de prendre des précautions pour dissoudre des cristaux de chlorure
de sodium dans l’eau, car cela provoque un dégagement important de chaleur. Les dangers que
présentent ces produits chimiques sont examinés plus en détail à la section 4.8.
Les solutions salines saturées permettent de régler efficacement un certain type d’hygromètres
(les hygromètres capacitifs), mais il convient d’utiliser également un instrument de référence aux
fins d'étalonnage.
ANNEXE 4.A. DÉFINITIONS ET SPÉCIFICATIONS DE LA VAPEUR D’EAU
DANS L’ATMOSPHÈRE
5) La tension de vapeur e’ de la vapeur d’eau dans l’air humide à une pression totale p et
avec un rapport de mélange r est définie par:
r
e' = p = xv ⋅ p (4.A.6)
0, 621 98 + r
6) Saturation: À une température et une pression données, l’air humide est dit saturé si
son rapport de mélange est tel que l’air humide puisse coexister en équilibre indifférent avec une
phase condensée associée (liquide ou solide) à la même température et à la même pression, la
surface de contact des phases étant plane.
ew = ew (T ) (4.A.7)
ei = ei (T ) (4.A.8)
9) Titre molaire de la vapeur d’eau dans l’air humide saturé par rapport à l’eau: Le titre
molaire de la vapeur d’eau dans l’air humide saturé par rapport à l’eau, à la pression p et à la
température T, est le titre molaire xvw de la vapeur d’eau d’un échantillon d’air humide, à la même
pression p et à la même température T, en équilibre stable en présence d’une surface plane d’eau
contenant la quantité d’air dissous correspondant à l’équilibre. On désignera de même par xvi le
titre molaire saturant par rapport à une surface plane de glace contenant la quantité d’air dissous
correspondant à l’équilibre.
14) Les températures du point de rosée et du point de gelée blanche ainsi définies sont liées
au rapport de mélange r et à la pression totale p par les équations suivantes:
r⋅ p
e' w ( p, Td ) = f ( p ) ⋅ ew (Td ) = xv ⋅ p = (4.A.13)
0, 621 98 + r
r⋅ p
( )
e'i p, T f = f ( p ) ⋅ ei T f( ) = xv ⋅ p =
0, 621 98 + r
(4.A.14)
c) Les humidités relatives supérieures à 100 % ne seraient en général pas observées. Ceci est
particulièrement important dans les messages synoptiques, étant donné que l’atmosphère
est souvent sursaturée relativement à la glace à des températures inférieures à 0 °C;
d) La majorité des renseignements dont on dispose actuellement sur l’humidité relative à des
températures au‑dessous de 0 °C est exprimée sur la base de saturation relativement à l’eau
liquide.
h ( p, T , r ) + rw ( p, Tw ) − r hw ( p, Tw ) = h ( p, Tw , rw ( p, Tw ) ) (4.A.18)
Si l’air sec et la vapeur d’eau sont considérés comme des gaz parfaits dont les chaleurs massiques
sont constantes, cette équation devient:
rw ( p, Tw ) − r Lv ( Tw )
T − Tw = (4.A.19)
c pa + rc pv
où Lv(Tw) est la chaleur latente de vaporisation de l’eau à la température Tw, cpa est la chaleur
massique à pression constante de l’air sec; cpv est la chaleur massique à pression constante de la
vapeur d’eau.
Note: Les techniciens de la climatisation (conditionnement d’air) ont appelé durant un certain temps la température
thermodynamique du thermomètre mouillé, telle qu’elle est définie ici, «température de saturation adiabatique».
1
Les équations 4.A.15 et 4.A.17 ne s’appliquent pas à l’air humide lorsque la pression p est inférieure à la tension de
vapeur saturante de l’eau pure et de la glace respectivement à la température T.
2
L’enthalpie d’un système en équilibre, à la pression p et à la température T est exprimée par E + pV, où E est l’énergie
interne du système et V, son volume. La somme des enthalpies des phases d’un système fermé est conservée dans les
processus isobares adiabatiques.
CHAPITRE 4. MESURE DE L’HUMIDITÉ 171
h ( p, T , r ) + ri ( p, Ti ) − r hi ( p, Ti ) = h ( p, Ti , ri ( p, Ti ) ) (4.A.20)
où ri(p,Ti) est le rapport de mélange de l’air saturé à la pression p et à la température Ti; hi(p,Ti)
est l’enthalpie de 1 gramme d’eau pure à la pression p et à la température Ti; h(p,T,r) est
l’enthalpie de 1 + r grammes d’air humide, composé de 1 gramme d’air sec et de r grammes
de vapeur d’eau, à la pression p et à la température T; h(p,Ti,ri (p,Ti)) est l’enthalpie de
1 + ri grammes d’air saturé, composé de 1 gramme d’air sec et de ri grammes de vapeur d’eau
saturante à la pression p et à la température Ti. (C’est une fonction de p et Ti seulement qui peut
donc être représentée par hsi(p,Ti).)
Si l’air sec et la vapeur d’eau sont considérés comme des gaz parfaits dont les chaleurs massiques
sont constantes, cette équation devient:
ri ( p, Ti ) − r Ls (Ti )
T − Ti = (4.A.21)
c p + rc pv
où Ls(Ti) est la chaleur latente de sublimation de l’eau à la température Ti.
e w(t) = 6,112 exp [17,62 t/(243,12 + t)] Eau (de –45 °C à 60 °C)
(phase pure)
ei(t) = 6,112 exp [22,46 t/(272,62 + t)] Glace (de –65 °C à 0 °C)
(phase pure)
Humidité relative:
Symboles utilisés:
td = température de rosée;
e w(t) = tension de vapeur saturante dans la phase pure par rapport à l’eau à la température du
thermomètre sec;
CHAPITRE 4. MESURE DE L’HUMIDITÉ 173
e w(t w) = tension de vapeur saturante dans la phase pure par rapport à l’eau à la température du
thermomètre mouillé;
ei(t) = tension de vapeur saturante dans la phase pure par rapport à la glace à la température
du thermomètre sec;
ei(ti) = tension de vapeur saturante dans la phase pure par rapport à la glace à la température
du thermomètre recouvert de glace;
e’w (t) = tension de vapeur saturante de l’air humide par rapport à l’eau à la température du
thermomètre sec;
e’w (t w) = tension de vapeur saturante de l’air humide par rapport à l’eau à la température du
thermomètre mouillé;
e’i (t) = tension de vapeur saturante de l’air humide par rapport à la glace à la température du
thermomètre sec;
e’i (ti) = tension de vapeur saturante de l’air humide par rapport à la glace à la température du
thermomètre recouvert de glace;
U = humidité relative.
Note: f est en réalité une fonction à la fois de la pression et de la température, soit f = f (p, t), comme l’explique
S. Letestu dans l’introduction de la table 4.10 (OMM, 1966). Dans la pratique cependant, l’effet de la température
(±0,1 %) est bien inférieur à celui de la pression (entre 0 % et +0,6 %). C’est pourquoi il est admis d’omettre la
température dans la formule en question (voir aussi le chapitre 10 de la publication OMM (1989a)). Cette formule ne
devrait toutefois s’appliquer qu’à une pression d’environ 1 000 hPa (c’est‑à‑dire aux mesures en surface) et non pas aux
mesures en altitude pour lesquelles il convient d’utiliser la table 4.10 de la publication OMM (1966).
RÉFÉRENCES ET AUTRES LECTURES
Anderson, P.S., 1995: Mechanism for the behavior of hydroactive materials used in humidity sensors.
J. Atmos. Oceanic Technol., 12:662–667.
Bindon, H.H., 1965: A critical review of tables and charts used in psychrometry. Dans: Humidity and Moisture
(dir.: A. Wexler), Reinhold, New York, 1:3–15.
Ingleby, B., D. Moore, C. Sloan et R. Dunn, 2013: Evolution and Accuracy of Surface Humidity Reports.
J. Atmos. Oceanic Technol., 30:2025–2043.
Organisation météorologique mondiale, 1966: Tables météorologiques internationales (dir.: S. Letestu)
(modifiées en 1973) (OMM‑N° 188. TP. 94), Genève.
———, 1989a: WMO Assmann Aspiration Psychrometer Intercomparison (D. Sonntag). Instruments and
Observing Methods Report No. 34 (WMO/TD‑No. 289), Genève.
———, 1989b: WMO International Hygrometer Intercomparison (J. Skaar, K. Hegg, T. Moe et K. Smedstud).
Instruments and Observing Methods Report No. 38 (WMO/TD‑No. 316), Genève.
———, 1992: Measurement of Temperature and Humidity: Specification, Construction, Properties and Use of the
WMO Reference Psychrometer (R.G. Wylie et T. Lalas). Technical Note No. 194 (WMO‑No. 759),
Genève.
———, 2011a: Règlement technique (OMM‑N° 49), Volume I, Genève.
———, 2011b: WMO Field Intercomparison of Thermometer Screens/Shields and Humidity Measuring Instruments
(M. Lacombe, D. Bousri, M. Leroy et M. Mezred). Instruments and Observing Methods Report
No. 106 (WMO/TD‑No. 1579), Genève.
Sonntag, D., 1990: Important new values of the physical constants of 1986, vapour pressure formulations
based on the ITS‑90 and psychrometer formulae. Zeitschrift für Meteorologie, 40(5):340–344.
———, 1994: Advancements in the field of hygrometry. Zeitschrift für Meteorologie, 3(2):51–66.
Wexler, A. (dir.), 1965: Humidity and Moisture. Volumes 1 et 3, Reinhold, New York.
TABLE DES MATIÈRES DU CHAPITRE
Page
5.1 GÉNÉRALITÉS
5.1.1 Définition
Les définitions ci‑après sont utilisées dans le présent chapitre (voir Mazzarella, 1972, pour plus de
détails).
La vitesse du vent est une grandeur vectorielle tridimensionnelle caractérisée par des variations
aléatoires à petite échelle qui interviennent dans l’espace et dans le temps et qui se superposent à
un écoulement organisé de grande échelle. On l’envisage sous cet aspect au regard, notamment,
du transport des polluants et de l’atterrissage des aéronefs. Toutefois, pour les besoins du
présent guide, le vent en surface sera considéré principalement comme une quantité vectorielle
bidimensionnelle définie par deux nombres représentant respectivement la direction et la
vitesse. Les rafales sont des fluctuations rapides du vent dont l’importance est exprimée par leur
«intensité».
La plupart de ceux qui se servent de données anémométriques utilisent le vent horizontal moyen,
généralement représenté, dans le cas d’un système de coordonnées polaires, par la vitesse et la
direction. Toutefois, de plus en plus d’applications nécessitent également des informations sur
la variabilité du vent (ou l’intensité des rafales). À cet effet, on utilise trois grandeurs, à savoir la
rafale maximale et les écarts types de la vitesse et de la direction du vent.
Les grandeurs moyennes sont les moyennes de grandeurs (par exemple la vitesse horizontale du
vent) calculées sur une période de 10 à 60 minutes. Le présent chapitre traite essentiellement des
moyennes calculées sur des intervalles de 10 minutes comme pour la prévision. Les statistiques
climatiques exigent habituellement des moyennes pour chaque heure du jour et de la nuit.
Les applications aéronautiques nécessitent parfois qu’elles soient calculées sur des intervalles
plus courts (voir le chapitre 2 de la partie II). Des moyennes sur des périodes plus courtes que
quelques minutes ne permettent pas de lisser suffisamment les fluctuations turbulentes du vent.
Les «moyennes» d’une minute devraient donc être décrites comme des longues rafales.
La rafale maximale est la plus grande vitesse du vent observée sur une période de temps
déterminée. Dans le cas de relevés météorologiques horaires, elle correspond à la rafale la plus
forte enregistrée au cours de l’heure précédente.
La durée de rafale désigne la durée de la plus forte rafale observée (la rafale maximale). Cette
durée est fonction du temps de réponse du système de mesure. Les systèmes à réponse lente
n’enregistrent pas les valeurs extrêmes et mesurent donc les longues rafales régulières; quant aux
systèmes à réponse rapide, ils peuvent enregistrer les rafales de front d’ondes de courte durée.
Pour définir la durée de rafale, on utilise une chaîne de mesure théorique, c’est‑à‑dire un seul
filtre permettant d’obtenir une moyenne mobile sur t0 secondes du signal de vent entrant. Les
valeurs extrêmes observées après passage dans un tel filtre sont définies comme des rafales
maximales de durée t0. On dit que des systèmes de mesure équipés de divers éléments filtrants
enregistrent des rafales d’une durée t0 lorsqu’un filtre à moyenne mobile caractérisé par un
temps d’intégration t0 aurait produit une valeur extrême de même grandeur (pour plus de
détails, voir Beljaars (1987) et OMM (1987)).
su =
(( ) 2
)
= ∑ ui 2 − ( ∑ ui ) / n / n
( ui − U )2
(5.1)
où u est une variable dépendant du temps (par exemple, la vitesse horizontale du vent) de
moyenne U; la surbare indique qu’il s’agit d’une moyenne ponctuelle des n éléments ui de
l’échantillon. L’écart type sert à déterminer l’ampleur des variations d’un paramètre donné.
CHAPITRE 5. MESURE DU VENT EN SURFACE 177
La constante de temps (d’un système du premier ordre) est le temps nécessaire à un instrument
pour détecter et indiquer environ 63 % de la variation d’un échelon de la grandeur mesurée.
L’amortissement critique (d’un capteur, une girouette, par exemple, dont une équation
différentielle du deuxième ordre caractérise le mieux la réponse) est la valeur de l’amortissement
qui donne la réponse transitoire la plus rapide à un changement d’échelon sans qu’il y ait
dépassement.
La longueur d’onde naturelle non amortie est le passage de vent permettant à une girouette, en
l’absence d’amortissement, de parcourir une période de l’oscillation suscitée. Elle est inférieure à
la longueur d’onde «amortie» réelle d’un facteur √(1-D2) si D est le rapport d’amortissement.
Un vent variable sans direction moyenne est un vent dont la variation de la direction moyenne
durant les 10 minutes passées est comprise entre 60° et 180° et dont la vitesse est inférieure à
6 km/h (3 kt ou 3 nœuds) ou dont la variation totale est de 180° ou plus.
La vitesse du vent devrait être exprimée à 0,5 m s–1 près ou si elle est exprimée en nœuds
(0,515 m s–1) avec arrondi à l’unité la plus proche. Dans les rapports synoptiques, elle devrait
correspondre à la moyenne établie sur une période de dix minutes. On calcule parfois des
moyennes sur une période plus courte à certaines fins aéronautiques (voir le chapitre 2 de la
partie II).
Selon les codes traditionnels, la direction du vent devrait être exprimée en degrés vrais et
arrondie à la dizaine la plus proche, à l’aide du code 01, ..., 36 (ainsi, le code 02 signifie que la
direction du vent varie de 15 à 25°). Elle devrait en outre correspondre à la moyenne établie sur
une période de 10 minutes (voir le chapitre 2 de la partie II). En code BUFR, la direction du vent
devrait être exprimée en degrés vrais avec une résolution de 1°. La direction du vent est, par
définition, la direction d’où le vent souffle, mesurée dans le sens des aiguilles d’une montre à
partir du nord géographique, à savoir le nord vrai (basé sur le Système géodésique mondial 1984
(WGS‑84) et le Modèle gravimétrique de la Terre 1996 (EGM96)).
L’état de «calme» est associé à une vitesse moyenne du vent inférieure à 1 nœud. Dans ce cas, la
direction du vent est codée 00.
Les stations situées à moins de 1° du pôle Nord ou du pôle Sud devraient chiffrer leurs
observations de la direction du vent de telle manière que le limbe d’azimut soit orienté avec son
zéro coïncidant avec le méridien 0° de Greenwich.
Il faut disposer d’observations du vent pour surveiller et prévoir le temps, étudier le climat
sous l’angle de la charge exercée par le vent, établir la probabilité des dommages dus au vent
et évaluer l’énergie éolienne, dans le cadre de l’estimation des flux de surface (par exemple
l’estimation de l’évaporation aux fins d’applications concernant l’agriculture ou la dispersion
de la pollution atmosphérique). Les performances requises figurent à l’annexe 1.E du chapitre 1
de la partie I. Pour ce qui est de la vitesse horizontale, on s’accommode généralement d’une
exactitude de 0,5 m s–1 au‑dessous de 5 m s–1, et de plus de 10 % au‑dessus. Quant à la direction
du vent, elle devrait être mesurée avec une exactitude de 5°. Outre la vitesse et la direction
moyennes du vent, nombre d’applications nécessitent que l’on connaisse également les écarts
types et les valeurs extrêmes (voir la section 5.8.2). Les instruments modernes permettent
d’obtenir facilement l’exactitude requise. L’aspect le plus délicat de l’observation du vent
178 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
réside dans l’exposition des anémomètres. Comme il est presque impossible de trouver un
emplacement où la vitesse du vent soit représentative des vitesses relatives à une vaste région,
il est recommandé d’effectuer des estimations des erreurs liées à l’exposition (les critères à
respecter pour le choix de l’emplacement et l’exposition des instruments sont énoncés dans la
section 5.9 ainsi que dans l’annexe 1.B du chapitre 1 de la partie I).
Bon nombre d’applications nécessitent des informations sur l’intensité des rafales de vent:
prévision immédiate pour le décollage et l’atterrissage des aéronefs, climatologie fondée
sur la charge exercée par le vent, problèmes de dispersion des polluants atmosphériques et
correction selon l’exposition. Deux paramètres se prêtent aux observations courantes, à savoir
l’écart type de la vitesse et de la direction du vent et la rafale maximale sur trois secondes (voir
les recommandations 3 et 4 (CIMO‑X) formulées lors de la dixième session de la CIMO (OMM,
1990)).
Les instruments et techniques mentionnés ici ne représentent qu’une partie des instruments et
des techniques les plus commodes actuellement disponibles. Le présent chapitre ne fournit donc
pas une liste exhaustive dans ce domaine. Les références et lectures complémentaires données à
la fin du chapitre sont une bonne source pour de plus amples renseignements.
1 Très légère brise 1–3 0,3 – 1,5 1–5 1–3 La direction du vent est mise en
évidence par la dérive de la fumée,
mais non par les girouettes.
1 Très légère brise 1–3 0,3 – 1,5 1–5 1–3 Pas de vent perceptible; la fumée
s’élève presque verticalement.
Les capteurs qui sont brièvement décrits ci‑après sont des anémomètres rotatifs à coupes ou à
pales et des girouettes. On associe fréquemment une girouette et un anémomètre à coupes ou
à pales, ou encore seulement des anémomètres à pales. D’autres capteurs classiques, comme
le tube de Pitot, sont moins utilisés pour les observations courantes, mais peuvent donner des
résultats de qualité convenable. Avec le développement des techniques, d’autres appareils,
actuellement à l’étude ou employés uniquement pour les travaux de recherche, pourront
également être utilisés pour mener à bien ce genre d’observations.
Pour la presque totalité des applications, il est nécessaire de mesurer les moyennes de la vitesse et
de la direction du vent. Beaucoup d’applications nécessitent aussi des informations sur l’intensité
des rafales. Un dispositif de mesure du vent consiste donc non seulement en un capteur, mais
aussi en un système de traitement et d’enregistrement des données. Par traitement, on entend
le calcul des moyennes, des écarts types et des valeurs extrêmes. Sous sa forme la plus simple, ce
traitement peut s’effectuer en enregistrant le signal de vent au moyen d’un enregistreur à plume
et en estimant la moyenne et les valeurs extrêmes à partir du relevé ainsi obtenu.
C’est l’effet du vent sur des objets mobiles qui sert de base à l’estimation. Presque tout ce qui est
monté de façon à flotter librement sous l’action du vent peut remplir le rôle d’indicateur, mais on
trouvera particulièrement utiles les spécifications descriptives de l’échelle Beaufort de force du
vent reproduites dans les tableaux.
Pour procéder à l’estimation, l’observateur doit se tenir debout sur un terrain plat et dégagé,
aussi loin que possible de tout obstacle (il en est de même pour l’objet sensible au vent). Il ne
faut jamais oublier qu’un obstacle, même peu important, modifie sensiblement la vitesse et la
direction du vent, surtout sur sa face abritée du vent.
Si l’on ne dispose pas d’instruments ou que ceux‑ci sont hors service, il convient d’estimer la
direction du vent en observant le déplacement de la fumée qui sort d’une haute cheminée, le
CHAPITRE 5. MESURE DU VENT EN SURFACE 181
mouvement des feuilles, ou de tout autre objet semblable, dans un endroit dégagé ou encore
l’orientation d’une banderole ou d’un fanion fixé au sommet d’un grand mât. Sur un aéroport, on
peut en outre se fonder sur les indications des manches à air, à condition que la vitesse du vent
suffise à les mouvoir.
Quels que soient les moyens qu’il utilise, l’observateur pourra difficilement éviter les erreurs de
perspective s’il ne se place pas à l’aplomb de l’indicateur. Il devrait se garder de confondre les
tourbillons localisés occasionnés par des constructions ou d’autres obstacles avec la direction
générale du vent.
Dans des lieux découverts, la direction du vent en surface peut être estimée avec une exactitude
acceptable en se plaçant face au vent. Le sens de déplacement des nuages, si bas soient‑ils, ne
devrait pas être pris en considération.
Il faudrait renoncer à estimer les rafales maximales ou les écarts types si l’on ne dispose pas des
instruments et des dispositifs d’enregistrement appropriés.
Dans les stations où il n’est pas possible d’installer des anémomètres classiques, on peut
cependant utiliser certains instruments simples et peu coûteux qui permettent de faire des
observations un peu plus fiables que celles obtenues par simple estimation.
Si l’on utilise un anémomètre à main, il faudrait le placer et le lire conformément aux instructions
du fabricant. L’observation devrait être faite en un endroit bien exposé au vent, et non pas sous
le vent d’obstacles divers (constructions, arbres, buttes). Si cela n’est pas possible, il faudrait faire
en sorte que le lieu d’observation soit séparé de ces obstacles par une bonne distance, à savoir
au moins dix fois la hauteur de l’obstacle. Si l’obstacle est sous le vent de l’observateur ou disposé
latéralement, cette distance devrait être au moins égale à deux fois la hauteur de l’obstacle.
Pour estimer la direction du vent, on peut installer sur un poteau une girouette (ou une bannière)
munie de repères indiquant les principaux points de la rose des vents. L’observateur, placé
au‑dessous de la girouette, peut estimer la direction du vent en la rapportant au plus proche de
ces 16 points. Si la girouette oscille constamment, il convient d’estimer la direction moyenne de
part et d’autre de laquelle ces oscillations se produisent.
Pour déterminer la vitesse du vent, on utilise le plus souvent des anémomètres à coupes ou
à pales. Ces instruments sont constitués de deux sous‑ensembles: un dispositif rotatif (ou
moulinet) et un générateur de signaux. Dans les systèmes bien conçus, la vitesse angulaire
du moulinet à coupes ou à pales est directement proportionnelle à la vitesse du vent, ou plus
précisément, dans le cas du moulinet à pales, à la composante de la vitesse du vent parallèle à
l’axe de rotation. Ces anémomètres présentent également l’avantage d’avoir une réponse linéaire
quelle que soit la densité de l’air, un bon zéro et une grande stabilité; ils peuvent en outre être
facilement fabriqués en série. Lorsque la vitesse du vent est voisine du seuil de démarrage de
182 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
l’instrument (moins de 4 m s‑1), il peut arriver que les signaux ne soient pas du tout transmis de
manière linéaire si le bras de liaison de la coupe à l’axe de rotation est beaucoup plus long que le
diamètre de la coupe (Patterson, 1926).
La nature de la réponse des anémomètres à coupes et à pales aux variations de la vitesse du vent
peut être exprimée par la longueur de réponse, qui est directement proportionnelle au moment
d’inertie du moulinet et est en outre fonction d’un certain nombre de facteurs géométriques
(Busch et Kristensen, 1976; Coppin, 1982).
La plupart des anémomètres à coupes et à pales réagissent plus rapidement lorsque le vent croît
que lorsqu’il décroît, de sorte que la vitesse moyenne déterminée à partir de leurs indications
dépasse la vitesse moyenne réelle. De plus, il arrive que les variations de la vitesse verticale
du vent fassent tourner les anémomètres à coupes de façon excessive par suite de la moindre
interférence des coupes en cas d’écoulement oblique (MacCready, 1966). Cette survitesse peut,
au total, atteindre 10 % dans le cas de certains modèles et dans certaines conditions de vent
(anémomètre à coupes à longueur de réponse de 5 m installé à 10 m de hauteur en terrain très
accidenté; Coppin (1982)). Il est possible d’atténuer cet effet en utilisant des anémomètres à
réponse rapide, soit des anémomètres à coupe de conception vérifiée comme ayant une bonne
réponse, soit des hélices à pales qui ne présentent, en théorie, aucune tendance à la survitesse
liée à la composante verticale. Dans le cas où ces performances ne peuvent pas être étudiées
en soufflerie, les anémomètres opérationnels peuvent être comparés dans ce domaine avec un
anémomètre étalonné (Albers et al., 2000).
Parce que leur vitesse angulaire est directement proportionnelle à la vitesse du vent ou à sa
composante axiale, les anémomètres à coupes et à pales se prêtent particulièrement bien à
la transmission à l’aide d’une vaste gamme de générateurs de signaux. Des générateurs de
courant alternatif et continu, des générateurs d’impulsions optiques et magnétiques ainsi que
des cadrans et des enregistreurs indiquant le nombre de tours ont été utilisés (OMM, 2001). Le
choix du générateur de signaux, ou transducteur, dépend surtout du type de dispositif utilisé
pour le traitement et l’affichage des indications fournies. Il faudrait veiller à ce que les couples de
démarrage et de frottement des roulements et du générateur de signaux soient les plus faibles
possibles et que le moment d’inertie de ce dernier ne réduise pas exagérément la réponse. Pour
les transmissions à longue distance, les signaux de tension décroissent à cause des pertes dues à
la résistance du câble et ils sont alors inférieurs à la fréquence des signaux qui n’est pas affectée
durant la transmission.
Les caractéristiques nécessaires et réalisables pour les capteurs de vitesse du vent figurent à
l’annexe 1.E du chapitre 1 de la partie I.
5.5 GIROUETTES
Pour que les mesures soient satisfaisantes, il faut que la girouette soit bien équilibrée, c’est‑à‑dire
qu’elle ne prenne pas une position préférentielle lorsque son axe n’est pas vertical. Si la girouette
a plusieurs ailettes, il serait préférable qu’elles soient parallèles à son axe, car si deux ailettes font
un angle de plus de 10° avec cet axe, la girouette aura deux positions d’équilibre qui diffèrent
significativement de la direction réelle du vent (Wieringa et van Lindert, 1971).
On peut se fonder sur de nombreux principes physiques pour mesurer la vitesse et la direction du
vent, chacun d’eux ayant ses avantages et ses inconvénients particuliers. De nouveaux systèmes
ont été élaborés dans des buts précis comme la mesure des fluctuations à petite échelle et l’étude
de la pollution atmosphérique (voir, par exemple, Smith (1980)). Voici, ci‑dessous, d’autres types
de dispositifs:
a) Les anémomètres à tube de Pitot qui mesurent la surpression dans un tube maintenu dans
la direction du vent par une girouette (pour la description de l’anémomètre de Dines, voir
Gold (1936) et OMM (1984a)). Le système d’enregistrement traite le problème posé, pour
le calcul du vent moyen, par la nature quadratique de la relation entre la vitesse du vent et
la pression. Il fournit aussi des enregistrements utiles des rafales de vent sans demander
d’énergie électrique;
b) Les anémomètres soniques, qui mesurent le temps écoulé entre l’émission et la réception
d’une impulsion ultrasonique sur une distance fixe (Kaimal, 1980). Parce qu’ils n’ont
aucune partie mobile en raison de leur principe, ils ont une grande durabilité et une faible
détérioration de leur exactitude;
d) Les anémomètres à fil chaud mesurent le refroidissement de minces fils chauffés. Sur le plan
opérationnel, ils sont peu fiables, tant en raison de leur fragilité excessive que parce que leur
étalonnage change assez rapidement dans des environnements sales ou humides. Ils ne
sont pas recommandés pour une utilisation pendant les précipitations;
e) Les antiques girouettes à pales qui valent un peu mieux que si on n’a pas d’instrument du
tout;
Les pales, parce qu’elles ne réagissent qu’à la composante de la vitesse du vent qui est parallèle
à l’axe du moulinet, peuvent être montées perpendiculairement l’une à l’autre, de manière à
fournir deux valeurs directement proportionnelles aux composantes dans les directions des axes.
D’autres capteurs tels que les anémomètres acoustiques biaxiaux peuvent remplir les mêmes
fonctions pour peu qu’on leur ajoute des éléments électroniques plus complexes. Dans le cas
de pales perpendiculaires, il est toutefois difficile d’obtenir une réponse qui soit exactement
conforme à la loi du cosinus (c’est‑à‑dire la sensibilité à une seule composante). On peut aussi
utiliser un anémomètre à coupes associé à une girouette, ou encore une girouette à hélice,
comme dispositif constitutif lorsque les composantes de la vitesse sont calculées à partir des
valeurs mesurées de la vitesse et de la direction du vent.
Il existe bien des façons de traiter les signaux transmis par les anémomètres et les girouettes
et d’en faire la moyenne. Avant d’aborder les différents aspects de l’ensemble de la chaîne de
mesure du vent (exposition, détection, transmission, filtrage, enregistrement et traitement), nous
nous pencherons sur la question de la détermination du vent moyen. Pour les besoins du présent
guide, nous nous limiterons aux sorties suivantes: vent horizontal moyen (composantes de la
vitesse et de la direction du vent), écarts types et rafale maximale.
Cet effet de la turbulence du vent est souvent confondu avec la surestimation (survitesse),
provoquant une distorsion dans l’écart type su (voir la section 5.4)
En théorie, il vaut mieux faire la moyenne des composantes que de calculer séparément la
moyenne de la vitesse et de la direction. Les écarts sont toutefois minimes et, pour la plupart
des applications, les moyennes relatives aux composantes peuvent être facilement déduites des
moyennes de la vitesse et de la direction. Il en va de même des écarts types correspondants.
D’un point de vue technique, il est préférable de procéder à un traitement distinct de la vitesse et
de la direction, et cela pour un certain nombre de raisons: premièrement, ce traitement distinct
des signaux fait qu’un instrument peut continuer à remplir sa fonction si l’autre tombe en panne;
deuxièmement, la réduction des données soulève moins de difficultés que dans le cas où il faut
CHAPITRE 5. MESURE DU VENT EN SURFACE 185
faire des calculs pour les diverses composantes; et troisièmement, le traitement distinct de la
vitesse et de la direction est d’un usage courant (par exemple pour ce qui concerne les codages
SYNOP et SHIP).
Lorsque la vitesse et la direction du vent sont enregistrées sous la forme de graphiques continus,
un observateur est alors en mesure d’estimer avec une assez bonne exactitude les moyennes sur
dix minutes. Le tracé enregistré permet en outre de déterminer les rafales maximales. On peut
aussi se faire une idée de la vitesse du vent et de sa variabilité en observant un cadran ou un
compteur, mais les résultats obtenus sont trop entachés d’erreurs pour qu’on puisse en déduire
des moyennes fiables. Les instruments à cadran ou à compteur ne conviennent donc guère
lorsqu’il s’agit de calculer des moyennes sur dix minutes pour des bulletins météorologiques
standard.
Avant de préciser les caractéristiques adéquates des systèmes de mesure du vent en matière de
réponse, il est nécessaire de définir la durée de rafale requise par l’application envisagée. On
utilise les valeurs extrêmes essentiellement à des fins d’alerte et dans le cadre de la climatologie
des charges extrêmes qui s’exercent sur les bâtiments, les constructions et les aéronefs. Il faut
bien se rendre compte que les rafales les plus brèves n’ont ni le temps, ni l’ampleur horizontale
nécessaires pour que leur effet dommageable s’exerce pleinement sur les constructions
importantes. D’après la publication OMM (1987), la plupart des utilisateurs potentiels
s’accommodent d’une durée de rafale d’environ trois secondes. Des rafales qui persistent
pendant trois secondes environ correspondent à un «parcours du vent» (la durée multipliée
par la vitesse moyenne du vent) de l’ordre de 50 à 100 mètres dans des conditions de vent fort.
Cela suffit pour que le vent s’engouffre dans les ouvrages de dimensions ordinaires, de type
suburbain/urbain, et que ceux‑ci soient exposés à la pleine charge d’une rafale potentiellement
dommageable.
Lorsque l’on dispose de micro‑ordinateurs, il est facile de calculer l’écart type de la vitesse et de
la direction du vent en prélevant des échantillons des signaux à des intervalles d’environ une
seconde. La fréquence d’échantillonnage ne devrait pas être plus grande car le capteur lui‑même
fournit un lissage sur un multiple de sa propre longueur de réponse (Wieringa, 1980b). Une
fréquence d’échantillonnage de 0,25 Hz est adaptée dans la plupart des cas, mais tout dépend
de la longueur de réponse du capteur et de la vitesse du vent. Un exposé détaillé de la théorie de
l’échantillonnage des signaux des capteurs est donné dans le chapitre 2 de la partie IV.
Le calcul de l’écart type de la vitesse horizontale du vent sur un intervalle de 10 minutes en même
temps que la détection des rafales avec une durée de quelques secondes se traduit par des
exigences intéressantes concernant les filtres électroniques. En pratique, le système est optimisé
pour les rafales car elles sont l’élément le plus critique en matière de filtrage. N’importe quel filtre
passe‑bas utilisé pour la détection des rafales maximales mesurées par un anémomètre rapide,
186 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
avec un lissage sur quelques secondes, peut réduire l’écart type de près de 10 %. Cette réduction
peut être facilement corrigée, à condition que l’on connaisse bien le système de mesure et
l’ensemble des variables du filtre. Souvent, dans la pratique, la réduction est moindre car l’écart
type augmente si la vitesse moyenne du vent montre une tendance positive ou négative. Sinon,
le signal non filtré peut être enregistré séparément dans le but de mesurer un écart type non
biaisé. Des recommandations sont données dans la section suivante pour les systèmes de mesure
du vent avec des valeurs exactes pour les variables du filtre.
Pour mesurer avec exactitude les rafales maximales, il est préférable d’échantillonner le signal de
vent filtré tous les quarts de seconde (fréquence de 4 Hz). Il est possible d’adopter de plus faibles
fréquences d’échantillonnage, mais il faudrait comprendre qu’en ce cas les valeurs extrêmes
estimées seront généralement plus faibles, puisque le maximum dans le signal filtré peut se
produire entre deux valeurs échantillonnées.
Hormis l’amortissement inertiel des girouettes, tout filtrage supplémentaire devrait être évité lors
de la détermination de la direction du vent. Cela devrait permettre de déterminer l’écart type de
la direction du vent à 2 % près à l’aide de la plupart des girouettes utilisées.
La mesure exacte de l’écart type de la direction du vent nécessite une résolution minimale du
processus de numérisation, qui s’effectue d’ordinaire sur l’axe de la girouette au moyen d’un
codeur numérique. Une résolution de sept bits suffit, dans la mesure où un écart type de cinq
degrés peut être encore mesuré avec une exactitude de 1 % (OMM, 1987).
Il existe de nombreuses façons de concevoir des systèmes de mesure du vent, et il est impossible
de passer en revue toutes les solutions techniques envisageables dans le présent guide. On s’en
tiendra à deux exemples courants: l’un impliquant le traitement de signaux essentiellement
analogiques et l’autre, le traitement de signaux numériques (OMM, 1987).
Le deuxième système est constitué d’un anémomètre doté d’une longueur de réponse de
5 mètres, d’un générateur produisant une tension proportionnelle à la vitesse de rotation de
l’anémomètre, d’un convertisseur analogique‑numérique intervenant toutes les secondes et
d’un dispositif de traitement numérique des échantillons. La direction du vent est mesurée au
1
Formulées par la Commission des instruments et des méthodes d’observation lors de sa dixième session (1989).
CHAPITRE 5. MESURE DU VENT EN SURFACE 187
moyen d’une girouette, caractérisée par une longueur d’onde non amortie de 5 mètres et un
rapport d’amortissement de 0,3, d’un convertisseur analogique‑numérique intervenant toutes
les secondes et d’un dispositif de calcul numérique des moyennes et des écarts types. Pour
déterminer la rafale maximale, la tension est atténuée au moyen d’un filtre du premier ordre
caractérisé par une constante de temps d’une seconde, la conversion analogique‑numérique
intervenant tous les quarts de seconde. S’agissant du filtrage, ce système diffère légèrement
du premier en cela que les écarts types de la vitesse et de la direction du vent sont réduits de
12 % et 2 % respectivement, la durée de rafale s’établissant toujours à trois secondes environ. Le
convertisseur analogique‑numérique peut en outre être remplacé par un enregistreur à plume
raccordé à la sortie analogique. En ce cas, on ne peut obtenir que les moyennes et les valeurs
extrêmes; quant à la durée de rafale, elle est toujours d’environ trois secondes, à moins que
l’enregistreur réagisse plus lentement que le filtre du premier ordre.
La hauteur standard des instruments anémométriques utilisés en terrain plat et dégagé est
de 10 m au‑dessus du sol. Un terrain dégagé est défini comme un terrain où la distance entre
l’anémomètre et un quelconque obstacle est au moins égale à dix fois la hauteur de cet obstacle.
Les observations du vent qui sont faites dans le sillage direct de rangées d’arbres, de bâtiments
ou de tout autre obstacle sont peu fiables et renseignent peu sur le vent non perturbé. Comme le
sillage peut s’étendre, en aval d’un obstacle, sur une distance égale à 12 à 15 fois la hauteur de cet
obstacle, l’exigence d’un éloignement correspondant à 10 fois la hauteur de l’obstacle constitue
un minimum absolu. En pratique, il est souvent difficile de trouver un emplacement convenable,
ou même simplement acceptable, pour y installer une station anémométrique. On n’insistera
jamais assez sur l’importance du choix d’un emplacement optimal, même s’il est difficile de
donner à ce sujet des principes directeurs universels. Il est toutefois possible, dans certains
188 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
cas, de corriger les données afin de compenser largement l’influence exercée par les obstacles,
comme suit:
a) Les obstacles se trouvent à une distance plus de 30 fois supérieure à leur hauteur: aucune
correction n’est nécessaire;
b) Les obstacles se trouvent à une distance plus de 20 fois supérieure à leur hauteur: les
données peuvent faire l’objet d’une correction;
c) Les obstacles se trouvent à une distance plus de 10 fois supérieure à leur hauteur: les
données peuvent dans certains cas être corrigées, mais avec précaution.
Si la distance entre l’anémomètre et l’obstacle est inférieure à 20 fois la hauteur de cet obstacle, le
degré d’erreur associé à la valeur mesurée avant correction peut atteindre 25 %. Si cette distance
est égale à environ 10 fois la hauteur de l’obstacle, la valeur mesurée peut même parfois indiquer
la direction opposée.
Des précisions sur la correction des effets de l’exposition sont données au paragraphe 5.9.4.
Tableau 5.3. Classification des sites d’observation du vent en fonction de leur emplacement et
de leur exposition
Distance entre le
Distance entre les capteurs et les Ignorer les obstacles
pylône et les obstacles
Classe obstacles étroitsb Indice de rugositéc isolés de hauteur
environnementauxa
(hauteur > 8 m, largeur l) inférieure à x m
(hauteur h)
1 ≥ 30 h ≥ 15 l 2 – 4 (longueur de x=4
rugosité ≤ 0,1 m)
2 ≥ 10 h ≥ 15 l 2 – 5 (longueur de x=4
rugosité ≤ 0,25 m)
3 ≥5h ≥ 10 l x=5
Notes:
a On entend par obstacle tout objet dont la largeur angulaire est supérieure à 10°.
b Les mâts, les arbres fins et les lampadaires sont quelques exemples d’obstacles étroits.
c La rugosité est définie dans l’annexe du présent chapitre.
Deux aspects sont particulièrement importants. Premièrement, il faudrait veiller à ce que les
instruments restent autant que possible à l’écart des perturbations locales. Lorsque des mesures
de vent sont prises sur le côté de mâts ou de tours plutôt qu’à leur sommet, les instruments
devraient être placés sur des flèches d’une longueur égale à au moins trois fois la largeur des
mâts ou des tours (Gill et al., 1967). Lorsque les instruments de mesure du vent sont placés
au‑dessus d’un bâtiment, ils devraient être élevés, au‑dessus de son sommet, d’au moins une
fois la largeur du bâtiment. Deuxièmement, il faudrait sérieusement se documenter au sujet de
ces perturbations (Wieringa, 1983). Il devrait exister au moins un plan des environs de la station
dans un rayon de 2 km, avec des informations sur la localisation et la hauteur des obstacles et
CHAPITRE 5. MESURE DU VENT EN SURFACE 189
de la végétation, les changements d’altitude du terrain, et ainsi de suite. Les changements dans
l’environnement, tels que la construction de bâtiments ou la croissance des arbres à proximité,
devraient être explicitement enregistrés dans les registres de la station. L’instrumentation de la
station devrait être spécifiée de façon détaillée.
Lorsqu’il est impossible d’obtenir une exposition standard, il convient d’installer l’anémomètre
à une hauteur telle que ses indications ne soient pas trop influencées par la présence d’obstacles
locaux et qu’elles décrivent, dans toute la mesure possible, ce que le vent serait à 10 mètres
s’il n’y avait pas d’obstacles à proximité. Si le terrain varie peu selon l’azimut, on peut placer
l’anémomètre à une hauteur qui dépasse les 10 mètres standard d’une quantité dépendant de la
rugosité de surface effective z0 du terrain environnant (voir l’annexe): autour de 13 m si z0 = 0,1 m
et de 19 m si z0 = 0,5 m. Wieringa (1980b) a montré que la méthode consistant à surélever
l’anémomètre s’avère insuffisante si les obstacles locaux sont répartis de façon très inégale selon
l’azimut. Des méthodes de calcul simples permettent de nos jours de cerner avec précision
l’incidence de la topographie locale (Walmsley et al., 1990), et l’on peut recourir à la climatologie
des observations relatives aux rafales pour déterminer les corrections dans un environnement
hétérogène (Verkaik, 2000). Le problème pour les zones urbaines est abordé dans Evans et Lee
(1981) et Grimmond et al. (1998); voir aussi le chapitre 9 de la partie II.
Des précautions spéciales sont à prendre afin de préserver les instruments anémométriques des
accumulations de givre et de glace. En certains endroits, il peut être judicieux de prévoir une
forme quelconque de chauffage artificiel pour les parties exposées, par exemple un radiateur à
infrarouge équipé d’un thermostat. Il existe des écrans de protection contre le givre et la glace
pour des types particuliers d’instruments anémométriques (voir Curran et al., 1977).
La nécessité de mesurer le vent en mer s’impose de plus en plus, surtout au moyen de systèmes
automatiques sans surveillance (voir aussi le chapitre 4 de la partie II). Cette tâche soulève des
problèmes particuliers, puisqu’il n’est pas toujours possible de respecter la hauteur d’exposition
standard de 10 m prescrite pour les instruments installés à terre, en raison de l’état de la mer et/
ou de la marée. En procédant par simple extrapolation des critères d’exposition en vigueur sur
la terre ferme, on pourrait penser qu’il suffit, sur une bouée ancrée, d’installer l’anémomètre
10 mètres au‑dessus de la ligne de flottaison de cette dernière. Il existe cependant des sources
d’erreur plus importantes que celles découlant des variations de la hauteur d’exposition
(pour un compte rendu, voir OMM (1981)). Dans le cas des plates‑formes et des navires, il est
extrêmement important que les capteurs soient placés assez haut au‑dessus de la plate‑forme
et de sa superstructure, afin de limiter l’influence souvent considérable de ces éléments sur
la structure locale du vent. En règle générale, rien ne permet d’affirmer qu’un instrument
anémométrique n’est pas influencé par la plate‑forme où il se trouve, même s’il est installé au
moins 10 m au‑dessus de l’obstacle le plus élevé, à moins que cette plate‑forme soit relativement
petite. Le rapport OMM (1981) conclut que, pour obtenir des mesures précises et exploitables
en mer, une bonne exposition devrait primer sur la normalisation des observations à 10 m de
hauteur (OMM, 1989). En pratique, malgré tout le soin apporté au choix de l’emplacement des
instruments, il est souvent impossible d’éviter les erreurs afférentes à l’exposition. Pour que les
corrections liées à la hauteur et aux perturbations de l’écoulement puissent être effectuées, il
importe de faire un relevé et de réunir des informations détaillées au sujet de l’emplacement
de l’anémomètre et du type de plate‑forme ou de navire (forme, dimensions). Si la vitesse du
vent est mesurée à une hauteur significativement supérieure à 10 m (à savoir, lorsque le facteur
de réduction approprié serait supérieur à 1,2), une réduction au niveau de 10 m devrait être
effectuée conformément aux procédures recommandées dans le paragraphe suivant, et en
utilisant la constante donnée pour la rubrique «pleine mer» dans le tableau de l’annexe.
190 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il est rare que les observations du vent en surface ne suscitent pas des problèmes d’exposition.
Il est difficile de trouver un terrain plat et dégagé, et la plupart des stations anémométriques
terrestres sont perturbées par des particularités du relief, du couvert superficiel ou de ces deux
éléments à la fois (OMM, 1987; Wieringa, 1996).
Il est manifeste que les erreurs résultant de l’exposition embarrassent les utilisateurs de données
anémométriques et rendent souvent ces données inutilisables. Ce problème est particulièrement
grave dans le cas des modèles de prévision numérique, où les champs de vent et de pression
sont d’ordinaire analysés séparément. Les vents de surface ne peuvent toutefois être utilisés pour
l’initialisation que s’ils sont représentatifs à l’échelle d’une vaste zone. Cela oblige donc à éliminer
les erreurs dues à l’exposition locale ou à une hauteur d’observation non conforme.
Si la vitesse du vent U est mesurée à la hauteur z, la vitesse corrigée Uc qui serait indiquée
localement à 10 m au‑dessus d’un terrain de rugosité z0 s’exprime par:
ln (10 / z0u ) ln ( 60 / z0u ) ln (10 / z0 )
U c = U ⋅ CF ⋅ CT ⋅ ⋅ (5.3)
ln ( z / z0u ) ln (10 / z0u ) ln ( 60 / z0 )
où CF est la correction de la distorsion du flux; CT, le facteur de correction relatif aux effets
topographiques; z0u, la longueur de rugosité du terrain situé en amont de la station et z0, la
longueur de rugosité propre à l’application (par exemple une valeur de la grille du maillage
dans le cas d’un modèle de prévision numérique). Dans cette équation, z, z0 et z0u doivent être
exprimés en mètres. La signification des différents facteurs de correction est la suivante:
b) Correction topographique: cette correction concerne les effets du relief autour de la station
anémométrique. CT est le rapport entre la vitesse moyenne du vent à l’échelle régionale
(calculée à partir des observations effectuées sur les crêtes et dans les vallées à 10 m de
hauteur au‑dessus du sol) et la vitesse du vent observée à la station. Dans le cas d’une
station installée au sommet d’une colline isolée, CT devrait être inférieur à 1 pour corriger
l’augmentation de la vitesse suscitée par ce relief et rendre ainsi le résultat représentatif
des conditions régnant dans l’ensemble de la région, et pas seulement en haut de la colline
en question. En terrain plat, CT est égal à 1. Dans le cas de collines et de crêtes isolées, des
directives simples permettent de procéder à des estimations de CT (Taylor et Lee, 1984).
Lorsque le relief est plus complexe, il faut alors recourir à des calculs réalisés à l’aide de
modèles sur la base de cartes topographiques détaillées du terrain entourant les stations
anémométriques (Walmsley et al., 1990). Ces calculs, d’une assez grande complexité, ne
doivent cependant être effectués qu’une fois pour chaque station et conduisent à établir
une table quasi permanente des valeurs de CT en fonction de la direction du vent;
CHAPITRE 5. MESURE DU VENT EN SURFACE 191
c) Hauteur d’observation non standard: cet effet est simplement corrigé en retenant
l’hypothèse d’un profil logarithmique allié à la longueur de rugosité z0u du terrain situé en
amont. Pour les stations installées en mer, cette réduction à la hauteur standard peut être
importante, mais les corrections relatives à la stabilité sont en ce cas relativement minimes,
ce qui justifie le caractère logarithmique de ce facteur de correction;
d) Effets de la rugosité: il est possible de corriger les effets de la rugosité du terrain situé
en amont ainsi que ceux des obstacles se trouvant à la surface en procédant à une
extrapolation logarithmique de la vitesse du vent jusqu’à une hauteur de 60 mètres avec la
longueur de rugosité z0u propre à la station, puis à une interpolation à 10 mètres de hauteur
avec la longueur de rugosité z0 que nécessite l’application. La longueur de rugosité z0u
devrait être représentative des conditions qui règnent dans un fetch de 2 km au vent de la
station anémométrique, et sa valeur varie généralement selon la direction du vent. L’annexe
donne des indications pour estimer z0u.
Si la distorsion des flux et les problèmes de topographie sont négligeables ou ont été corrigés,
il faut appliquer les corrections d’exposition (c) à (d) par la formule (5.3) avec z = 10 m et
z0 = 0,03 m. Les vitesses de vent corrigées seront alors équivalentes à celles qui seraient mesurées
à une station anémométrique locale hypothétique entièrement conforme aux exigences de
l’OMM (10 m en terrain découvert). Les vitesses du vent corrigées de cette manière sont
appelées vitesses de vent potentielles (OMM, 2001). Deux remarques sont à faire ici. En premier
lieu, cette hauteur de 60 m ne devrait pas être considérée comme intangible. Toute hauteur
située entre 40 et 80 mètres aurait aussi bien été acceptable; 60 mètres représentent à peu près la
hauteur correcte eu égard au fetch de 2 km pour lequel z0u est représentatif, et il s’est avéré que
les résultats obtenus avec cette hauteur étaient satisfaisants (Wieringa, 1986). Deuxièmement,
on ne peut négliger les corrections des profils du vent liées à la stabilité dans l’intervalle compris
entre 10 et 60 m de hauteur. Si, dans la présente formule, l’effet de la stabilité est relativement
faible, c’est que les corrections liées à ce facteur qui interviennent lors de l’extrapolation vers
le haut et de l’interpolation vers le bas s’annulent approximativement. Un exemple pratique
de l’application de la correction des mesures de vent dans un contexte opérationnel est donné
dans OMM (2000) et OMM (2001). Bien que la plupart des corrections des effets de l’exposition
puissent être directement appliquées aux mesures, aussi bien les valeurs non corrigées (niveau I)
que les valeurs corrigées (niveau II) doivent être diffusées.
Ce n’est qu’en soufflerie aérodynamique qu’on peut étalonner avec une pleine efficacité
les girouettes et les anémomètres à coupes et à pales. Toutefois, les performances de ces
instruments sont maintenant bien connues et, pour peu qu’ils soient en bon état, on peut
d’ordinaire se fier à l’étalonnage indiqué par le fabricant. Les essais en soufflerie ne sont utiles
que dans le cas de projets spéciaux ou d’essai de nouveaux modèles. Le lecteur se réfèrera aux
normes de l’Organisation internationale de normalisation (ISO 16622:2002 et ISO 17713‑1:2007)
pour obtenir de plus amples informations à ce sujet.
Sur le terrain, les anémomètres peuvent se détériorer, et il est judicieux de les inspecter
régulièrement. Un endommagement matériel, le frottement des roulements (par pénétration de
poussières) ou une altération du processus de transduction (par exemple une perte d’efficacité
d’un générateur à coupes ou à pales par suite d’une usure des balais) peuvent provoquer une
modification des caractéristiques de l’instrument et entraîner une dégradation de la qualité des
données anémométriques.
En mer, la tâche est relativement simple du fait de l’uniformité du fetch. Il est possible d’appliquer
la relation dite de Charnock, qui permet d’exprimer la rugosité surfacique de la mer en fonction
de la vitesse de frottement u* et de l’accélération de la pesanteur g à l’aide de la formule
z0u = α u*2/g, où α est une constante empirique approximativement égale à 0,014. La vitesse
de frottement est liée au profil de vent neutre par la formule U(z) = (u*/κ) ln (z/z0u) où κ est la
constante de Von Karman (0,4) et z, la hauteur d’observation. Ces deux équations doivent être
résolues par itération, ce qui peut être réalisé en commençant avec z0u = 0,000 1, puis en calculant
u* à partir du profil logarithmique, en évaluant de nouveau z0u et en répétant l’opération un petit
nombre de fois.
Sur la terre ferme, la longueur de rugosité en surface, qui dépend du couvert superficiel et
du mode d’utilisation des sols, est par conséquent difficile à estimer. Une façon subjective de
déterminer z0u consiste à effectuer un relevé du terrain autour de la station anémométrique grâce
aux indications du tableau ci‑dessous dont la validité a été récemment corroborée (Davenport
et al., 2000). Le plus commode est de délimiter des secteurs de direction du vent de 30° sur une
distance de 2 km. Lorsque les conditions de fetch sont très hétérogènes, il convient de définir une
rugosité efficace en faisant la moyenne des diverses valeurs de ln (z0u), plutôt que de z0u même.
La meilleure façon de déterminer la valeur de z0u consiste à tirer parti de la climatologie des écarts
types sur une période d’une année environ. Les écarts types de la vitesse et de la direction du
vent étant liés à la rugosité en amont sur une distance de quelques kilomètres, on peut les utiliser
pour obtenir une estimation objective de z0u. Connaissant su, l’écart type de la vitesse du vent, et
sd, l’écart type de la direction du vent (en radians), il est possible d’utiliser les formules suivantes:
−1
su U = cuκ ln ( z z0u ) 5.A.1
−1
sd U = cvκ ln ( z z0u ) 5.A.2
où cu = 2,2, c v = 1,9 et κ = 0,4 pour des mesures non filtrées de su et sd. Dans le cas des systèmes
de mesure décrits à la section 5.8.3, l’écart type de la vitesse du vent est filtré d’environ 12 %
et celui de la direction du vent, d’environ 2 %, ce qui implique des valeurs moindres de cu et c v,
s’établissant respectivement à 1,94 et 1,86. Pour pouvoir appliquer les équations ci‑dessus, il est
nécessaire de choisir des situations de vent fort (U > 4 m s–1) et de faire la moyenne de su/U et/ou
de sd en utilisant toutes les données disponibles, et cela par secteur de direction du vent (30° par
secteur) et par saison (la rugosité de surface est par exemple fonction de la densité du feuillage
des arbres). Les valeurs de z0u peuvent être alors déterminées à l’aide des équations ci‑dessus, la
comparaison des résultats obtenus à partir de su et de sd donnant quelque idée de l’exactitude
atteinte.
Dans le cas où aucune information sur l’écart type n’est disponible, mais que les rafales
maximales par période de calcul de la vitesse moyenne du vent (10 min ou 1 heure) sont
déterminées, les rapports des rafales maximales aux moyennes relatives aux mêmes périodes
(facteurs de rafales) peuvent être utilisés pour déterminer z0u (Verkaik, 2000). La connaissance de
la dynamique des systèmes, à savoir la longueur de réponse du capteur et le temps de réponse
de la chaîne d’enregistrement, sont nécessaires pour cette approche.
194 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Ackermann, G.R., 1983: Means and standard deviations of horizontal wind components. Journal of Climate
and Applied Meteorology, 22:959–961.
Albers, A., H. Klug et D. Westermann, 2000: Outdoor comparison of cup anemometers. DEWI Magazin,
No. 17.
Beljaars, A.C.M., 1987: The influence of sampling and filtering on measured wind gusts. Journal of
Atmospheric and Oceanic Technology, 4:613–626.
Busch, N.E. et L. Kristensen, 1976: Cup anemometer overspeeding. Journal of Applied Meteorology,
15:1328–1332.
Coppin, P.A., 1982: An examination of cup anemometer overspeeding. Meteorologische Rundschau, 35:1–11.
Curran, J.C., G.E. Peckham, D. Smith, A.S. Thom, J.S.G. McCulloch et I.C. Strangeways, 1977: Cairngorm
summit automatic weather station. Weather, 32:60–63.
Davenport, A.G., 1960: Rationale for determining design wind velocities. Journal of the Structural Division,
American Society of Civil Engineers, 86:39–68.
Davenport, A.G., C.S.B. Grimmond, T.R. Oke et J. Wieringa, 2000: Estimating the roughness of cities and
sheltered country. Preprints of the Twelfth American Meteorological Society Conference on Applied
Climatology (Asheville, Caroline du Nord, États‑Unis d'Amérique), p. 96–99.
Evans, R.A. et B.E. Lee, 1981: The problems of anemometer exposure in urban areas: a wind‑tunnel study.
Meteorological Magazine, 110:188–189.
Frenkiel, F.N., 1951: Frequency distributions of velocities in turbulent flow. Journal of Meteorology,
8:316–320.
Gill, G.C., L.E. Olsson, J. Sela et M. Suda, 1967: Accuracy of wind measurements on towers or stacks. Bulletin
of the American Meteorological Society, 48:665–674.
Gold, E., 1936: Wind in Britain: The Dines anemometer and some notable records during the last 40 years.
Quarterly Journal of the Royal Meteorological Society, 62:167–206.
Grimmond, C.S.B., T.S. King, M. Roth et T.R. Oke, 1998: Aerodynamic roughness of urban areas derived
from wind observations. Boundary‑Layer Meteorology, 89:1–24.
Kaimal, J.C., 1980: Sonic anemometers. Dans: Air‑sea Interaction: Instruments and Methods (dir.: F. Dobson,
L. Hasse et R. Davis). Plenum Press, New York, p. 81–96.
Lenschow, D.H. (dir.), 1986: Probing the Atmospheric Boundary Layer. American Meteorological Society,
Boston.
MacCready, P.B., 1966: Mean wind speed measurements in turbulence. Journal of Applied Meteorology,
5:219–225.
MacCready, P.B. et H.R. Jex, 1964: Response characteristics and meteorological utilization of propeller and
vane wind sensors. Journal of Applied Meteorology, 3:182–193.
Makinwa, K.A.A., J.H. Huijsing et A. Hagedoorn, 2001: Industrial design of a solid‑state wind sensor.
Proceedings of the First ISA/IEEE Conference (Houston, novembre 2001), p. 68–71.
Mazzarella, D.A., 1972: An inventory of specifications for wind‑measuring instruments. Bulletin of the
American Meteorological Society, 53:860–871.
Mollo‑Christensen, E. et J.R. Seesholtz, 1967: Wind tunnel measurements of the wind disturbance field of a
model of the Buzzards Bay Entrance Light Tower. Journal of Geophysical Research, 72:3549–3556.
Organisation internationale de normalisation, 2002: Météorologie – Anémomètres/thermomètres
soniques – Méthodes d'essai d'acceptation pour les mesurages de la vitesse moyenne du
vent, ISO 16622:2002, Genève.
———, 2007: Météorologie – Mesurages du vent – Partie 1: Méthodes d'essai en soufflerie pour déterminer les
caractéristiques d'un anémomètre tournant, ISO 17713‑1:2007, Genève.
Organisation météorologique mondiale, 1981: Review of Reference Height for and Averaging Time of Surface
Wind Measurements at Sea (F.W. Dobson). Marine Meteorology and Related Oceanographic
Activities Report No. 3, Genève.
———, 1984a: Recueil de notes de cours pour la formation professionnelle des personnels météorologiques de la
classe IV (B.J. Retallack) (OMM‑N° 266), Volume II, Genève.
———, 1984b: Distortion of the wind field by the Cabauw Meteorological Tower (H.R.A. Wessels), Papers
Presented at the WMO Technical Conference on Instruments and Cost‑effective Meteorological
Observations (TECEMO), Instruments and Observing Methods Report No. 15, Genève.
———, 1987: The Measurement of Gustiness at Routine Wind Stations: A Review (A.C.M. Beljaars), Instruments
and Observing Methods Report No. 31, Genève.
196 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
———, 1989: Wind Measurements Reduction to a Standard Level (R.J. Shearman et A.A. Zelenko), Marine
Meteorology and Related Oceanographic Activities Report No. 22 (WMO/TD‑No. 311),
Genève.
———, 1990: Rapport final abrégé de la dixième session de la Commission des instruments et des méthodes
d’observation (OMM‑N° 727), Genève.
———, 1991: Guidance on the Establishment of Algorithms for Use in Synoptic Automatic Weather Stations:
Processing of Surface Wind Data (D. Painting), Report of the CIMO Working Group on Surface
Measurements, Instruments and Observing Methods Report No. 47 (WMO/TD‑No. 452),
Genève.
———, 2000: Wind measurements: Potential wind speed derived from wind speed fluctuations
measurements, and the representativity of wind stations (J.P. van der Meulen), Papers Presented
at the WMO Technical Conference on Meteorological and Environmental Instruments and Methods of
Observation (TECO‑2000), Instruments and Observing Methods Report No. 74
(WMO/TD‑No. 1028), Genève.
———, 2001: Lecture Notes for Training Agricultural Meteorological Personnel (J. Wieringa et J. Lomas)
(WMO‑No. 551), Genève.
———, 2011: Manuel des codes (OMM‑N° 306), Volume I.1, Genève.
Patterson, J., 1926: The cup anemometer. Transactions of the Royal Society of Canada, 20(III):1–54.
Smith, S.D., 1980: Dynamic anemometers. Dans: Air‑sea Interaction: Instruments and Methods (dir.: F. Dobson,
L. Hasse et R. Davis), Plenum Press, New York, p. 65–80.
Taylor, P.A. et R.J. Lee, 1984: Simple guidelines for estimating wind speed variations due to small scale
topographic features. Climatological Bulletin, Canadian Meteorological and Oceanographic
Society, 18:3–22.
Van Oudheusden, B.W. et J.H. Huijsing, 1991: Microelectronic thermal anemometer for the measurement of
surface wind. Journal of Atmospheric and Oceanic Technology, 8:374–384.
Verkaik, J.W., 2000: Evaluation of two gustiness models for exposure correction calculations. Journal of
Applied Meteorology, 39:1613–1626.
Walmsley, J.L., I.B. Troen, D.P. Lalas et P.J. Mason, 1990: Surface‑layer flow in complex terrain: Comparison
of models and full‑scale observations. Boundary‑Layer Meteorology, 52:259–281.
Wieringa, J., 1967: Evaluation and design of wind vanes. Journal of Applied Meteorology, 6:1114–1122.
———, 1980a: A revaluation of the Kansas mast influence on measurements of stress and cup anemometer
overspeeding. Boundary‑Layer Meteorology, 18:411–430.
———, 1980b: Representativeness of wind observations at airports. Bulletin of the American Meteorological
Society, 61:962–971.
———, 1983: Description requirements for assessment of non‑ideal wind stations, for example Aachen.
Journal of Wind Engineering and Industrial Aerodynamics,11:121–131.
———, 1986: Roughness‑dependent geographical interpolation of surface wind speed averages. Quarterly
Journal of the Royal Meteorological Society, 112:867–889.
———, 1996: Does representative wind information exist? Journal of Wind Engineering and Industrial
Aerodynamics, 65:1–12.
Wieringa, J. et F.X.C.M. van Lindert, 1971: Application limits of double‑pin and coupled wind vanes. Journal
of Applied Meteorology, 10:137–145.
Wyngaard, J.C., 1981: The effects of probe‑induced flow distortion on atmospheric turbulence
measurements. Journal of Applied Meteorology, 20:784–794.
TABLE DES MATIÈRES DU CHAPITRE
Page
6.1 GÉNÉRALITÉS
Le présent chapitre décrit les méthodes les plus courantes utilisées pour la mesure des
précipitations dans les stations au sol.
Il porte aussi sur les mesures de l’intensité des précipitations (en particulier celles du taux de
pluviosité ou intensité des pluies), qui sont de plus en plus demandées dans le cadre d’études sur
la configuration, la modélisation et la prévision des pluies.
Le présent chapitre ne traite pas des mesures destinées à définir la structure et le caractère des
précipitations ni de celles qui requièrent des instruments spécialisés ou qui ne relèvent pas des
observations météorologiques classiques (par exemple, la distribution des gouttes selon leurs
dimensions). Les mesures en mer et celles qui se fondent sur des radars sont examinées dans la
partie II, respectivement au chapitre 4 et au chapitre 7, tandis que les observations à partir de
l’espace sont examinées dans la partie III.
Des informations sur la mesure des précipitations comprenant plus de détails sur la mesure de
l’épaisseur de la neige sont données dans les documents OMM (1992a, 1998).
Le problème général de la représentativité des mesures se pose tout particulièrement dans le cas
des précipitations. Pour mesurer celles‑ci, les éléments les plus sensibles sont l’exposition, le vent
et la topographie. Les métadonnées sur les circonstances des mesures sont donc précieuses pour
les utilisateurs des données.
Lors de la planification des réseaux, il convient de tenir compte du fait qu’utiliser un seul type de
pluviomètres et appliquer les mêmes critères pour la sélection de tous les sites rend l’analyse des
données pluviométriques beaucoup plus simple et plus fiable.
6.1.1 Définitions
On entend par «intensité des précipitations» la quantité de précipitations recueillies par unité
de temps. Selon cette définition, les données relatives à l’intensité des précipitations peuvent
se calculer à partir de la hauteur des précipitations mesurée à l’aide d’un pluviomètre ordinaire.
Dans ce sens, l’intensité des précipitations est un paramètre secondaire, déduit du paramètre
primaire qu’est la hauteur des précipitations. L’intensité des précipitations peut toutefois aussi se
mesurer directement (voir la section 6.1.4.1).
Les mesures quotidiennes devraient être effectuées à heures fixes, en définissant les mêmes
heures pour l’ensemble du ou des réseaux présentant un intérêt. Les hauteurs inférieures à
0,1 mm (0,2 mm aux États‑Unis) sont généralement considérées comme des traces.
L’unité de mesure des chutes de neige est le centimètre (et le dixième de centimètre), par pas
de 0,2 cm. Une hauteur de neige inférieure à 0,2 cm est habituellement considérée comme une
trace. La hauteur de neige au sol est généralement mesurée quotidiennement au centimètre
près.
L’intensité des pluies s’exprime en hauteur par unité de temps – le plus souvent, en millimètres
par heure (mm h–1). On la mesure ou la calcule en général en hauteur par minute du fait de la
grande variabilité de l’intensité d’une minute à l’autre.
L’annexe 1.E du chapitre 1 de la partie I donne l’ordre de grandeur des exigences en matière de
précision, de gamme et de résolution des mesures de précipitations. Il est possible d’atteindre
une marge d’incertitude de 5 % ou de 0,1 mm (la plus grande des deux valeurs) pour les
relevés quotidiens; de 1 cm pour la hauteur de neige; ainsi que, pour les précipitations sur le
terrain, de 5 mm h–1 pour les intensités inférieures ou égales à 100 mm h–1 et de 5 % pour les
intensités supérieures à 100 mm h–1 (toujours avec un niveau de confiance de 95 %). De plus,
pour l’intensité des précipitations, l’annexe 1.E du chapitre 1 de la partie I indique les marges
d’incertitude réalisables dans des conditions de débit constant en laboratoire (5 % au‑dessus de
2 mm h–1 ou 2 % au‑dessus de 10 mm h–1).
En général, les valeurs sont relevées toutes les heures, toutes les trois heures ou tous les jours, à
des fins synoptiques, climatologiques et hydrologiques. Dans certains cas, en particulier lorsqu’il
s’agit de concevoir ou d’exploiter des installations de drainage urbain, de prévoir ou d’atténuer
des crues soudaines, de prendre des mesures de sécurité pour un voyage ou, d’un point de
vue général, lorsque des données pluviométriques doivent être obtenues en temps réel, des
relevés beaucoup plus fréquents sont nécessaires pour mesurer les intensités de précipitation
très élevées sur de très brèves périodes (avec en général un relevé par minute). Pour d’autres
applications, des pluviomètres totalisateurs sont relevés à des intervalles de plusieurs semaines
ou de plusieurs mois, voire d’une année dans les zones de montagne ou les déserts.
6.1.4.1 Instruments
Les capteurs de précipitations (ou les pluviomètres si seules les précipitations liquides sont
mesurées) sont les instruments le plus couramment utilisés pour mesurer les précipitations. On
utilise en général un collecteur ouvert à parois verticales, ayant le plus souvent la forme d’un
cylindre droit, surmonté d’un entonnoir lorsque l’objectif principal est la mesure de la pluie. La
forme et les dimensions des collecteurs de même que les hauteurs d’installation des pluviomètres
variant d’un pays à l’autre, il n’est guère possible de comparer précisément les mesures obtenues
(OMM, 1989a). On mesure les précipitations recueillies en déterminant leur volume ou (surtout
pour les précipitations solides) leur poids. La surface de captage du pluviomètre peut se trouver
à une hauteur spécifiée au‑dessus du sol ou au niveau du terrain environnant. Elle doit être
placée au‑dessus de la hauteur maximale que pourrait atteindre le manteau neigeux et ne
pas être exposée à d’éventuels rejaillissements d’eau susceptibles de biaiser la mesure. Pour la
mesure des précipitations solides, la surface de captage se trouve au‑dessus du sol et devrait être
protégée par un écran artificiel. Dans plus de cent pays, on la place le plus souvent à une hauteur
variant entre 0,5 et 1,5 m (OMM, 1989a).
La mesure des précipitations est très sensible à l’exposition, en particulier au vent. La section 6.2
porte sur l’exposition, tandis que la section 6.4 traite en détail des erreurs auxquelles sont sujets
les capteurs de précipitations ainsi que les corrections qui peuvent être appliquées.
200 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
L’intensité des pluies peut être établie sur la base de la hauteur des précipitations, mesurée
à l’aide d’un pluviomètre enregistreur (voir la section 6.5) ou mesurée directement. À titre
de mesure directe, on peut notamment mesurer le flux d’eau collectée par un pluviomètre,
mesurer l’accumulation de l’eau recueillie en fonction du temps, ou appliquer des principes
optiques de mesure. Un certain nombre de techniques visant à déterminer les hauteurs de
précipitations se fondent sur ces mesures directes d’intensité, et consistent à intégrer l’intensité
mesurée sur un certain intervalle de temps.
Ce chapitre décrit également des techniques particulières utilisées pour mesurer d’autres types
de précipitations (rosée, givre, etc.) ainsi que l’enneigement. Certaines techniques nouvelles,
telles que la pluviométrie optique, qui fait appel à la diffusion optique, ne sont pas décrites ici.
Pour plus d’informations sur les méthodes en cours d’élaboration, on peut utilement se référer
aux rapports de conférences périodiques, telles que les ateliers internationaux sur la mesure des
précipitations (Institut hydrométéorologique slovaque et Institut fédéral suisse de technologie,
1993; OMM, 1989b) et la Conférence technique de l’OMM sur les instruments et les méthodes
d’observation météorologiques et environnementales, et aux comparaisons entre instruments
organisées par la Commission des instruments et des méthodes d'observation (OMM, 1998).
Des instruments qui détectent les précipitations et en déterminent la nature (sans pour autant les
mesurer) peuvent être utilisés comme détecteurs des conditions météorologiques présentes et
sont traités au chapitre 14 de la partie I.
Les pluviomètres enterrés sont des instruments de référence pour la mesure des précipitations
liquides. Étant donné qu’ils ne sont pas sujets à des erreurs induites par le vent, ils indiquent
généralement des hauteurs supérieures à celles des pluviomètres surélevés (OMM, 1984, 2009).
L’instrument est placé dans une fosse, la bague réceptrice se trouvant au niveau du sol et à une
distance suffisante du bord le plus proche de la fosse pour éviter que de l’eau ne rejaillisse dans
le pluviomètre. La fosse devrait être entourée d’une solide grille anti‑éclaboussures, en métal ou
en plastique, comprenant une ouverture centrale pour le pluviomètre. Des dispositions devraient
être prises pour assurer le drainage de la fosse. Une description et des schémas d’une fosse de
pluviomètre enterré type sont présentés à l’annexe 6.C et davantage de détails sont donnés dans
le document OMM (2009) et dans la norme EN 13798:2010 (CEN, 2010).
Pour les précipitations solides, on peut utiliser l’instrument de référence à double palissade
pour la comparaison. Il se compose d’une double protection orthogonale verticale autour d’un
nivomètre de Tretyakov, doté d’une forme particulière d’écran déflecteur contre le vent. On peut
trouver des schémas et une description de cet instrument dans Goodison et al. (1989) et OMM
(1985, 1998).
Dans l’annexe 6.A se trouvent des recommandations pour la comparaison des pluviomètres avec
les instruments de référence.
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 201
6.1.4.3 Documentation
La section 6.2 traite des données à conserver concernant le site: une description détaillée
du site, y compris les angles verticaux des principaux obstacles entourant le pluviomètre, la
configuration de l’instrument, la hauteur de son ouverture au‑dessus du sol et la hauteur de
l’instrument de mesure de la vitesse du vent par rapport au sol.
Les changements intervenus dans les techniques d’observation des précipitations (surtout
l’utilisation de différents types de pluviomètres et la modification du site ou de la hauteur
d’installation), peuvent causer des inhomogénéités dans les séries temporelles de précipitation
(voir le chapitre 2 de la partie IV). L’utilisation de nouveaux types de pluviomètres et des
modifications dans l’exposition des sites conduisent à des inhomogénéités spatiales, du fait des
erreurs systématiques des mesures de précipitations, essentiellement celles liées au vent. Les
techniques statistiques de correction permettant d’éliminer les inhomogénéités relatives aux
pluviomètres environnants, la correction des erreurs dues à l’effet du vent peut réduire les biais
des valeurs mesurées.
Dans les sections ci‑après concernant les différents types d’instruments (notamment dans
la section 6.4), il est question des corrections qui peuvent être apportées aux mesures des
précipitations. Ces corrections sont entachées d’incertitudes et il faudrait conserver les relevés
originaux et les formules de correction.
Toutes les méthodes de mesure des précipitations devraient viser à obtenir un échantillon
représentatif de la quantité réelle de précipitations tombant sur la zone sur laquelle porte la
mesure à l’échelle synoptique, la méso‑échelle ou la micro‑échelle. Le choix du site et l’erreur
systématique de mesure qui s’y associe sont donc des facteurs importants. Davantage de
précisions sur les effets dus au choix du site sont données dans Sevruk et Zahlavova (1994).
La distribution des stations pluviométriques sur la zone examinée est un facteur important, car
le nombre et la répartition géographique des pluviomètres déterminent dans quelle mesure les
hauteurs relevées sont représentatives de la quantité de précipitations réellement tombée sur la
zone. On trouvera de plus amples renseignements sur ce sujet dans le document OMM (1992a)
en ce qui concerne la pluie et la neige. La publication OMM (2008) présente la documentation
concernant le calcul des précipitations surfaciques et les corrections relatives à la topographie.
Les effets de l’environnement immédiat du site sur le champ de vent peuvent être à l’origine
d’anomalies locales, positives ou négatives, dans la quantité des précipitations captées. D’une
manière générale, aucun objet ne devrait être à une distance du pluviomètre inférieure à deux
fois sa hauteur au‑dessus de l’ouverture de celui‑ci. Pour chaque site, l’angle moyen par rapport
à la verticale des obstacles devrait être estimé et un plan du site dressé. Les sites sur une pente
ou sur un toit devraient être évités. Pour le mesurage des chutes de neige et/ou du manteau
neigeux, les sites retenus devraient, autant que possible, être situés dans des zones abritées du
vent. Les meilleurs sites se situent souvent dans une clairière, ou en un emplacement dégagé
d’un verger, à bonne distance des arbres et des arbustes, ou dans des lieux où d’autres éléments
protègent l’instrument du vent dans toutes les directions.
202 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il est toutefois préférable de réduire les effets du vent sur le site et les effets du site sur le vent. À
cet effet, on peut utiliser un pluviomètre enterré pour mesurer les précipitations liquides ou faire
en sorte que l’air circule horizontalement au‑dessus de la surface réceptrice, en adoptant l’une
des techniques recensées ci‑dessous, présentées par ordre décroissant d’efficacité:
a) Dans les zones à végétation dense et homogène, couper régulièrement la végétation pour
que sa hauteur reste au même niveau que l’ouverture du pluviomètre;
b) Dans les autres zones, renforcer l’effet des interventions mentionnées sous a) par l’emploi
de palissades judicieusement disposées;
Le sol autour du pluviomètre peut être recouvert de gazon, de gravier ou de galets, mais les
surfaces plates et dures telles que les surfaces en béton devraient être éliminées pour éviter les
entrées d’eau par rejaillissement.
Une classification des sites de mesure a été établie afin de quantifier et de documenter l’influence
de l’environnement alentour (voir l’annexe 1.B du chapitre 1 de la partie 1 du présent guide). Elle
repose sur une description sommaire des sites (terrestres).
6.3.1.1 Instruments
Le pluviomètre le plus commun revêt la forme d’un collecteur placé au‑dessus d’un entonnoir
conduisant à un récipient où sont stockées l’eau et la neige fondue accumulées entre les heures
d’observation. Différentes formes de pluviomètres (figure 6.1) sont utilisées à travers le monde.
Là où les précipitations solides sont fréquentes et abondantes, on apporte généralement
au pluviomètre un certain nombre de modifications destinées à améliorer la précision des
mesures. Il s’agit notamment de la suppression de l’entonnoir du pluviomètre au début de la
saison des neiges ou de l’ajout d’une barrière anti‑neige spéciale (OMM, 1998) qui empêche
le vent de chasser hors du bac la neige déjà collectée. L’installation d’écrans contre le vent
autour du pluviomètre permet de réduire l’erreur provoquée par la déformation du champ de
vent au‑dessus de l’instrument et par de la neige soufflée dans le capteur. Leur utilisation est
conseillée pour la mesure de la pluie et elle est essentielle pour celle de la neige. Les pluviomètres
employés sont de types très variables (OMM, 1989a).
L’eau stockée est collectée dans un récipient gradué ou versée du collecteur dans une éprouvette
graduée; son niveau dans le collecteur peut aussi être mesuré directement à l’aide d’une
réglette graduée. Pour les précipitations liquides, la dimension de la bague de captage n’est
pas un élément décisif, mais, si d’importantes précipitations solides sont probables, cette
dernière doit avoir une surface d’au moins 200 cm2. Une surface comprise entre 200 et 500 cm2
est généralement préférable. Les plus importantes caractéristiques d’un pluviomètre sont les
suivantes:
a) La bague de captage devrait avoir une arête tranchante tombant verticalement à l’intérieur
et formant à l’extérieur un biseau prononcé. Les nivomètres devraient être conçus de
manière à éviter une réduction importante de la surface réceptrice par accumulation de
neige mouillée autour de la bague du collecteur;
b) La surface réceptrice devrait être déterminée avec une précision d’au moins 0,5 % et
l’instrument devrait être monté de manière qu’elle demeure constante pour toute utilisation
normale de l’appareil;
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 203
1 2 3
4 5 6
Figure 6.1. Différentes formes de pluviomètres standards. Les lignes continues représentent
les lignes de courant et les pointillés les trajectoires des particules des précipitations. Une
grande déformation du champ de vent est produite au‑dessus de l’orifice du premier
pluviomètre, alors que l’effet est plus faible pour le dernier capteur. Il en résulte que l’erreur
due au vent est plus grande pour le premier pluviomètre que pour le dernier.
Source: Sevruk et Nespor (1994).
c) Le collecteur devrait être conçu de manière à exclure tout rejaillissement d’eau à l’intérieur
ou hors du pluviomètre. À cet effet, il faut prévoir une paroi verticale suffisamment
profonde et un entonnoir d’une pente suffisamment marquée (au moins 45°). La figure 6.2
présente le schéma de configurations satisfaisantes;
e) Pour éviter les pertes par évaporation, le récipient devrait avoir une ouverture étroite et
être suffisamment protégé du rayonnement. Les pluviomètres destinés à être utilisés dans
des endroits où leur relevé ne pourra s’effectuer qu’hebdomadairement ou mensuellement
devraient être conçus de la même manière que les pluviomètres à mesurage quotidien,
mais seront pourvus d’un réservoir plus robuste et de capacité plus grande.
Pour qu’il soit possible de mesurer les faibles précipitations avec une bonne précision, le
diamètre interne de l’éprouvette devrait se réduire progressivement au bas de celle‑ci. Pour
toutes les mesures, le fond du ménisque formé par l’eau devrait être pris comme niveau de
204 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
≥ 90°
référence et l’éprouvette devrait être maintenue en position verticale pendant la lecture, afin
d’éviter les erreurs de parallaxe. Le gravage des graduations principales au dos de l’éprouvette
limite également ce type d’erreur.
Les jauges graduées devraient être en bois de cèdre ou en un matériau qui n’absorbe que
très peu l’eau et qui ne donne pas lieu à des phénomènes de capillarité importants. Si de
l’huile est employée pour prévenir l’évaporation, les jauges en bois sont à éviter. Dans ce cas,
il convient d’utiliser une jauge en métal ou en un matériau facilement nettoyable. Les jauges
non métalliques devraient être munies d’une extrémité en cuivre destinée à en prévenir l’usure.
Elles devraient être graduées au moins tous les 10 mm sur les zones correspondant aux sections
transversales de la bague et du collecteur, compte tenu du volume de liquide déplacé par
l’immersion de la jauge. L’erreur maximale sur les graduations ne devrait en aucun point excéder
±0,5 mm. Si cela est possible, il faut contrôler toute mesure effectuée au moyen d’une jauge par
un mesurage volumétrique.
6.3.1.2 Procédure
L’éprouvette doit être tenue en position verticale lors de la lecture et l’observateur doit être
conscient du risque d’erreur de parallaxe. La neige collectée au moyen de pluviomètres non
enregistreurs devrait être soit pesée, soit fondue immédiatement après chaque relevé, la hauteur
d’eau produite par sa fonte étant alors mesurée à l’aide d’une éprouvette graduée ordinaire. On
peut également mesurer les précipitations en effectuant une pesée précise de l’eau recueillie.
On détermine d’abord le poids total du contenu et du récipient, puis on soustrait le poids connu
de celui‑ci. Cette méthode présente plusieurs avantages: elle élimine, en particulier, le risque
de renverser une partie de l’eau recueillie et elle inclut dans le poids mesuré toute l’eau qui
adhère au récipient. Les méthodes couramment utilisées sont cependant plus simples et moins
coûteuses.
Les graduations de l’éprouvette ou de la jauge utilisée pour les mesures doivent naturellement
être adaptées aux dimensions du collecteur. L’étalonnage du pluviomètre comprend donc la
vérification du diamètre de la surface réceptrice et il convient de s’assurer que les tolérances sont
respectées. L’étalonnage comprend également la vérification volumétrique de l’éprouvette ou de
la jauge.
Dans le cadre de la maintenance courante, il faudrait veiller à ce que le pluviomètre reste stable
et ne s’incline pas d’un côté ou de l’autre afin qu’il garde précisément le même axe (voir Rinehart,
1983; Sevruk, 1984). Les surfaces extérieures du pluviomètre devraient être maintenues propres,
à l’intérieur comme à l’extérieur, et il en va de même pour la partie graduée. Pour les nettoyer, on
utilise une brosse à long manche et de l’eau savonneuse, et on les rince à l’eau claire. Les pièces
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 205
Les pluviomètres totalisateurs sont utilisés pour mesurer l’intégralité des précipitations
saisonnières dans une région éloignée ou peu peuplée. Ils sont formés d’un collecteur, placé
au‑dessus d’un entonnoir conduisant à un récipient suffisamment grand pour stocker la totalité
des précipitations recueillies au cours d’une saison (ou d’un mois dans les zones à précipitations
importantes). Pour réduire l’évaporation, une huile appropriée ou un autre agent prévenant
l’évaporation devrait être versé dans le récipient, de manière à former une couche d’au moins
5 mm (OMM, 1972). Cette couche protectrice ne devrait pas empêcher les précipitations de
couler dans le réservoir.
De l’antigel peut être versé dans le récipient pour assurer la fonte de la neige collectée. Il est
important que le mélange reste homogène. Un mélange de 37,5 % en poids de chlorure de
calcium du commerce (pur à 78 %) et de 62,5 % d’eau donne des résultats satisfaisants. Une
solution aqueuse d’éthylène glycol ou un mélange d’éthylène glycol et de méthanol peuvent
également être utilisés. Ils sont plus coûteux, mais moins corrosifs que le chlorure de calcium;
de plus, ils assurent une meilleure protection contre le gel lorsqu’ils sont dilués par les pluies
captées. Le volume de la solution versée dans le récipient au départ ne devrait pas excéder 33 %
de sa capacité.
Dans certains pays, l’antigel et l’huile sont considérés comme des déchets toxiques, nuisibles
pour l’environnement. Il faudrait alors demander aux autorités locales de protection de
l’environnement quelles sont les directives applicables pour l’élimination des substances
toxiques.
Dans les lieux reculés, l’exploitation et la maintenance des pluviomètres totalisateurs posent un
certain nombre de problèmes, liés par exemple à la possibilité que la neige recouvre l’instrument
ou à la difficulté de trouver un emplacement adapté au relevé des mesures. Ces problèmes sont
à résoudre au cas par cas. La qualité des données fournies par ce type de pluviomètres mérite
d’être évaluée avec attention.
À ce stade, il convient d’examiner les erreurs qui s’associent d’une manière ou d’une autre à la
plupart des pluviomètres, qu’ils soient enregistreurs ou non, ainsi qu’aux corrections applicables.
Les cas particuliers relatifs aux pluviomètres enregistreurs sont traités à la section 6.5.
On trouve un compte rendu détaillé des erreurs et des corrections dans plusieurs publications
de l’OMM (1982, 1984, 1986; pour la neige en particulier, 1998; et plus particulièrement pour
l’intensité des précipitations, 2006, 2009). La publication OMM (1982) donne des détails sur
les modèles couramment utilisés pour l’ajustement des données brutes de précipitations au
Canada, au Danemark, aux États‑Unis, en Finlande, en Russie et en Suisse. Le document OMM
(1989a) donne une description de la manière dont se produisent les erreurs. Des documents de
conférence sur ce sujet sont réunis dans des publications de l’OMM (1986; 1989b). Davantage de
détails sur l’amélioration de la fiabilité des mesures d’intensité des précipitations obtenues par
206 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
les pluviomètres à augets basculeurs classiques, les pluviomètres à balance et d’autres types de
pluviomètres (optiques, à flotteur/siphon, etc.) se trouvent dans les documents de l’OMM (2006,
2009).
Pour en tenir compte, il est nécessaire, à de nombreuses fins hydrologiques, de procéder avant
tout calcul à un ajustement des données. Il va sans dire que ces ajustements ne peuvent pas
être exacts (ils aggravent même parfois l’écart initial). On devrait donc toujours conserver
les données originelles comme archives de base, d’abord en vue de garantir la continuité des
relevés, puis parce qu’elles constitueront le meilleur jeu de références exploitables pour parfaire
les ajustements le jour où cela deviendra possible.
Le plus souvent, l’estimation des erreurs de pluviomètres et de nivomètres se focalise sur les
erreurs d’origine météorologique. On admet en général que la mesure des précipitations
liquides au sol est tributaire de diverses sources d’erreurs, systématiques comme aléatoires,
essentiellement liées à des pertes dues au vent, au mouillage et à l’évaporation (voir OMM,
1982), qui font que la mesure de précipitations faibles à modérées est peu fiable en l’absence
d’un étalonnage précis. Les erreurs dues au vent ont encore une influence sur les intensités des
pluies de l’ordre de 20 à 50 mm h‑1, avec une incidence d’environ 5 % selon les observations
fondées sur des comparaisons entre des stations d’Europe centrale (OMM, 1984). On estime
que les erreurs d’échantillonnage dues à la nature discrète des mesures pluviométriques
dépendent de la taille de l’auget (pour les pluviomètres à augets basculeurs) ainsi que du
pas d’échantillonnage et du temps de réponse de l’instrument, mais non de l’intensité des
précipitations. Ces erreurs peuvent être évaluées de manière analytique (Colli et al., 2013a).
En bref, la quantité réelle de précipitations peut être estimée en appliquant des corrections pour
quelques‑uns ou pour l’ensemble des facteurs d’erreur recensés ci‑dessous:
b) Erreur due aux pertes par mouillage des parois internes du collecteur;
c) Erreur due aux pertes par mouillage du récipient quand on vide celui‑ci: généralement de
2 à 15 % en été et de 1 à 8 % en hiver, pour b) et c) pris ensemble;
d) Erreur due à l’évaporation dans le récipient (particulièrement importante dans les pays
chauds): de 0 à 4 %;
f) Erreur due à l’eau qui entre dans le pluviomètre ou en ressort par rejaillissement: 1 à 2 %;
h) Erreurs instrumentales et erreurs d’observation aléatoires, y compris celles dues aux lectures
incorrectes.
Les sept premières composantes de l’erreur, d’ordre systématique, figurent par ordre
d’importance. L’erreur nette ayant pour origine le chasse‑neige, les congères et les
rejaillissements peut être soit négative, soit positive, alors que le bilan des erreurs systématiques
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 207
dues au champ de vent et aux autres facteurs est négatif. Étant donné que les erreurs
mentionnées sous e) et f) sont en général difficiles à quantifier, le modèle général utilisé pour
ajuster les données de la plupart des pluviomètres (proposé à l’origine dans le document OMM
(1982), puis modifié par Legates et Willmott (1990) prend la forme suivante:
( ) ( )
Pk = kr Pcr + k s Pcs = kr Pgr + ∆ P1r + ∆ P2 r + ∆ P3r + ∆ P4 r + k s Pgs + ∆ P1s + ∆ P2 s + ∆ P3s + ∆ P4 s (6.1)
Les erreurs dues aux conditions atmosphériques au niveau du collecteur et celles qui sont liées
au mouillage, au rejaillissement et à l’évaporation sont en règle générale désignées par le terme
d’erreurs de captation. Elles indiquent dans quelle mesure l’instrument peut recueillir la quantité
d’eau exacte selon la définition des précipitations au sol, à savoir la totalité de l’eau qui tombe sur
la projection de la surface du collecteur sur le sol. Les erreurs mécaniques et d’échantillonnage
systématiques, le plus souvent appelées erreurs de quantification, caractérisent la capacité de
l’instrument de détecter correctement la quantité d’eau qu’il a recueillie. Des comparaisons
de pluviomètres enregistreurs d'intensité effectuées par l’OMM en laboratoire et sur le terrain
1,15
k uhp = 3,0 m s-1 uhp = 3,0 m s-1
uhp = 3,0 m s-1 uhp = 3,0 m s-1
1,10 uhp = 1,0 m s-1 uhp = 1,0 m s-1
uhp = 1,0 m s-1 uhp = 1,0 m s-1
1,05
1,00
0 1 2 3 4 5 0 1 2 3 4 5
i (mm h-1) i (mm h-1)
2,0
k uhp = 3,0 m s-1
uhp = 3,0 m s-1
1,8 uhp = 2,0 m s-1
uhp = 2,0 m s-1
uhp = 1,5 m s-1
uhp = 1,5 m s-1
1,6 uhp = 1,0 m s-1
uhp = 1,0 m s-1
1,4
1,2
1,0
0 1 2 3 4 5 0 1 2 3 4 5
i (mm h-1) i (mm h-1)
Figure 6.3. Facteur de conversion k, qui exprime le rapport entre la précipitation «correcte» et
la précipitation mesurée, pour la pluie (haut) et la neige (bas) pour deux pluviomètres sans
écran en fonction de la vitesse du vent uhp, de l’intensité i et du type de temps d’après Nespor
et Sevruk (1999). À gauche, le pluviomètre manuel allemand Hellmann et, à droite, le
pluviomètre à augets basculeurs de Lambrecht. Les symboles blancs correspondent à des
précipitations orographiques et les noirs à des averses. Noter les échelles différentes pour la
pluie et la neige. Pour les pluviomètres munis d’écrans, k peut être réduit de 50 et de 70 %,
respectivement pour la neige et pour les précipitations mixtes (OMM, 1998). Les pertes de
chaleur ne sont pas prises en considération dans les graphiques (en Suisse, elles varient en
fonction de l’altitude entre 10 et 50 % pour des valeurs mesurées pour la neige fraîche).
208 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
(OMM, 2006, 2009) ont contribué à l’évaluation des erreurs de quantification et permis de
documenter les méthodes d’étalonnage en laboratoire et sur le terrain pour définir et/ou corriger
les erreurs de quantification des mesures d’intensité pluviométrique. À l’évidence, ces erreurs
peuvent provenir de sources très différentes lors de la phase de détection car les instruments
peuvent présenter des différences du point de vue des modes de mesure, des caractéristiques de
construction, des procédures d’utilisation, etc.
Les corrections apportées aux erreurs de mesure des précipitations s’appliquent aux totaux
journaliers ou mensuels ou, dans certains cas, à des phénomènes météorologiques particuliers.
Pour les mesures d'intensité, les erreurs mécaniques systématiques peuvent être corrigées
grâce à un étalonnage normalisé en laboratoire, l’étalonnage dynamique dans les conditions
stables définies pour le débit de référence (Niemczynowicz, 1986; OMM, 2009). Des détails
complémentaires sont donnés à l'annexe 6.D.
En général, les données supplémentaires nécessaires pour effectuer des ajustements liés
aux conditions météorologiques comprennent la vitesse du vent au niveau de la bague du
pluviomètre pendant les précipitations, la taille des gouttes, l’intensité des précipitations,
la température et l’humidité de l’air ainsi que les caractéristiques du lieu d’implantation du
pluviomètre. Bien que la température ait un effet sur le fonctionnement du pluviomètre, cet effet
est nettement plus faible que celui de la vitesse du vent à la hauteur de l’instrument (Yang et al.,
1993; Yang et al., 1995). La vitesse du vent et le type ou l’intensité des précipitations sont parfois
des variables suffisantes pour déterminer les corrections à appliquer. On se réfère dans certains
cas uniquement à la vitesse du vent. Faute de relevés pour un site particulier, on peut se servir de
données interpolées à partir d’observations de sites voisins, mais il faut alors se montrer prudent
et cette interpolation n’est possible que pour des ajustements portant sur des données de pluie
mensuelles.
Pour la plupart des pluviomètres, la vitesse du vent est le facteur environnemental qui concourt
le plus à sous‑évaluer les précipitations solides. Pour obtenir des ajustements quotidiens, il faut
déduire les données pertinentes des observations météorologiques habituelles effectuées sur
le site. Lorsque l’on ne dispose pas de mesures de la vitesse du vent à la hauteur de l’ouverture
du pluviomètre, cette donnée peut être dérivée en utilisant une méthode de réduction de la
vitesse moyenne du vent, à condition de connaître la rugosité de la surface environnante et la
hauteur angulaire des obstacles environnants. L’annexe 6.B1 présente une formule suggérée.
Ce processus dépend beaucoup du site et l’estimation requiert une bonne connaissance de
l’implantation de la station et du pluviomètre. Les pluviomètres à écran collectent plus de
précipitations que leurs homologues non abrités, en particulier pour les précipitations solides.
En conséquence, les pluviomètres devraient être abrités soit naturellement (par exemple en étant
placés dans une clairière) soit artificiellement (par exemple à l’aide d’un écran de protection de
type Alter, Tretyakov ou Nipher) afin de réduire au minimum les effets négatifs de la vitesse du
vent sur les mesures des précipitations solides (pour plus d’informations sur la conception des
écrans, voir OMM, 1998, 2008). Le type d’écran contre le vent et le modèle de pluviomètre, qui
modifient la relation entre la vitesse du vent et l’efficacité de la captation, ont des incidences sur
l’homogénéité des données.
La perte par mouillage (Sevruk, 1974a) représente une autre perte systématique et cumulative,
qui touche les pluviomètres non enregistreurs et qui varie selon la nature des précipitations
et le type d’instruments; son importance est également fonction du nombre de fois que le
pluviomètre est vidé. La perte moyenne par mouillage peut aller jusqu’à 0,2 mm par relevé. Dans
les stations synoptiques où les précipitations sont mesurées toutes les six heures, cette perte
peut devenir très importante. Dans certains pays, on a calculé que la perte par mouillage pouvait
représenter 15 à 20 % des précipitations mesurées durant l’hiver. Une solution possible consiste à
appliquer une correction pour la perte par mouillage au moment du relevé. Avec un pluviomètre
bien conçu, la perte par mouillage peut être maintenue à un faible niveau. La méthodologie pour
1
Formule de réduction du vent recommandée par la Commission des instruments et des méthodes d'observation à sa
onzième session (1994).
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 209
déterminer les pertes par mouillage des pluviomètres manuels (OMM, 1998) peut suffire. Il est
recommandé de réexaminer périodiquement les pertes par mouillage des pluviomètres manuels
(par exemple tous les 5 ans), car elles tendent à évoluer avec le temps. Les parois internes
devraient être faites d’une matière qui puisse être maintenue lisse et propre: à titre d’exemple,
la peinture n’est pas indiquée, mais un émail à chaud est satisfaisant. Il convient de réduire le
nombre de joints au minimum dans la construction.
Les pertes par évaporation (Sevruk, 1974b) varient selon le type de pluviomètres, la zone
climatique et la période de l’année. La perte par évaporation est un problème lorsque le
réservoir n’est pas surmonté d’un entonnoir, en particulier à la fin du printemps. On a constaté
des pertes de plus de 0,8 mm par jour. En hiver, les pertes sont bien inférieures à celles des mois
d’été comparables et vont de 0,1 à 0,2 mm par jour. Toutefois, ces pertes se cumulent. Dans un
pluviomètre bien conçu, seule une petite surface d’eau est exposée, la ventilation est réduite
au minimum et la température de l’eau est maintenue basse grâce à une surface extérieure
réfléchissante. Dans le cas des pluviomètres totalisateurs et enregistreurs, on peut pratiquement
éliminer les erreurs associées à l’évaporation grâce à une mince couche d’huile.
Il est évident que, pour que les données soient compatibles lorsque les pluviomètres et les abris
utilisés dans les diverses conditions météorologiques sont de types différents, il faut appliquer
des corrections aux mesures. Chaque fois que l’on s’efforce de réduire les erreurs en ajustant les
mesures pluviométriques, il est vivement recommandé de publier à la fois les valeurs mesurées et
les valeurs ajustées.
Par rapport aux méthodes manuelles, l’enregistrement automatique des précipitations présente
l’avantage d’offrir une meilleure résolution temporelle. Cette technique permet en outre
de réduire les pertes dues à l’évaporation et au mouillage. Bien entendu, les pluviomètres
enregistreurs restent exposés aux effets du vent décrits à la section 6.4.
Trois modèles d’enregistreurs automatiques sont d’usage courant pour la mesure des
précipitations: le modèle enregistreur à pesée, le modèle à augets basculeurs et le modèle à
flotteur. Seul le modèle à pesée est adapté à tous les types de précipitations: les deux autres
modèles ne peuvent en général être utilisés que pour mesurer la pluie. Il existe de nouveaux
pluviomètres automatiques sans parties mobiles qui permettent de mesurer les précipitations.
Leur fonctionnement repose sur des capteurs capacitifs, des transducteurs de pression, des
dispositifs optiques ou de petits radars imprimant un signal électronique proportionnel à
l’équivalent des précipitations. Un composant important de l’enregistreur est l’horloge, qui fixe
les intervalles de temps et les dates des enregistrements.
En raison des grandes fluctuations de l’intensité des précipitations sur une échelle temporelle
d’une minute, une seule valeur d’intensité pluviométrique ne saurait être représentative pour une
plus longue période. L’intensité pluviométrique sur une minute ne devrait donc pas être utilisée
dans un projet d’échantillonnage temporel tel qu’une mesure synoptique toutes les heures ou
toutes les trois heures. Une très bonne synchronisation horaire est nécessaire entre l’heure de
référence et les différents instruments de la station d’observation (écart inférieur à 10 s).
6.5.1.1 Instruments
Dans un pluviographe à pesée, le poids d’un récipient et des précipitations qui s’y accumulent
est enregistré en continu, soit au moyen d’un mécanisme à ressort, soit au moyen d’une balance
à poids. Toutes les précipitations, qu’elles soient solides ou liquides, sont ainsi enregistrées
au fur et à mesure. Ce type de pluviomètres ne comporte pas habituellement de dispositif
automatique de vidange; sa capacité (c’est‑à‑dire la hauteur maximale de précipitations qui peut
s’y accumuler entre deux relevés) va de 250 mm à 1 500 mm, selon le modèle. Les modèles de
210 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
faible capacité devraient être évités dans les zones où une accumulation maximale est possible
sur de courtes périodes de temps. La maintenance de l’appareil devrait permettre de réduire
au minimum les pertes par évaporation, ce qui peut être obtenu en versant dans le récipient du
pluviomètre suffisamment d’huile (ou d’un autre agent prévenant l’évaporation) pour former
un film à la surface de l’eau. Les difficultés découlant des oscillations de la balance par vent fort
peuvent être réduites à l’aide d’un microprocesseur programmé de manière à éliminer les effets
de ces oscillations lors de la lecture. Les pluviomètres à pesée sont particulièrement utiles pour
l’enregistrement de la neige, de la grêle et des mélanges pluie‑neige, car il n’est pas nécessaire
que les précipitations solides aient fondu pour qu’elles soient enregistrées. En hiver, on verse de
l’antigel dans le réservoir (voir la section 6.3.2) pour dissoudre les contenus solides. La quantité
d’antigel dépend du volume de précipitations escompté et de la température minimale attendue
en période de dilution minimale. Le mécanisme de pesée de ces instruments ne comporte pas
de pièce mécanique mobile. Le seul risque étant une déformation élastique, la dégradation
mécanique et les besoins de maintenance sont considérablement réduits.
Le signal de sortie numérisé est généralement moyenné et filtré. L’intensité des précipitations
peut également être calculée à partir de l’écart entre deux mesures de poids consécutives (ou
plus). La précision de ce type d’instruments est directement liée à leurs caractéristiques de
mesure et/ou d’enregistrement, qui peuvent varier selon le fabricant.
De nombreux instruments ont des sorties de données contenant des paramètres diagnostiques
qui sont très utiles pour approfondir l’évaluation des données mesurées et pour contrôler de la
qualité des données.
Hormis les pertes par mouillage du conteneur lors de sa vidange, les pluviographes à pesée sont
exposés à toutes les sources d’erreur mentionnées à la section 6.4. En outre, il convient de noter
qu’ils ne permettent pas de déterminer le type de précipitations. Avec ce type d’instruments,
l’un des gros problèmes rencontrés est que les précipitations, notamment dans le cas de pluies
se congelant ou de neige mouillée, peuvent adhérer à l’intérieur de l’ouverture de l’instrument
et ne tomber que plus tard dans le seau. De ce fait, les pluviographes à pesée ne peuvent guère
déterminer avec précision quand se produisent les précipitations. Un autre défaut commun à
ce type d’instruments est le pompage par le vent, qui intervient généralement par vent fort,
lorsque des courants d’air turbulents passent au‑dessus et autour du récipient, provoquant des
oscillations du mécanisme de pesée. Il est possible de réduire au minimum les erreurs associées
à ces anomalies d’enregistrement en moyennant les lectures sur de brefs intervalles, en général
de 1 à 5 minutes. Des erreurs d’horloge peuvent entraîner une certaine confusion sur la date
ou la période du captage. Certains enregistreurs à pesée peuvent également être sensibles à la
température dans leur mécanisme de pesée, ce qui a une influence sur les valeurs de sortie, qui
sont alors tributaires du cycle des températures diurnes.
L’utilisation des pluviographes à pesée permet d’éliminer (ou du moins de réduire au minimum)
certaines erreurs associées aux méthodes de mesure manuelles. Les erreurs aléatoires liées à la
nature humaine de l’observateur et à certaines erreurs systématiques, en particulier les pertes
par évaporation et par mouillage, sont réduites au minimum. Dans certains pays, on attribue
officiellement la valeur zéro aux précipitations prenant la forme de traces, ce qui entraîne une
sous‑estimation du total des précipitations saisonnières. Ce problème disparaît pour ainsi dire
avec les pluviographes à pesée, étant donné que même de très faibles quantités de précipitations
s’y accumulent au fil du temps.
Une caractéristique fondamentale des pluviographes à pesée pour la mesure de l’intensité des
précipitations est le temps de réponse (processus de filtrage compris), qui se traduit par des
erreurs de mesure (décalage systématique). Les temps de réponse indiqués dans les notices
d’utilisation ou estimés dans le cadre d’une comparaison précédente de l’OMM (OMM,
2009), sont de l’ordre de six secondes à quelques minutes selon la conception et le modèle
du pluviographe. La résolution de l’intensité des précipitations sur une minute proposée par
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 211
les pluviographes à pesée peut beaucoup varier d’un instrument à l’autre et dépend de la
résolution du capteur. Ces pluviographes peuvent également présenter une limite ou un seuil de
discrimination pour l’intensité des précipitations.
Il peut être plus difficile de corriger les données des appareils à pesée sur une base horaire
ou journalière que sur des périodes plus longues, par exemple les résumés climatologiques
mensuels. Les données auxiliaires des stations météorologiques automatiques, telles que le vent
à la hauteur de l’instrument, la température de l’air, le temps présent ou l’épaisseur de la neige,
sont utiles pour interpréter correctement et corriger les mesures des précipitations réalisées par
les appareils automatiques.
Généralement, les pluviographes à pesée ont peu de parties mobiles; aussi ne devraient‑ils pas
nécessiter un étalonnage fréquent. Pour procéder à cet étalonnage, on emploie habituellement
une série de poids qui, placés dans le seau ou conteneur, donnent une valeur prédéterminée
équivalant à une certaine quantité de précipitations. Normalement, les étalonnages devraient
être effectués en laboratoire et selon les instructions du fabricant.
Une autre procédure d’étalonnage des pluviographes à pesée pour les mesures de l’intensité des
précipitations est décrite à l’annexe 6.D. Cet étalonnage, appelé étalonnage dynamique dans
les conditions stables définies pour le débit de référence, vise à évaluer les erreurs de mesure
du pluviographe à pesée. Il permet aussi d’évaluer la réponse dynamique du pluviographe
par le test traditionnel de la réaction par palier, qui revient à fournir à l’instrument un débit
de référence présentant un seul changement abrupt, passant de zéro à la valeur de référence.
De plus, la répétition de l’étalonnage dynamique dans des conditions non stables (débits de
références variant en fonction du temps pour simuler des phénomènes réels) permet d’étalonner
plus finement ces instruments (en particulier pour les décalages systématiques dus au temps de
réponse de l’instrument) et pourrait se traduire par des meilleures performances dynamiques et
une précision accrue en situation réelle (voir Coli et al., 2013b).
La maintenance régulière devrait être effectuée tous les trois à quatre mois, selon les conditions
pluviométriques du site. L’instrument devrait être inspecté à l’intérieur et à l’extérieur pour
vérifier qu’aucune pièce n’est cassée ou desserrée et pour s’assurer qu’il est à niveau. Toute
lecture manuelle devrait être comparée au diagramme ou à la bande enregistreuse afin d’en
vérifier la cohérence avant d’enlever l’enregistrement ou de l’annoter. Le seau ou conteneur
devrait être vidé, inspecté, nettoyé si nécessaire, puis rechargé en huile, lorsqu’il s’agit du seul
mesurage de la pluie, ou en antigel et en huile si des précipitations solides sont attendues (voir la
section 6.3.2). Le dispositif d’enregistrement devrait être remis à zéro afin de mettre pleinement
à profit la capacité de l’instrument. La mémoire numérique et l’alimentation électrique
devraient également être vérifiées et remplacées s’il y a lieu. Les intervalles de temps et les dates
d’enregistrement doivent être contrôlés.
Le pluviomètre à augets basculeurs est utilisé pour mesurer les hauteurs de pluie cumulées et
l’intensité de la pluie. Des corrections d’intensité (voir la section 6.5.2.2) devraient être apportées
pour améliorer la précision des mesures d’intensité et compenser leur sous‑estimation lors
de précipitations très intenses tout comme leur surestimation lors de précipitations de faible
intensité, deux cas de figure récurrents lorsque les résultats des pluviomètres à augets basculeurs
ne sont pas corrigés.
212 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
6.5.2.1 Instruments
L’intensité des précipitations indiquée par un pluviomètre à augets basculeurs non corrigé se
calcule sur la base du nombre de basculements par unité temporelle d’échantillonnage (en règle
générale 6 ou 10 s) puis moyennée sur un intervalle de temps déterminé (par exemple 1 min).
De cette manière, la valeur de l’intensité pluviométrique peut être obtenue toutes les minutes,
indiquant l’intensité pour la ou les dernières minutes. Ce système d’échantillonnage réduit
l’incertitude de la moyenne. De plus, la résolution de l’intensité des précipitations dépend de
la taille de l’auget et de l’intervalle de temps choisi. Par exemple, une contenance équivalant à
0,2 mm offre une résolution d’intensité de 12 mm h–1, qui reste constante sur toute la gamme des
mesures du pluviomètre si aucune correction d’intensité n’est appliquée.
Le basculement de l’auget s’effectue en un temps réduit mais cependant fini. Il en résulte que,
pendant la première partie du basculement, une certaine quantité de pluie peut encore entrer
dans l’auget contenant la quantité d’eau qui vient d’être prise en compte. L’eau non captée
au cours du mouvement de basculement correspond à une erreur mécanique systématique
qui est essentiellement fonction de l’intensité des précipitations et qui peut être importante
en cas de fortes précipitations (> 100 mm h–1). Toutefois, cette erreur peut être corrigée par la
procédure d’étalonnage détaillée à l’annexe 6.D et l’application d’une courbe ou d’un algorithme
de correction (voir la section 6.4). Une autre méthode, qui est simple, consiste à placer une
forme de siphon au bas de l’entonnoir afin de diriger l’eau vers les compartiments à une
cadence déterminée. Cela lisse les pics d’intensité des précipitations de très faible durée. Une
autre solution consiste à ajouter un dispositif accélérant le basculement: ce dispositif consiste
essentiellement en une petite lame qui, sous l’influence de l’eau qui tombe du collecteur, exerce
sur l’auget une poussée supplémentaire dont la force varie avec l’intensité des précipitations.
Ce type de pluviomètres étant sujet à des sources d’erreur un peu différentes des autres
instruments, il est souhaitable de prendre des précautions particulières et d’apporter des
corrections spéciales. Parmi ces sources d’erreur, on peut citer les suivantes:
a) La perte d’eau lors du basculement de l’auget par forte pluie; celle‑ci peut être
considérablement réduite si l’on procède à un étalonnage dynamique (voir l’annexe 6.D) et
applique une correction en fonction de l’intensité;
b) Dans les modèles les plus courants, la surface exposée de l’eau est grande par rapport
au volume de celle‑ci et il peut en résulter des pertes par évaporation non négligeables,
en particulier dans les régions chaudes. Cette perte peut être importante quand les
précipitations sont faibles;
c) Le caractère discontinu de l’enregistrement peut restreindre, par bruine légère ou pluie très
faible, l’étendue des informations recueillies; il empêche, notamment, de déterminer avec
précision l’instant où la précipitation a commencé et celui où elle a pris fin;
d) De l’eau peut adhérer aux parois et à l’embouchure de l’auget, en y laissant des résidus
de pluie, ce qui constitue un poids supplémentaire à compenser par le basculement. Des
essais effectués avec des compartiments cirés ont permis de réduire de 4 % les volumes
nécessaires pour rompre l’équilibre par rapport aux compartiments non cirés. Par ailleurs,
l’étalonnage volumétrique peut changer, si l’on n’ajuste pas les vis d’étalonnage, du fait
d’une variation de la mouillabilité de l’auget due à une oxydation de la surface ou à une
contamination par des impuretés ou par suite de variations de la tension de surface;
e) Le filet d’eau tombant de l’entonnoir sur le compartiment peut entraîner une lecture
excessive, selon la dimension, la forme et la position de l’embout;
h) Les erreurs d’échantillonnage des pluviomètres à augets basculeurs (Habib et al., 2001)
ont également une incidence marquée sur les performances sur le terrain dans les régimes
à faibles précipitations; le mécanisme de l’auget basculeur marque parfois un décalage
pour attribuer la hauteur d’eau recueillie à l’intervalle de temps correspondant; diverses
techniques de calcul permettent de réduire l’incidence des erreurs d’échantillonnage et
d’améliorer la résolution des mesures de l’intensité des précipitations (voir Colli et al.,
2013a).
Un étalonnage soigné peut permettre de corriger les éléments systématiques de ces erreurs.
Des corrections efficaces permettant d’améliorer les mesures de l’intensité des précipitations
(OMM, 2009) et, ainsi, de la hauteur correspondante cumulée, consiste à procéder à un
étalonnage dynamique et à appliquer des courbes de correction (voir la section 6.4), par
exemple en appliquant un logiciel ou un algorithme de correction dans le système d’acquisition
des données. Elles peuvent aussi reposer sur une linéarisation du circuit électronique de
l’instrument (par l’émission d’impulsions supplémentaires dépendantes de l’intensité) ou sur
un mécanisme particulier (par exemple l’introduction de petits déflecteurs qui créent une
pression dynamique augmentant avec l’intensité, ce qui permet au basculement d’intervenir
avant que le compartiment ne soit plein). Le document OMM (2009) montre que la linéarisation
par impulsions électroniques supplémentaires est bien adaptée à la mesure des hauteurs de
214 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
précipitations, mais moins à la mesure de leur intensité. Par ailleurs, la linéarisation mécanique
compense la perte d’eau durant le mouvement de bascule et réduit considérablement la
sous‑estimation de l’intensité lors de très fortes précipitations. Le correctif logiciel (la courbe
ou l’algorithme de correction) s’avère la méthode la plus efficace pour corriger les erreurs
mécaniques systématiques.
Les mesures des pluviomètres à augets basculeurs peuvent être corrigées pour tenir compte des
biais liés à l’exposition de la même manière que les autres types de pluviomètres.
Un chauffage peut être utilisé pour permettre d’effectuer les mesures durant la saison froide,
notamment pour les précipitations solides. Toutefois, on a observé que les performances des
pluviomètres à augets basculeurs chauffés étaient très médiocres du fait d’importantes erreurs
dues à la fois au vent et à l’évaporation de la neige fondante et il n’est donc pas recommandé
de les utiliser pour mesurer les précipitations en hiver dans les régions où les températures
descendent au‑dessous de 0 °C durant des périodes prolongées.
Étant donné les nombreuses sources d’erreur qui s’associent aux pluviomètres à augets
basculeurs, leur étalonnage exige de tenir compte de nombreux paramètres qui interagissent
d’une manière complexe. Des comparaisons journalières avec le pluviomètre étalon peuvent
permettre de définir des facteurs de correction utiles et sont recommandées. Les facteurs
de correction peuvent varier d’une station à l’autre. En général, ils sont supérieurs à 1,0
(sous‑estimation) pour les pluies de faible intensité et inférieurs à 1,0 (surestimation) pour les
pluies de forte intensité. La relation entre le facteur de correction et l’intensité n’est pas une
relation linéaire, mais forme une courbe.
Dans un pluviographe à flotteur, la pluie tombe dans un réservoir contenant un flotteur de faible
masse. Le déplacement de celui‑ci, lorsque le niveau d’eau monte dans le réservoir, commande
le déplacement d’une plume sur un diagramme par un mécanisme approprié ou est converti
en signal numérique par un transducteur. En ajustant judicieusement la surface de réception
du pluviomètre, du flotteur et du réservoir, on peut obtenir l’échelle d’enregistrement que l’on
souhaite.
Pour obtenir un enregistrement sur une période suffisante (généralement 24 heures), il est
nécessaire de disposer soit d’un réservoir de grande contenance (dans ce cas, l’échelle obtenue
sur le diagramme ou tout autre moyen d’enregistrement est compressée), soit d’un mécanisme
assurant automatiquement la vidange rapide du réservoir quand il est plein, ce qui remet
la plume ou tout autre indicateur à zéro. Habituellement, cette fonction est remplie par un
dispositif à siphon. Ce dispositif devrait avoir un démarrage franc, sans phénomène de goutte
à goutte, aussi bien au début qu’à la fin de la période de siphonnage, dont la durée ne devrait
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 215
pas dépasser 15 secondes. Dans certains instruments, l’ensemble du réservoir est monté sur
des couteaux, de manière qu’il puisse basculer lorsqu’il est plein; la poussée de l’eau facilite
le siphonnage et le réservoir retourne à sa position initiale quand il est vide. Dans d’autres
pluviomètres enregistreurs, un siphon forcé assure la vidange en moins de cinq secondes. Un
modèle à siphon forcé est muni d’un petit réservoir distinct du réservoir principal, qui recueille la
pluie tombant pendant le siphonnage. Ce réservoir auxiliaire se vide dans le réservoir principal à
la fin de l’opération, ce qui garantit un enregistrement exact de la totalité des précipitations.
Pendant l’hiver, s’il y a risque de gel, un chauffage (doté de préférence d’un thermostat) devrait
être installé à l’intérieur de l’appareil. Cela évite la détérioration du réservoir et de son flotteur,
tout en permettant de poursuivre l’enregistrement des précipitations durant la période froide.
Dans les endroits desservis en électricité, une petite résistance chauffante ou une ampoule
électrique suffit; ailleurs, il est nécessaire d’utiliser d’autres sources d’énergie. Une méthode
satisfaisante consiste à enrouler un ruban chauffant autour du collecteur et à le relier à une
batterie de grande capacité. La quantité de chaleur fournie devrait être juste suffisante pour
empêcher le gel, car un excédent de chaleur pourrait diminuer la précision des observations
en augmentant les mouvements verticaux de l’air au‑dessus du pluviomètre et les pertes par
évaporation.
Dans certains pays, on a observé, comme dans le cas des modèles à pesée (voir la
section 6.5.1.2), une nette diminution de la quantité de précipitations recueillie avec des
pluviomètres chauffés non abrités, à cause du vent et de l’évaporation de la neige fondante.
Mis à part le fait que l’étalonnage est effectué en utilisant un volume d’eau déterminé, l’entretien
de ce pluviomètre est semblable à celui des modèles à pesée (voir la section 6.5.1.3).
Bien qu’elle ne fournisse que des quantités d’eau relativement faibles et variables d’un endroit
à l’autre, la rosée, phénomène essentiellement nocturne, peut être d’un grand intérêt dans les
régions arides; dans les régions très arides, elle peut produire des quantités d’eau du même ordre
de grandeur que celles qu’apporte la pluie. L’exposition des feuilles des plantes à l’humidité à
l’état liquide due à la rosée, au brouillard et aux précipitations joue également un rôle important
dans le cadre des maladies des plantes, de l’activité des insectes, des récoltes et des soins aux
cultures.
Pour évaluer la contribution hydrologique de la rosée, il convient d’établir une distinction entre:
b) La rosée formée par la condensation sur les surfaces refroidies de la vapeur d’eau qui
s’évapore du sol et des plantes, connue sous le nom de rosée de distillation;
c) La rosée formée par de l’eau exsudée des feuilles, connue sous le nom de sudation.
Ces trois sources concourent simultanément à l’apparition de la rosée observée. Toutefois, seule
la première fournit à la surface du sol un supplément d’eau et la dernière entraîne habituellement
une perte nette. Une source supplémentaire d’humidité est constituée par les gouttelettes
provenant des nuages ou du brouillard qui se déposent sur les feuilles, les branches ou les
brindilles des arbres et qui atteignent le sol soit en tombant goutte à goutte, soit en ruisselant le
long des troncs.
216 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
La quantité de rosée déposée sur une surface donnée pendant un intervalle de temps déterminé
est habituellement exprimée soit en kg m‑2, soit, suivant l’épaisseur du dépôt, en millimètres.
Dans la mesure du possible, cette quantité devrait être mesurée au dixième de millimètre près.
Le mouillage des feuilles peut être décrit comme léger, modéré ou fort, mais les éléments les plus
importants à mesurer sont l’heure de son début et sa durée.
La publication de l’OMM (1992b) passe en revue les instruments mis au point pour mesurer la
rosée et la durée du mouillage des feuilles. Elle donne une bibliographie pertinente.
La quantité de rosée dépend fortement des propriétés de la surface sur laquelle elle se dépose,
par exemple ses propriétés radiatives, ses dimensions et son aspect (surface horizontale ou
verticale). Elle peut être mesurée en exposant une plaque (ou surface) naturelle ou artificielle,
dont les propriétés sont connues ou normalisées, et en évaluant la quantité de rosée par pesée,
par observation visuelle, ou à l’aide d’une autre grandeur physique, telle que la conductivité
électrique. Le problème réside dans le choix de la surface, étant donné que les résultats fournis
par les instruments ne sont pas nécessairement représentatifs des dépôts de rosée sur les objets
environnants. Il faudrait par conséquent établir, pour chaque cas particulier de surface et de
conditions d’exposition, une relation empirique entre les résultats des mesurages instrumentaux
et la quantité de rosée qui se dépose sur les éléments naturels, et faire une distinction entre les
divers processus de formation de la rosée lorsque cela est important pour l’application visée.
Un certain nombre d’équipements sont utilisés pour mettre en évidence et mesurer directement
la quantité et la durée du mouillage des feuilles et de la rosée. Les enregistreurs de la durée
de la rosée utilisent soit des éléments dont les caractéristiques varient lorsqu’ils sont mouillés
et qui peuvent ainsi servir à indiquer ou enregistrer la durée du mouillage, soit des capteurs
électriques dans lesquels la résistance superficielle de feuilles naturelles ou artificielles est
modifiée par l’eau fournie par la pluie, la neige, le brouillard ou la rosée. Dans les balances à
rosée, la quantité d’eau déposée par les précipitations ou la rosée est pesée et enregistrée. Avec
la plupart des instruments effectuant un enregistrement continu, l’examen des particularités de
l’enregistrement permet de distinguer entre les dépôts attribuables au brouillard, à la pluie et à
la rosée. L’unique méthode de mesure sûre permettant d’obtenir le bilan net de la chute de rosée
repose sur l’utilisation d’un lysimètre extrêmement sensible (voir le chapitre 10 de la partie I).
Plusieurs phénomènes peuvent être à l’origine de l’accumulation de glace sur une surface. Les
conditions de givrage les plus dangereuses sont l’accumulation de glace due à des précipitations
verglaçantes, souvent appelées verglas. En effet, ce phénomène peut endommager les arbres,
les arbustes ainsi que les lignes électriques et téléphoniques, et représenter un danger sur les
routes et les pistes. La gelée blanche (communément dénommée «gel») se forme lorsque de
l’air, dont le point de rosée est inférieur à la température de congélation, est amené à saturation
par refroidissement. Il s’agit d’un dépôt de cristaux de glace imbriqués, formé par condensation
directe sur des objets ou éléments de diamètre généralement faible tels que des branches
d’arbre, des tiges de plantes, des bordures de feuilles, des fils électriques et des poteaux. Le givre
est un dépôt granuleux de glace, blanc ou laiteux et opaque, provenant de la congélation rapide
de gouttelettes d’eau en surfusion au contact d’un objet exposé.
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 217
Dans les stations météorologiques, le relevé des dépôts de glace est généralement une opération
plus qualitative que quantitative, surtout en raison de l’absence de capteurs appropriés. On
utilise des indicateurs d’accrétion de glace, habituellement fabriqués en aluminium anodisé, pour
observer et relever l’apparition de précipitations verglaçantes, gelée blanche ou givre.
Les relevés des dépôts de glace peuvent comprendre tant la mesure des dimensions et du poids
du dépôt de glace qu’une description de son aspect. Ils sont particulièrement importants dans
les zones montagneuses où ces dépôts peuvent, sur le versant exposé au vent des montagnes,
excéder les précipitations normales. Un dispositif constitué d’un poteau et de baguettes sur
lesquelles sont montées deux paires de fils parallèles, orientées respectivement nord‑sud et
est‑ouest, peut être utilisé pour obtenir les dépôts de glace en vue des relevés. Les fils peuvent
être suspendus à un niveau ou à un autre, et le fil supérieur de chaque paire devrait être
amovible. Lors du relevé, les deux fils supérieurs sont retirés, placés dans un récipient spécial et
transportés dans la station pour que le dépôt de glace y fonde et puisse être pesé. On mesure la
section transversale du dépôt sur les fils les plus bas, qui demeurent toujours en place.
Selon la norme ISO 12494:2001 (ISO, 2001) qui s’applique à l’accrétion de glace sur tous les
types de structures hormis les câbles électriques des lignes aériennes, un instrument standard de
mesure de la glace peut se décrire comme suit:
a) Un cylindre lisse de 30 mm de diamètre, tournant autour d’un axe vertical, et d’au moins
0,5 m de longueur; si l’on prévoit une forte constitution de glace, la longueur devrait être de
1 m;
Dans Fikke et al. (2007), plusieurs types de détecteurs de glace sont décrits. Certains d’entre eux
sont utilisés pour le début ou la fin des périodes de gel, tandis que d’autres peuvent également
permettre de mesurer la vitesse d’accumulation de la glace (en général exprimée en kg m–2 h–1).
De nombreux capteurs reposent sur le principe de la mesure de la masse de glace s’accumulant
sur un tube vertical utilisé comme cible. Un capteur optique (faisceau infrarouge) détecte la
modification des propriétés réfléchissantes du tube cible lorsqu’il est couvert de glace. Un autre
capteur, largement utilisé pour la pluie se congelant, prend la forme d’une sonde vibrante.
La glace accumulée sur la sonde modifie sa fréquence de vibration, ce qui permet à la fois de
caractériser l’état de la glace et d’estimer la vitesse d’accumulation de celle‑ci. Un réchauffeur
interne de la sonde est utilisé pour faire fondre la glace et maintenir le capteur en état de
fonctionner.
218 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
6.6.2.2 Verglas
Des capteurs ont été mis au point et servent actuellement à la détection et à la description du
verglas sur les routes et les pistes ainsi qu’au soutien des programmes d’alerte et de maintenance.
Le chapitre 9 de la partie II fournit des informations plus précises sur ce point.
En combinant plusieurs mesures, il est possible de détecter la neige sèche ou mouillée ainsi
que plusieurs formes de gel. Un capteur utilisant deux électrodes logées à l’intérieur de la
route, au ras de la surface, mesure la conductivité électrique de cette dernière et détermine
facilement si elle est sèche ou mouillée. Une deuxième mesure, dite de la polarisabilité ionique,
détermine si la surface peut contenir une charge électrique: on fait passer une petite charge
entre deux électrodes pendant un bref instant puis les mêmes électrodes mesurent la charge
résiduelle, qui est plus élevée en présence d’un électrolyte à ions libres tel que de l’eau salée.
Une fois combinées, les mesures de polarisabilité et de conductivité permettent de distinguer
entre les surfaces sèches, humides et mouillées ainsi qu’entre le gel, la neige, la gelée blanche
et certains produits chimiques de dégel. Toutefois, étant donné que, dans certaines conditions,
la polarisabilité du givrage noir non cristallin ne peut être distinguée de celle de l’eau, il n’est
toujours pas possible de détecter ces dangereuses conditions au moyen des deux capteurs. Un
système, au moins, permet de résoudre le problème par l’ajout d’un troisième mesurage capacitif
spécialisé pour détecter la structure particulière du verglas.
La méthode décrite ci‑dessus est de nature passive. Une autre technique de terrain, de nature
active, fait intervenir un élément chauffant ou combine un élément chauffant et un élément
refroidissant pour faire fondre ou geler toute glace ou tout liquide présent sur la surface. Des
mesures simultanées de la température et de l’énergie thermique participant au cycle fonte‑gel
sont utilisées pour déterminer la présence de glace et estimer le point de congélation du mélange
qui s’est déposé sur la surface.
Deux méthodes de détection à distance, en cours de mise au point, sont adaptées aux systèmes
montés sur des véhicules. L’une repose sur la réflexion, à plusieurs fréquences, d’un rayonnement
infrarouge et d’ondes hyperfréquences (environ 3 000 nm et 3 GHz). En captant la réflexion du
rayonnement hyperfréquences, il est possible de déterminer l’épaisseur de la couche d’eau (et
donc le risque d’aquaplaning), mais non les conditions de gel. Deux fréquences dans l’infrarouge
permettent d’établir si la route est sèche, mouillée ou verglacée. Il a également été démontré que
la puissance réfléchie d’ondes dont la longueur est proche de 2000 nm dépendait de l’épaisseur
de la couche de glace.
Généralement, le brouillard est conçu par les météorologistes comme un phénomène obstruant
la visibilité davantage que comme une forme de précipitations. Toutefois, d’un point de vue
hydrologique, dans certaines régions arborées de haute altitude très sujettes au brouillard du fait
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 219
Au cours du siècle dernier, beaucoup de mesures du brouillard collecté par les arbres et divers
types de collecteurs ont été effectuées. Toutefois, il est difficile de procéder à une comparaison
quantitative de la vitesse d’accumulation. L’instrument le plus utilisé pour mesurer le brouillard se
compose d’un cylindre vertical en grillage métallique fixé et centré au‑dessus d’un pluviomètre,
de manière à être pleinement exposé à l’air circulant librement. Le cylindre mesure 10 cm de
diamètre et 22 cm de haut, et la maille du grillage est de 0,2 x 0,2 cm (Grunow, 1960). Les
gouttelettes d’air chargé d’humidité se déposent sur le grillage et tombent dans le collecteur du
pluviomètre, où elles sont mesurées et enregistrées comme des gouttes de pluie. Cet instrument
a notamment pour inconvénients sa petite taille, son manque de représentativité pour ce qui
est de la végétation, le fait que de l’eau adhère aux petites ouvertures du grillage et le risque
que des précipitations tombent directement dans le pluviomètre, biaisant la mesure du dépôt
de brouillard. En outre, le calcul des précipitations de brouillard par simple soustraction de la
quantité de pluie tombée dans un pluviomètre de référence (Grunow, 1963) à la valeur indiquée
par le collecteur de brouillard est imprécis s’il y a du vent.
Dans ce domaine, les textes qui font autorité sont OMM (2008) et OMM (1992a), qui portent
sur les aspects hydrologiques, y compris les méthodes de relevé sur les cheminements
nivométriques. Les paragraphes ci‑après récapitulent quelques méthodes simples et bien
connues et passent brièvement en revue les instruments connexes.
On entend par «chute de neige» l’épaisseur de la neige fraîche qui s’est déposée pendant une
période déterminée (généralement 24 heures). La chute de neige ne comprend donc ni les
congères ni les accumulations de neige dues à l’action du vent. Pour les besoins du mesurage
de l’épaisseur, le terme de «neige» devrait également inclure les granules de glace, le verglas, la
grêle et la glace de surface provoqués directement ou indirectement par les précipitations. Par
«épaisseur de neige», on entend généralement l’épaisseur totale de la neige au sol à l’heure de
l’observation.
On entend par «équivalent en eau du manteau neigeux» l’épaisseur de la couche d’eau que
produirait sa fonte.
Les mesures directes de l’épaisseur de la neige fraîche sur un terrain dégagé s’effectuent avec
une jauge ou une échelle graduée. Afin d’obtenir une valeur moyenne représentative, il faudrait
procéder à un nombre suffisant de mesurages verticaux dans des endroits où l’on considère
220 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les mesures de l’épaisseur du manteau neigeux ou de la neige accumulée au sol sont effectuées
au moyen d’une règle à neige, ou d’une jauge graduée, enfoncée dans la neige jusqu’à la
surface du sol. Il peut être difficile d’obtenir des mesures représentatives de l’épaisseur par cette
méthode dans les zones exposées, étant donné que le vent risque de chasser la neige et d’en
modifier la répartition et que le manteau neigeux peut contenir des couches de glace entravant la
pénétration de la règle. Il convient de s’assurer que l’on mesure bien l’épaisseur totale, y compris
l’épaisseur de toute couche de glace éventuelle. À chaque station d’observation, plusieurs
mesures sont effectuées, puis une moyenne est calculée.
L’implantation de plusieurs perches, sur lesquelles sont peints des anneaux de couleurs alternées
ou qui sont graduées d’une autre manière appropriée, constitue un moyen pratique pour
mesurer la hauteur totale de neige accumulée sur le sol, notamment dans les régions isolées.
L’épaisseur de la neige indiquée par la perche ou par l’indicateur peut être observée à distance,
soit à partir du sol soit depuis un avion, à l’aide de jumelles ou d’un télescope. Les perches
devraient être peintes en blanc de façon à réduire le plus possible la fonte de la neige à proximité.
Les indicateurs d’épaisseur de neige destinés à une lecture aérienne sont des poteaux verticaux
(de longueur variable, selon l’épaisseur maximale de la neige), munis de barreaux transversaux
placés horizontalement à des hauteurs données et orientés en fonction du point d’observation.
La mise au point d’un télémètre à ultrasons bon marché pour obtenir des mesures fiables de
la hauteur de neige dans les stations automatiques offre une solution pratique pour remplacer
les observations standard, tant pour la hauteur de neige que pour les chutes de neige fraîche
(Goodison et al., 1988). Plusieurs modèles ultrasonores ont été commercialisés et sont
couramment utilisés, associés à des systèmes automatiques. Ce type de capteurs peut servir
à contrôler la qualité des mesures obtenues à l’aide de capteurs enregistreurs automatiques
de précipitations, car il donne des détails supplémentaires sur le type et le volume des
précipitations, ainsi que des détails horaires. Il permet une précision de ± 1 cm.
La formule de correction de température pour les mesures de l’épaisseur de neige par ultrasons
est la suivante:
T
d = dr (6.3)
273,15
où d = épaisseur de la neige en cm; dr = valeur brute de l’épaisseur de neige en cm; et
T = température de l’air en K; T = 273,15 + t, t = température de l’air en °C.
Un autre nouveau modèle récent fait usage d’un rayon laser visible, modulé, et détermine
la distance au sol en comparant des données sur la phase. La mesure de la distance est
indépendante de la température de l’air, mais peut dépendre de la pénétration du faisceau laser
dans la surface de la neige selon le type de neige. Le point laser est lui aussi très petit, ce qui
augmente l’importance de la représentativité de la surface au sol.
Le choix d’une zone présentant de la végétation naturelle peut poser des problèmes, et il peut
donc être préférable d’opter pour une surface stable et contrôlée, telle qu’une pelouse artificielle,
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 221
ayant un bon contact thermique avec le sol. Certains Services météorologique et hydrologiques
nationaux ont indiqué avoir eu de bons résultats en utilisant des plaques de neige (voir OMM,
2010).
Il est possible de prélever des échantillons cylindriques de neige fraîche à l’aide d’un
échantillonneur approprié, puis de les peser ou de les faire fondre. La description détaillée des
instruments et des techniques d’échantillonnage en usage figure dans OMM (2008). Avec ce
type de technique, on utilise souvent le trop‑plein d’un pluviomètre standard.
Les nivomètres mesurent directement l’équivalent en eau de la chute de neige. À la base, tous
les pluviomètres non enregistreurs peuvent également servir à mesurer l’équivalent en eau des
précipitations solides. La neige collectée au moyen de ce type d’instrument devrait être soit
pesée soit fondue immédiatement après chaque observation, comme indiqué à la section 6.3.1.2.
Le pluviographe à pesée collecte aussi bien les précipitations solides que les précipitations
liquides et enregistre l’équivalent en eau de la même manière que les formes liquides (voir la
section 6.5.1).
L’équivalent en eau des précipitations solides peut également être estimé en utilisant l’épaisseur
de la chute de neige fraîche. On convertit cette épaisseur en son équivalent en eau à l’aide de
la densité spécifique appropriée. L’équation établissant qu’un centimètre de neige fraîche a
un équivalent en eau d’un millimètre est utilisable, moyennant certaines précautions, pour
déterminer des valeurs moyennes sur une longue période, mais risque de se révéler hautement
imprécise pour des mesures isolées, la densité spécifique de la neige pouvant varier de 0,03 à 0,4.
Ces coussins servent à mesurer le poids de la neige qui se dépose à leur surface. Ils sont de
dimensions variables et fabriqués en divers matériaux. Les plus courants revêtent la forme de
poches circulaires (d’un diamètre de 3,7 m), en tissu caoutchouté, remplies d’un mélange antigel
fait d’alcool méthylique et d’eau ou d’une solution de méthanol, de glycol et d’eau. Le coussin
s’installe à fleur de sol ou s’enfouit légèrement dans celui‑ci, sous une fine couche de terre ou de
sable. Il est recommandé de positionner une clôture autour du site pour éviter que l’équipement
ne soit détérioré et que l’état naturel du manteau neigeux ne soit modifié. Dans des conditions
d’utilisation normales, un coussin à neige reste utilisable une dizaine d’années ou plus.
Les systèmes d’acquisition de données sur le terrain et/ou à distance peuvent être installés
de manière à fournir une mesure en continu de l’équivalent en eau de la neige à l’aide de
diagrammes ou d’enregistreurs numériques.
222 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les résultats obtenus par la méthode des coussins diffèrent, en particulier pendant la période de
fonte des neiges, de ceux obtenus avec les tubes à neige classiques. Ils sont plus fiables quand le
manteau neigeux ne comporte pas de couches de glace pouvant créer des «ponts» au‑dessus des
coussins.
Une comparaison des valeurs de l’équivalent en eau obtenues respectivement par la méthode du
coussin et par la méthode classique de la pesée a montré qu’elles pouvaient différer entre elles de
5 à 10 %.
Des instruments nucléaires mesurent l’équivalent total en eau du manteau neigeux et/ou
fournissent un profil de densité. Il s’agit d’une méthode d’échantillonnage non destructrice
adaptable à l’enregistrement in situ et/ou aux systèmes de télémesure. Presque tous les systèmes
s’appuient sur le principe voulant que l’eau, la neige et la glace atténuent le rayonnement.
Comme pour les autres méthodes de mesurage ponctuel, la représentativité du lieu
d’implantation est essentielle pour que les mesures ponctuelles puissent être interprétées et
appliquées en tant qu’indices surfaciques.
Les instruments utilisés pour mesurer le contenu total en eau se composent d’un récepteur
de rayonnement et d’une source, naturelle ou artificielle. L’une des parties du système (le
détecteur ou la source) est placée à la base du stock nival et l’autre au‑dessus de la hauteur
maximale de neige prévue. À mesure que la neige s’accumule, le taux de comptage diminue
proportionnellement à l’équivalent en eau du manteau de neige. Les systèmes qui font appel
à une source de rayonnement artificielle sont utilisés en des points fixes et ne donnent de
mesure que pour le site choisi. Des résultats satisfaisants ont été obtenus pour mesurer des
accumulations de neige allant jusqu’à 500 mm d’équivalent en eau ou une épaisseur de 150 cm
avec un système faisant appel à de l’uranium présent naturellement comme source annulaire
autour d’un poteau détecteur unique.
Un nivomètre profileur radioactif implanté en un lieu fixe fournit des données sur l’équivalent
total en eau de la neige et sur la densité et permet d’étudier avec précision les mouvements
de l’eau et les fluctuations de densité qui se produisent dans le stock nival au fil du temps
(Armstrong, 1976). Un nivomètre profileur se compose de deux tuyaux d’accès parallèles placés
verticalement, espacés d’environ 66 cm et allant d’une base cimentée implantée dans le sol
jusqu’à une hauteur supérieure à la hauteur de neige attendue. Une source de rayons gamma
est suspendue dans l’un des tubes, et un détecteur ou scintillateur à rayons gamma connecté à
un tube photomultiplicateur, est suspendu dans l’autre. La source et le détecteur sont placés à
des profondeurs égales dans le manteau neigeux et une mesure est effectuée. Des profils de la
densité verticale du manteau neigeux sont obtenus en effectuant des mesures sur la hauteur, par
pas de 2 cm. Il est également possible d’utiliser un nivomètre portatif (Young, 1976) mesurant la
densité du manteau neigeux par rétrodiffusion plutôt que par transmission des rayons gamma,
ce qui évite de creuser des fosses à neige. En outre le caractère portatif de l’instrument permet
d’évaluer les variations surfaciques de la densité et de l’équivalent en eau.
Les relevés de l’enneigement par la méthode du rayonnement gamma naturel reposent sur
l’utilisation de l’atténuation par la neige du rayonnement gamma émis par les éléments
radioactifs naturels de la couche supérieure du sol. Plus l’équivalent en eau de la neige est
grand, plus l’atténuation du rayonnement gamma est importante. Ce type de relevés peut
consister soit en une mesure ponctuelle obtenue en un site éloigné, soit en une série de mesures
ponctuelles, soit en un cheminement déterminé dans une région (Loijens, 1975). Les relevés
peuvent également être effectués par avion. L’équipement comprend un spectromètre portatif
à rayons gamma utilisant un petit cristal qui mesure les rayons sur un large spectre et dans trois
gammes spectrales (émissions de potassium, d’uranium et de thorium). Avec cette méthode, il
est nécessaire de disposer de mesures du niveau de rayonnement gamma au point de mesure ou
le long du cheminement avant l’accumulation du manteau neigeux. Pour obtenir des estimations
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 223
absolues de l’équivalent en eau de la neige, il est nécessaire d’effectuer les corrections rendues
nécessaires par les variations de l’humidité du sol dans ses 10 à 20 premiers centimètres, par les
variations du rayonnement de fond induit par les rayons cosmiques, par la dérive de l’instrument,
ainsi que par le lessivage du radon (source de rayonnement gamma) par les précipitations et
son accumulation ultérieure dans le sol ou dans la neige. Pour déterminer la relation entre les
comptages du spectromètre et l’équivalent en eau, il est nécessaire de procéder initialement
à des mesures complémentaires de l’équivalent en eau de la neige. Les étalons de référence
habituels sont les mesures obtenues à l’aide des tubes à neige.
La méthode de mesure au moyen du rayonnement gamma naturel peut être utilisée pour
des manteaux neigeux représentant jusqu’à 300 mm d’équivalent en eau. Si les corrections
appropriées sont apportées, sa précision est de ±20 mm. Son avantage par rapport à l’utilisation
de sources artificielles de rayonnement tient à l’absence de risque dû au rayonnement.
Un étalonnage local de chaque instrument à l’aide de mesures de nivomètre sur le terrain s’avère
essentiel. Si cette précaution est prise, les mesures du nivomètre à rayonnement cosmique sont
d’une précision et d’une fiabilité tout à fait satisfaisante (Paquet et Laval, 2006).
ANNEXE 6.A. SITES DE COMPARAISON DES MESURES DE
PRÉCIPITATIONS
La présente annexe, qui porte sur les sites de comparaison de précipitations, se fonde sur des
déclarations de la Commission des instruments et des méthodes d’observation, faites lors de sa
onzième session (1994), puis mises à jour à la suite de sa quinzième session (2010):
La Commission a reconnu les avantages des sites ou des centres pluviométriques nationaux où
les instruments et les méthodes de mesure des précipitations, anciens, actuels et nouveaux,
peuvent être évalués en permanence par des stations désignées à cet effet. Ces stations
d’évaluation seraient chargées:
a) D’assurer le fonctionnement des types de capteurs recommandés par l’OMM pour la pluie
(fosse pour pluviomètre de référence) et pour la neige (instrument de référence à double
palissade pour la comparaison). En ce qui concerne l’installation et le fonctionnement des
capteurs, il faudra appliquer les spécifications de l’OMM pour la comparaison des mesures
de précipitations. L’installation d’un instrument de référence à double palissade sera inutile
si la pluie est le seul élément observé;
f) De tester toutes les méthodes disponibles de correction des mesures relatives à la pluie et
aux précipitations solides, en particulier celles qui sont mentionnées dans les rapports finals
des comparaisons OMM;
g) D’encourager les travaux de recherche sur les mesures des précipitations. Il n’est pas
attendu des centres qu’ils fournissent un service d’étalonnage ou de vérification des
instruments. Ils seraient chargés de formuler des recommandations concernant les
normes nationales relatives aux observations et d’évaluer les incidences des changements
de méthode d’observation sur l’homogénéité des séries chronologiques de données
pluviométriques dans la région. Ils serviraient de référence pour l’étalonnage et la validation
des observations des précipitations par radar ou d’autre système de télédétection.
ANNEXE 6.B. PROCÉDURES DE CORRECTION SUGGÉRÉES POUR LES
MESURES DES PRÉCIPITATIONS
La présente annexe, qui porte sur les procédures de correction des mesures de précipitations,
se fonde sur les déclarations qu’a faites la Commission des instruments et des méthodes
d’observation lors de sa onzième session (1994):
Les méthodes de correction sont fondées sur des concepts physiques simplifiés, qui ont déjà été
présentés dans le document OMM (1987). Elles varient en fonction du type de pluviomètres
utilisé. On a évalué les effets du vent sur un type donné d’instruments par des mesures
comparatives avec les étalons de référence de l’OMM (le pluviomètre enterré pour la pluie et
l’instrument de référence à double palissade pour la neige, comme cela est décrit dans OMM
(1984) et comme le révèlent les résultats préliminaires de la comparaison OMM des mesures des
précipitations solides (OMM, 1998)). On obtient la vitesse du vent au niveau de l’ouverture du
pluviomètre par la formule suivante:
( )( )
−1
uhp = log hz0−1 ⋅ log Hz0−1 ⋅ (1 − 0, 024α ) u H
Site principalement 6–12 Petits bosquets ou groupes d’arbustes ou encore une ou deux
exposé maisons
Site principalement 13–19 Parc, orée d’un bois, centre d’un village, ferme, groupe de maisons,
protégé jardin
Site protégé 20–26 Jeune forêt, petite clairière, parc avec de grands arbres, centre d’une
ville, vallée profonde fermée, terrain très escarpé, sous le vent de
grandes collines
Des pertes sont dues au mouillage des parois internes du pluviomètre. Elles varient en fonction
de la forme et du matériau de l’appareil, mais aussi du type et de la fréquence des précipitations.
À titre d’exemple, pour le pluviomètre de Hellmann, ces pertes atteignent en moyenne 0,3 mm
les jours de pluie et 0,15 mm les jours de neige, tandis que, pour le pluviomètre de Tretyakov, ces
valeurs moyennes sont respectivement de 0,2 et 0,1 mm. Des informations sur les pertes dues au
mouillage pour d’autres types de pluviomètres sont données dans le document OMM (1982).
ANNEXE 6.C. FOSSE POUR UN PLUVIOMÈTRE DE RÉFÉRENCE STANDARD
Le pluviomètre de référence doit être installé dans une fosse bien drainée, conformément aux
exigences liées à sa conception et aux spécifications de la norme EN 13798:2010 (CEN, 2010),
afin de réduire au minimum les effets de l’environnement sur les intensités de précipitations
mesurées. Il doit de plus être protégé par une grille en métal ou en plastique des éclaboussures
qui pourraient y pénétrer. Le pluviomètre, entièrement ou partiellement enterré, (voir
Koschmider, 1934; Sieck et al., 2007) devrait permettre de mesurer davantage de précipitations
qu’un pluviomètre au‑dessus du sol, avec un gain de captation de 10 % ou plus lorsque les deux
instruments sont précis et fonctionnent parfaitement. La fosse doit de préférence être creusée
sur un sol plan, afin d’éviter d’éventuelles eaux de ruissellement (voir la configuration préconisée
sur la figure 6.C.1). Elle devrait être suffisamment profonde pour loger le pluviomètre. La surface
de captation devrait être à niveau avec le haut de la grille (au niveau du sol) et se trouver au
centre de celle‑ci. La forme de la fosse doit être adaptée aux dimensions du pluviomètre et aux
exigences liées à son installation. Le fond de la fosse devrait présenter un renfoncement (double
fosse) pour permettre de drainer l’eau. La partie carrée centrale de la grille doit aussi être
adaptée au diamètre de la surface de captation, de manière à répondre aux exigences prescrites
dans le document CEN (2010). Les parois de la fosse doivent être constituées de briques et de
ciment et doivent être consolidées pour exclure tout affaissement. Des parois de soutien sont
construites autour des bords et une grille amovible (qui doit pouvoir être levée pour donner
accès au pluviomètre pour les opérations de contrôle et de maintenance) d’approximativement
1 875 x 1 875 x 120 mm (longueur x largeur x hauteur) est installée au‑dessus. La grille doit
se trouver à une distance d’environ 120–125 mm. Elle doit être suffisamment résistante pour
supporter qu’on marche dessus et garder sa forme sans se distordre. Pour empêcher que de
l’eau ne puisse entrer dans le pluviomètre par rejaillissement sur la surface supérieure de la grille,
le grillage doit avoir au moins 2 mm d’épaisseur et la distance entre le haut des bords du carré
central et le sol doit être de plus de 600 mm (pour plus de détails voir CEN, 2010). La figure 6.C.2
présente un exemple de fosses permettant de loger quatre pluviomètres de référence standard,
repris du document OMM (2009).
Figure 6.C.2. Fosses pour pluviomètres de référence à Vigna di Valle, en Italie (2007),
installées à l’occasion de la comparaison OMM sur le terrain
de pluviomètres enregistreurs d’intensité
ANNEXE 6.D. PROCÉDURE NORMALISÉE POUR L’ÉTALONNAGE EN
LABORATOIRE DES PLUVIOMÈTRES ENREGISTREURS D’INTENSITÉ DE
TYPE RÉCEPTEUR
1. Principes
Le laboratoire d’étalonnage devrait être adapté à l’étalonnage des instruments utilisés sur le
terrain. Il faudrait non seulement disposer d’un système de référence bien conçu, mais aussi de
procédures d’étalonnage finement documentées; de plus, l’installation et le personnel devraient
être prêts avant le début de toute activité d’étalonnage – pour de plus amples informations,
voir la norme ISO/CEI 17025 (ISO/CEI, 2005). Chaque étalonnage donnera lieu à l’émission d’un
certificat présentant les résultats obtenus (y compris les corrections à apporter) permettant un
contrôle de conformité sur la base des recommandations pertinentes de l’OMM.
Les pluviomètres enregistreurs d’intensité devraient être étalonnés à l’aide d’un système qui:
b) Peut mesurer le débit en pesant la quantité d’eau sur une période donnée;
2. Exigences
a) Le système d’étalonnage devrait être conçu pour obtenir des incertitudes inférieures à 1 %
pour l’intensité des précipitations, et ces performances devraient être décrites en détail;
b) Dans le cas des pluviomètres à augets basculeurs, il convient de vérifier que l’auget bascule
sans problème afin de garantir que la durée de basculement ne varie que très peu lors du
processus de mesure;
d) Les points de réglage de référence pour l’intensité des précipitations devraient être
suffisamment nombreux pour établir une courbe d’ajustement par interpolation. Ces
réglages de référence devraient être choisis et répartis de manière à pouvoir déterminer par
interpolation la courbe d’étalonnage pour que l’incertitude de la courbe d’ajustement soit
inférieure à la limite d’incertitude des mesures autorisée pour la totalité de la gamme de
fonctionnement;
g) Tous les essais devraient durer assez longtemps pour garantir une incertitude inférieure à
1 % dans les mesures de l’intensité;
h) La résolution temporelle maximale pour les mesures de l’intensité devrait être d’une
seconde;
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 229
i) Pour limiter les sources d’erreur dans toutes les activités de laboratoire connexes, il
convient:
k) Les conditions ambiantes au cours de chaque étalonnage doivent être notées et consignées:
vi) Toute autre condition pouvant avoir un effet sur l’étalonnage (par exemple des
vibrations);
l) Le nombre d’essais réalisés pour chaque instrument et leur description en termes d’unités
de temps et/ou de nombre de basculements doivent être indiqués.
a) Les résultats devraient être présentés sous forme d’un graphique illustrant l’erreur relative
par rapport à l’intensité de référence. L’erreur relative est évaluée comme suit pour chaque
débit de référence:
Im − Ir
e= ⋅100 %
Ir
où Im représente l’intensité mesurée par l’instrument et Ir est l’intensité de référence fournie
pour l’instrument;
b) De préférence cinq essais, mais trois au minimum, devraient être réalisés pour chaque série
d’intensités de référence, de façon à pouvoir disposer de cinq valeurs d’erreur pour chaque
instrument. L’erreur moyenne et les valeurs moyennes de Ir et de Im sont obtenues en
écartant les valeurs minimale et maximale de e obtenues pour chaque débit de référence,
puis en établissant la moyenne arithmétique des trois erreurs et valeurs d’intensité de
référence restantes. Pour chaque intensité de référence, il faudrait indiquer une marge
d’erreur englobant les cinq valeurs d’erreur utilisées pour calculer les moyennes;
230 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
d) Les limites de ±5 % doivent figurer dans les graphiques présentant les résultats pour faciliter
la comparaison des résultats obtenus avec les recommandations de l’OMM;
f) Outre les mesures fondées sur des débits constants, il faudrait déterminer la réaction par
palier de chaque instrument qui n’est pas un pluviomètre à augets basculeurs. Celle‑ci
devrait être mesurée en passant d’un débit constant à un autre, à savoir de 0 mm h–1 à
l’intensité de référence puis de retour à 0 mm h–1. Le débit constant devrait être appliqué
jusqu’à ce que le signal de sortie de l’instrument soit stabilisé, c’est‑à‑dire lorsque les
variations ou fluctuations de l’intensité établie sont négligeables par rapport à l’incertitude
de mesure connue du système de référence. Il faut effectuer au moins un échantillonnage
à la minute lorsque l’instrument le permet. Le temps écoulé avant la stabilisation est
considéré comme correspondant au délai de mesure de l’intensité de référence de
l’instrument. Un délai de moins d’une minute est requis pour une mesure exacte de
l’intensité. Le temps de réaction devrait toujours figurer sur le certificat d’étalonnage.
4. Calcul de l’incertitude
Ces deux sources d’incertitude sont indépendantes l’une de l’autre; on peut donc effectuer des
analyses distinctes et combiner les résultats dans le bilan de l’incertitude.
ANNEXE 6.E. PROCÉDURE POUR L’ÉTALONNAGE SUR LE TERRAIN DES
PLUVIOMÈTRES ENREGISTREURS D’INTENSITÉ DE TYPE RÉCEPTEUR
L’étalonnage sur le terrain fait partie des opérations de maintenance et de contrôle à effectuer
régulièrement sur le terrain. Elle a pour but premier de vérifier l’état de fonctionnement des
pluviomètres: détecter les défauts, les anomalies de sortie et les erreurs d’étalonnage au fil du
temps ou entre deux étalonnages en laboratoire. Les étalonnages sur le terrain offrent aussi des
informations précieuses pour l’analyse et l’interprétation des données. La procédure se fonde sur
le même principe que l’étalonnage en laboratoire (décrit à l’annexe 6.D), à savoir la production
d’une intensité constante (écoulement stationnaire de référence) dans les limites de la gamme
d’utilisation de l’instrument.
D’une utilisation très simple, l’étalonneur de terrain portable permet de procéder à des
tests rapides. De plus, étant dépourvu de tout élément complexe, il offre un bon rapport
coût‑efficacité pour la vérification métrologique des instruments destinés à mesurer l’intensité
des précipitations.
Une analyse statistique des erreurs relatives pour le débit de référence sur le terrain de
l’étalonneur devrait être menée pour chaque pluviomètre étalonné sur le terrain. Au moins
25 à 30 points de données (normalement des valeurs d’intensité sur une minute en mm h‑1)
devraient être enregistrés pour chaque intensité de référence (déterminée par l’étalonneur de
terrain). On peut alors présupposer une distribution normale des données autour de la valeur
moyenne, ce qui permet de mieux estimer la moyenne et d’améliorer la précision des résultats
Arrivée d’air
Robinet
Air
Électrodes pour
la mesure du
temps de vidage Eau
Embout
Horloge
électronique
Intensité pluviométrique (mm/h) = constante
(selon le théorème central limite). Tous les tests doivent être effectués dans des conditions
environnementales dénuées de précipitations et de brouillard et avec un faible écoulement de
vent (pour éviter toute perturbation de pression dynamique de l’arrivée d’air). L’intensité de
référence devrait toujours être prise en compte à partir du début d’une minute synchronisée
avec l’horloge de l’instrument ou le chronomètre de l’enregistreur de données (heure officielle/
indiquée à la station).
a) La date et l’heure;
d) Les extrêmes (à savoir I I+CL95 % et I–CL95 %) d’un intervalle [avgI – δ(95 %);
avgI + δ(95 %)] = [I+CL95 %; I–CL95 %], correspondant au niveau de confiance de 95 %.
L’amplitude δ (95 %) est la demi‑largeur de l’intervalle de confiance calculé selon une
distribution des probabilités des échantillons normale ou de Student t (elle comprend un
calcul de l’écart type);
Armstrong, R.L., 1976: The application of isotopic profiling snow‑gauge data to avalanche research.
Proceedings of the Forty‑fourth Annual Western Snow Conference, Service de l’environnement
atmosphérique, Canada, p. 12–19.
Colli, M., L.G. Lanza et P.W. Chan, 2013a: Co‑located tipping‑bucket and optical drop counter RI
measurements and a simulated correction algorithm. Atmospheric Research, 119:3–12.
Colli, M., L.G. Lanza et P. La Barbera, 2013b: Performance of a weighing rain gauge under laboratory
simulated time‑varying reference rainfall rates. Atmospheric Research, 131:3–12.
Comité européen de normalisation (CEN), 2010: Hydrométrie. Spécification pour une fosse de référence
d'installation d'un pluviomètre, EN 13798:2010.
Fikke, S., G. Ronsten, A. Heimo, S. Kunz, M. Ostrozlik, P.E. Persson, J. Sabata, B. Wareing, B. Wichura,
J. Chum, T. Laakso, K. Säntti et L. Makkonen, 2007: COST‑727: Atmospheric Icing on Structures;
Measurements and data collection on icing: State of the Art, MétéoSuisse, No. 75.
Goodison, B.E., J.R. Metcalfe, R.A. Wilson et K. Jones, 1988: The Canadian automatic snow depth sensor: A
performance update. Proceedings of the Fifty‑sixth Annual Western Snow Conference, Service de
l’environnement atmosphérique, Canada, p. 178–181.
Goodison, B.E., B. Sevruk, et S. Klemm, 1989: WMO solid precipitation measurement intercomparison:
Objectives, methodology and analysis. Dans: International Association of Hydrological
Sciences, 1989: Atmospheric deposition. Proceedings, Baltimore Symposium (mai 1989), IAHS
Publication No. 179, Wallingford.
Grunow, J., 1960: The productiveness of fog precipitation in relation to the cloud droplet spectrum. Dans:
American Geophysical Union, 1960, Physics of precipitation. Geophysical Monograph No. 5,
Proceedings of the Cloud Physics Conference (Woods Hole, Massachusetts, 3–5 juin 1959),
Publication No. 746, p. 110–117.
———, 1963: Weltweite Messungen des Nebelniederschlags nach der Hohenpeissenberger Methode. Dans:
International Union of Geodesy and Geophysics, General Assembly (Berkeley, Californie,
19‑31 août 1963), International Association of Scientific Hydrology Publication No. 65, 1964,
p. 324–342.
Habib, E., W.F. Krajewski et A. Kruger, 2001: Sampling errors of tipping‑bucket rain gauge measurements.
Journal of Hydrologic Engineering, 6:159–166.
Institut hydrométéorologique slovaque et Institut fédéral suisse de technologie, 1993: Precipitation
measurement and quality control. Proceedings of the International Symposium on Precipitation and
Evaporation (dir.: B. Sevruk et M. Lapin) (Bratislava, 20–24 septembre 1993), Volume I,
Bratislava et Zurich.
Koschmieder, H., 1934: Methods and results of definite rain measurements; III. Danzig Report (1). Monthly
Weather Review, 62:5–7.
Legates, D.R. et C.J. Willmott, 1990: Mean seasonal and spatial variability in gauge‑corrected, global
precipitation. Int. J. Climatology, 10:111–127.
Loijens, H.S., 1975: Measurements of snow water equivalent and soil moisture by natural gamma radiation.
Proceedings of the Canadian Hydrological Symposium‑75 (Winnipeg, 11–14 août 1975), p. 43–50.
Nespor, V. et B. Sevruk, 1999: Estimation of wind‑induced error of rainfall gauge measurements using a
numerical simulation. Journal of Atmospheric and Oceanic Technology, 16(4):450–464.
Niemczynowicz, J., 1986: The dynamic calibration of tipping‑bucket raingauges. Nordic Hydrology,
17:203–214.
Organisation internationale de normalisation, 2001: Charges sur les structures dues à la glace, ISO 12494:2001,
Genève.
Organisation internationale de normalisation/Commission électrotechnique internationale (CEI), 2005:
Exigences générales concernant la compétence des laboratoires d'étalonnages et d'essais,
ISO/CEI 17025:2005/Cor 1:2006, Genève.
Organisation météorologique mondiale, 1972: Evaporation losses from storage gauges (B. Sevruk). Dans La
distribution des précipitations dans les régions montagneuses, Colloque de Geilo (Norvège,
31 juillet‑5 août 1972), Volume II: exposés techniques (OMM‑N° 326), Genève.
——— 1982: Methods of Correction for Systematic Error in Point Precipitation Measurement for Operational Use
(B. Sevruk). Operational Hydrology Report No. 21 (WMO‑No. 589), Genève.
——— 1984: International Comparison of National Precipitation Gauges with a Reference Pit Gauge (B Sevruk et
W.R. Hamon). Instruments and Observing Methods Report No. 17 (WMO/TD‑No. 38),
Genève.
234 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
——— 1985: International Organizing Committee for the WMO Solid Precipitation Measurement Intercomparison.
Rapport final de la première session (distribué aux participants uniquement), Genève.
——— 1986: Papers Presented at the Workshop on the Correction of Precipitation Measurements (dir.: B. Sevruk)
(Zurich, Suisse, 1er‑3 avril 1985). Instruments and Observing Methods Report No. 25
(WMO/TD‑No. 104), Genève.
———, 1987: Instruments Development Inquiry (E. Prokhorov). Instruments and Observing Methods Report
No. 24 (WMO/TD‑No. 231), Genève.
———, 1989a: Catalogue of National Standard Precipitation Gauges (B. Sevruk et S. Klemm). Instruments and
Observing Methods Report No. 39 (WMO/TD‑No. 313), Genève.
——— 1989b: International Workshop on Precipitation Measurements (dir.: B. Sevruk) (Saint‑Moritz, Suisse,
3‑7 décembre 1989). Instruments and Observing Methods Report No. 48 (WMO/TD‑No. 328),
Genève.
——— 1992a: Snow Cover Measurements and Areal Assessment of Precipitation and Soil Moisture (dir.: B. Sevruk).
Operational Hydrology Report No. 35 (WMO‑No. 749), Genève.
——— 1992b: Report on the Measurement of Leaf Wetness (R.R. Getz). Agricultural Meteorology Report No. 38
(WMO/TD‑No. 478), Genève.
——— 1998: WMO Solid Precipitation Measurement Intercomparison: Final Report (B.E. Goodison, P.Y.T. Louie et
D. Yang). Instruments and Observing Methods Report No. 67 (WMO/TD‑No. 872), Genève.
———, 2006: WMO Laboratory Intercomparison of Rainfall Intensity Gauges (L.G. Lanza, M. Leroy,
C. Alexandropoulos, L. Stagi et W. Wauben). Instruments and Observing Methods Report
No. 84 (WMO/TD‑No. 1304), Genève.
———, 2008: Guide des pratiques hydrologiques (OMM‑N° 168), Volume I, Genève.
———, 2009: WMO Field Intercomparison of Rainfall Intensity Gauges (E. Vuerich, C. Monesi, L.G. Lanza,
L. Stagi et E. Lanzinger). Instruments and Observing Methods Report No. 99
(WMO/TD‑No. 1504), Genève.
———, 2010: Optimized snow plates and snow grids for automatic and manual snow depth measurements
(E. Lanzinger et M. Theel). Paper presented at the WMO Technical Conference on Meteorological and
Environmental Instruments and Methods of Observation (TECO‑2010). Instruments and Observing
Methods Report No. 104 (WMO/TD‑No. 1546), Genève.
Paquet, E. et M.T. Laval, 2006: Retour d'expérience et perspectives d'exploitation des nivomètres à
rayonnement cosmique d'EDF, La Houille Blanche, 2:113–119.
Rinehart, R.E., 1983: Out‑of‑level instruments: Errors in hydrometeor spectra and precipitation
measurements. Journal of Climate and Applied Meteorology, 22:1404–1410.
Schemenauer, R.S. et P. Cereceda, 1991: Fog water collection in arid coastal locations. Ambio,
20 (7):303‑308.
———,1994a: Fog collection’s role in water planning for developing countries. Natural Resources Forum,
18(2):91–100.
———, 1994b: A proposed standard fog collector for use in high‑elevation regions. Journal of Applied
Meteorology, 33(11):1313–1322.
Sevruk, B., 1974a: Correction for the wetting loss of a Hellman precipitation gauge. Hydrological Sciences
Bulletin, 19(4):549–559.
———1974b: Evaporation losses from containers of Hellman precipitation gauges. Hydrological Sciences
Bulletin, 19(2):231–236.
———1984: Comments on “Out‑of‑level instruments: Errors in hydrometeor spectra and precipitation
measurements”. Journal of Climate and Applied Meteorology, 23:988–989.
Sevruk, B. et V. Nespor, 1994: The effect of dimensions and shape of precipitation gauges on the
wind‑induced error. Dans: Global Precipitation and Climate Change (dir.: M. Desbois et
F. Desalmand), NATO ASI Series, Springer Verlag, Berlin, 126:231–246.
Sevruk, B. et L. Zahlavova, 1994: Classification system of precipitation gauge site exposure: Evaluation and
application. International Journal of Climatology, 14(6): 681–689.
Sieck, L.C., S.J. Burges et M. Steiner, 2007: Challenges in obtaining reliable measurements of point rainfall. Water
Resources Research, 43:1–23.
Smith, J.L., H.G. Halverson, et R.A. Jones, 1972: Central Sierra Profiling Snowgauge: A Guide to Fabrication and
Operation. USAEC Report TID‑25986, National Technical Information Service, U.S. Department
of Commerce, Washington.
Stadtmuller, T. et N. Agudelo, 1990: Amount and variability of cloud moisture input in a tropical cloud
forest. Dans: Proceedings of the Lausanne Symposia (août/novembre), IAHS Publication No. 193,
Wallingford.
Vong, R.J., J.T. Sigmon et S.F. Mueller, 1991: Cloud water deposition to Appalachian forests. Environmental
Science and Technology, 25(6):1014–1021.
CHAPITRE 6. MESURE DES PRÉCIPITATIONS 235
Yang, D., J.R. Metcalfe, B.E. Goodison et E. Mekis, 1993: True Snowfall: An evaluation of the Double Fence
Intercomparison Reference Gauge. Proceedings of the Fiftieth Eastern Snow Conference, Québec,
Canada, 8‑10 juin 1993, p. 105–111.
Yang, D., B.E. Goodison, J.R. Metcalfe, V.S. Golubev, E. Elomaa, T. Gunther, R. Bates, T. Pangburn,
C.L. Hanson, D. Emerson, V. Copaciu et J. Milkovic, 1995: Accuracy of Tretyakov precipitation
gauge: results of WMO intercomparison. Hydrological Processes, 9:877–895.
Young, G.J., 1976: A portable profiling snow‑gauge: Results of field tests on glaciers. Proceedings of the
Forty‑fourth Annual Western Snow Conference, Service de l’environnement atmosphérique,
Canada, p. 7–11.
TABLE DES MATIÈRES DU CHAPITRE
Page
Page
7.1 GÉNÉRALITÉS
Les différents flux de rayonnement reçus ou émis par la surface terrestre font partie des termes les
plus importants de l’économie thermique de l’ensemble du globe et de n’importe quel point de
la surface terrestre et de l’atmosphère. Les mesures du rayonnement servent aux fins suivantes:
c) Étudier la distribution et les variations des rayonnements incident, sortant et total résultant;
e) Vérifier les mesures du rayonnement effectuées par satellite, ainsi que leurs algorithmes de
traitement des résultats.
De telles applications requièrent des séries régulières de données sur les composantes du
rayonnement solaire et terrestre en surface, collectées par un vaste réseau d’observation, ainsi
que la dérivation de mesures représentatives du rayonnement total résultant. Parallèlement
à la publication des séries de valeurs recueillies par les diverses stations d’observation, il faut
impérativement établir des climatologies très complètes du rayonnement, afin d’évaluer avec
plus d’exactitude les variations quotidiennes et saisonnières des différentes composantes
radiatives du bilan thermique général et de mieux comprendre leurs relations avec les autres
éléments météorologiques.
On trouvera dans la publication OMM (1986) des informations très utiles sur le fonctionnement
et la conception des réseaux de stations radiométriques. La partie IV du présent guide décrit les
principes scientifiques sur lesquels reposent les mesures et donne des indications sur le contrôle
qualité, qui est capital dans le cas des mesures du rayonnement. Afin d’obtenir un aperçu des
progrès les plus récents accomplis dans le domaine, on se reportera à la publication Baseline
Surface Radiation Network (BSRN) Operations Manual (OMM, 1998).
Conformément à la pratique courante dans ce domaine, les erreurs et les incertitudes sont
exprimées dans le présent chapitre sous la forme d’un intervalle de confiance à 66 % quant à
l’écart par rapport à la valeur réelle, ce qui correspond à l’écart type de la population de valeurs.
On indique au besoin des intervalles de confiance pour certaines incertitudes, et ces dernières
sont évaluées à l’aide de la méthode de l’Organisation internationale de normalisation (ISO/CEI,
2008/JCGM, 2008). Par exemple, une incertitude à 95 % implique que cette incertitude est liée à
un intervalle de confiance à 95 %.
7.1.1 Définitions
À l’annexe 7.A figure une nomenclature des grandeurs du rayonnement, notamment celles
qui servent aux applications photométriques et optiques. Elle est fondée sur les définitions
recommandées par la Commission internationale des radiations de l’Association internationale
de météorologie et des sciences de l’atmosphère et par la Commission internationale de
l’éclairage (CIE). L’annexe 7.B donne les grandeurs météorologiques du rayonnement, avec les
symboles et les définitions associés.
CHAPITRE 7. MESURE DU RAYONNEMENT 239
Les grandeurs du rayonnement sont généralement classées en deux groupes selon leur
origine: rayonnement solaire et rayonnement terrestre. Dans le contexte du présent chapitre,
le «rayonnement» peut être lié à un processus ou s’appliquer à de multiples grandeurs. Par
exemple, le «rayonnement solaire» peut faire référence à l’énergie solaire, à l’exposition solaire ou
à l’éclairement énergétique du Soleil (voir l’annexe 7.B).
L’énergie solaire est l’énergie électromagnétique émise par le Soleil. Le rayonnement solaire
incident au sommet de l’atmosphère est appelé rayonnement solaire extraterrestre; 97 %
de celui‑ci est compris dans le domaine spectral 290–3 000 nm, et correspond à ce que l’on
appelle rayonnement solaire (parfois rayonnement de courtes longueurs d’onde). Une partie
du rayonnement solaire extraterrestre traverse l’atmosphère pour atteindre la surface terrestre,
tandis qu’une autre partie est diffusée et/ou absorbée dans l’atmosphère par les molécules
gazeuses, les particules d’aérosols, les gouttelettes d’eau et les cristaux de glace présents dans les
nuages.
Étant donné que les distributions spectrales des rayonnements solaire et terrestre ne se
recoupent que très peu, ceux‑ci sont souvent considérés séparément tant dans les mesures
que dans les calculs. En météorologie, la somme de ces deux rayonnements est appelée
«rayonnement total».
La lumière est le rayonnement visible, soit celui qui est perceptible par l’œil humain. Le
domaine spectral du rayonnement visible est défini par l’efficacité lumineuse spectrale pour
un observateur de référence. La limite inférieure est comprise entre 360 et 400 nm et la limite
supérieure entre 760 et 830 nm (CIE, 1987). Le rayonnement de longueurs d’onde inférieures à
environ 400 nm est appelé ultraviolet, celui supérieur à environ 800 nm infrarouge. Le domaine
ultraviolet est parfois subdivisé en trois régions (CEI, 1987):
UV‑A: 315–400 nm
UV‑B: 280–315 nm
UV‑C: 100–280 nm
7.1.2.1 Unités
7.1.2.2 Normalisation
a) Conserver, sur plusieurs décennies, une stabilité supérieure à 0,2 % de la valeur mesurée;
b) Présenter une incertitude (95 %) de la série de mesures effectuées conforme aux limites
d’incertitude de la RRM;
c) Être d’une autre conception que les radiomètres appartenant déjà au GEM.
Les instruments du groupe sont comparés entre eux au moins une fois par an, afin de vérifier que
leur stabilité reste bien conforme à la norme fixée, raison pour laquelle ils se trouvent au Centre
radiométrique mondial de Davos.
Pour étalonner un radiomètre, il faudrait se référer aux lectures d’un des instruments du GEM, ou
d’un instrument directement étalonné par l’intermédiaire de la chaîne de raccordement au GEM.
Au cours des comparaisons internationales de pyrhéliomètres (IPC), la valeur de la RRM s’obtient
en calculant la moyenne des mesures fournies par au moins trois des instruments du GEM. Les
valeurs représentatives de la RRM sont toujours établies en appliquant aux lectures de chaque
instrument du GEM le facteur d’alignement qui lui a été assigné au moment de son incorporation
dans le groupe. Étant donné que le calcul de cette moyenne servant de référence peut être
faussé par le mauvais fonctionnement d’un ou plusieurs radiomètres du GEM, la Commission des
instruments et des méthodes d’observation a décidé1 que lors de chaque comparaison, il faudrait
mettre sur pied un groupe spécial composé du rapporteur pour les instruments météorologiques
radiométriques (ou un remplaçant désigné) et d’au moins cinq membres, dont le président. Le
directeur de la comparaison doit participer aux réunions du groupe à titre d’expert. Le groupe
devrait discuter des résultats préliminaires de la comparaison, à partir des critères définis par le
Centre radiométrique mondial, évaluer la référence et recommander l’actualisation des facteurs
d’étalonnage.
1
Résolution adoptée par la Commission à sa onzième session (1994).
CHAPITRE 7. MESURE DU RAYONNEMENT 241
L’éclairement énergétique et l’exposition énergétique sont les grandeurs les plus couramment
enregistrées et archivées, sous forme de moyennes et de totaux calculés sur une heure. Les
données portant sur des périodes plus courtes, pouvant se réduire à une minute ou même
à des dixièmes de seconde (pour certaines applications énergétiques), sont aussi utilisées
fréquemment. Les totaux quotidiens sont aussi abondamment employés, mais ils sont exprimés
en éclairement énergétique quotidien moyen. Les mesures de l’extinction atmosphérique
doivent être faites avec des temps de réponse très courts afin de réduire les incertitudes associées
aux variations des masses d’air.
7.1.3.2 Incertitude
Pour ce qui est de la plupart des grandeurs de rayonnement, les exigences en matière
d’incertitude n’ont pas été officiellement établies, mais on trouve des informations à cet égard
dans les sections du présent chapitre consacrées aux divers types de mesures; on a par ailleurs
défini des meilleures pratiques pour le Réseau de référence pour la mesure du rayonnement en
surface du Système mondial d’observation du climat (voir OMM, 1998). De manière générale, on
peut dire qu’il est difficile d’obtenir des mesures de qualité dans la pratique; et pour l’exploitation
courante, elles nécessitent un équipement moderne et des mesures répétées. Quelques systèmes
de mesure encore utilisés ne donnent pas de résultats optimaux, des données de qualité
inférieure ayant été acceptables pour de nombreuses applications. Cependant, les besoins en
matière de données répondant aux normes de qualité les plus élevées ne cessent d’augmenter.
Pour limiter l’incertitude aux niveaux requis, l’idéal est de procéder à des observations à une
fréquence plus élevée que la constante de temps, 1/e, de l’instrument, même si les données qui
seront finalement enregistrées sont des totaux intégrés sur des périodes d’une heure ou plus. Les
données simples peuvent être des totaux intégrés ou un flux moyen calculé à partir d’échantillons
individuels. Les systèmes de données numériques sont de loin ceux qui conviennent le mieux.
Les enregistreurs graphiques et autres types d’intégrateurs sont beaucoup moins pratiques et
donnent des résultats qu’il est difficile de maintenir en conformité avec les exigences en matière
d’incertitude.
Dans un réseau mondial de mesure du rayonnement, il est important que les données soient
non seulement homogènes sous l’angle de l’étalonnage, mais également exprimées par
rapport au même temps de référence. Aussi, toutes les mesures de rayonnement devraient se
rapporter à ce que l’on appelle dans certains pays le temps vrai local et, dans d’autres, le temps
solaire vrai (TSV). L’emploi du temps légal ou universel est, certes, intéressant, parce que plus
commode, pour les systèmes automatiques, mais il ne peut être accepté que si la réduction
des données en TSV n’entraîne pas une perte significative d’informations (c’est‑à‑dire si la
242 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les radiomètres météorologiques peuvent être classés selon différents critères: le type de
grandeur à mesurer, l’angle d’ouverture, la réponse spectrale, l’utilisation courante, etc.
On trouvera au tableau 7.1 ci‑après les plus importants types de classifications. La qualité
des instruments est caractérisée par les éléments a) à h) ci‑après. Les instruments et leur
fonctionnement sont décrits dans les sections 7.2 à 7.4. Pour plus de détails sur les instruments et
les principes de fonctionnement appliqués, on se reportera à la publication OMM (1986).
La plupart des capteurs de rayonnement ne sont toutefois pas absolus et doivent être étalonnés
par rapport à un instrument absolu. L’incertitude des mesures dépend alors des facteurs ci‑après,
qui devraient tous être connus dans le cas d’un instrument dont les caractéristiques techniques
sont bien établies:
e) L’écart de la réponse spectrale par rapport à un état initial, par exemple le noircissement de
la surface réceptrice, l’effet de la fenêtre d’ouverture, etc.;
Les instruments devraient être choisis en fonction de leur utilisation finale et des exigences en
matière d’incertitude des valeurs dérivées. Certains instruments sont mieux adaptés à tels ou tels
climats, éclairements énergétiques et positions du Soleil.
Le rayonnement solaire direct se mesure à l’aide de pyrhéliomètres orientés de telle manière que
leurs surfaces réceptrices soient perpendiculaires au faisceau solaire direct. En jouant avec les
ouvertures, on peut ne mesurer que le seul rayonnement provenant du disque solaire et d’une
zone annulaire étroite de ciel circumsolaire; on parle dans ce dernier cas d’un rayonnement
circumsolaire. Les instruments modernes interceptent cette zone sous un demi‑angle de
2,5° ou de 5° à partir du centre du disque solaire (soit sous un angle solide de 6 · 10 –3 et
2,4 · 10 –2 stéradians (sr)). La monture du pyrhéliomètre doit permettre d’assurer des réglages
en hauteur et en azimut rapides et aisés. L’instrument comporte habituellement un dispositif de
visée, agencé de façon qu’un petit point lumineux (image solaire) tombe sur un repère situé au
centre de la cible quand la surface réceptrice est exactement perpendiculaire au faisceau solaire
direct. Pour des enregistrements continus, il est conseillé d’utiliser des mécanismes automatiques
de poursuite du Soleil.
Pour les nouveaux instruments, il est recommandé d’adopter comme demi‑angle d’ouverture
une valeur de 2,5° (6 · 10 –3 sr) et comme angle de pente une valeur de 1°. Ces angles sont définis
à la figure 7.1.
les deux ouvertures mentionnées peut atteindre 2 %. Afin de rendre possibles les comparaisons
climatologiques du rayonnement solaire direct durant les différentes saisons, il peut être
nécessaire de rapporter toutes les données à la distance moyenne Terre‑Soleil:
EN = E / R 2 (7.1)
Le tableau 7.2 (inspiré de la publication ISO, 1990a) décrit certaines des caractéristiques des
pyrhéliomètres opérationnels (autres que les étalons primaires), et donne des estimations des
incertitudes des mesures effectuées à l’aide de ces instruments pour autant qu’ils soient utilisés
par un personnel compétent et qu’ils fassent l’objet d’un contrôle qualité. Des instruments
meilleur marché sont disponibles (voir ISO, 1990a), mais si leur réponse est plus lente,
l’incertitude qui en résulte réduit la qualité des données, et le coût d’un dispositif de poursuite
du Soleil, qui est nécessaire aux mesures du faisceau direct, ne serait pas justifié par rapport au
coût de l’achat d’un pyrhéliomètre de qualité. Les incertitudes estimées sont fondées sur les
hypothèses suivantes:
b) Les chiffres données toutes les minutes et toutes les heures concernent les rayonnements
par temps clair à midi;
c) Les valeurs quotidiennes d’exposition concernent les jours dégagés à des latitudes
moyennes.
Un pyrhéliomètre absolu peut définir l’échelle d’éclairement énergétique total sans avoir besoin
de se référer à des sources ou à des émetteurs de référence. Les limites d’incertitude de la
définition doivent être connues; le degré de finesse de cette connaissance détermine la fiabilité
d’un pyrhéliomètre absolu. Seuls des laboratoires spécialisés devraient exploiter et entretenir les
étalons primaires. Pour une description détaillée de leur fabrication et de leur fonctionnement,
on se reportera à la publication OMM (1986). Un bref aperçu est toutefois donné ci‑après.
Ouverture avant
Surface réceptrice
Qualité Bonne
Caractéristiques
supérieurea qualitéb
Temps de réponse (95 % du signal) < 15 s < 30 s
kJ m–2 0,56 1
kJ m–2 21 54
Tous les pyrhéliomètres absolus de conception moderne utilisent comme récepteurs des cavités
et comme capteurs des fluxmètres thermiques différentiels étalonnés électriquement. À ce jour,
cette combinaison présente le plus faible degré possible d’incertitude pour les valeurs couvertes
par les mesures du rayonnement solaire (jusqu’à 1,5 kW m–2).
Avant de choisir et d’employer comme étalon primaire un pyrhéliomètre absolu (un instrument
individuel, non un type), il faudrait s’assurer que les conditions ci‑après sont bien remplies.
246 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
b) Chaque instrument de la série devrait ensuite être comparé à celui ayant fait l’objet de
la caractérisation et aucun instrument ne devrait conduire à des écarts supérieurs à
l’incertitude déterminée en a);
c) Une description détaillée des résultats de telles comparaisons et des méthodes appliquées
pour la caractérisation devrait être fournie sur demande;
d) Afin de s’assurer qu’un modèle de pyrhéliomètre répond bien aux exigences, il est
nécessaire qu’il soit raccordé à la RRM par comparaison avec le Groupe étalon mondial
(GEM) ou avec une référence dûment reconnue et raccordée au GEM. Les caractéristiques
sont jugées satisfaisantes lorsque l’incertitude à 95 % pour une série de mesures raccordées
à la RRM est inférieure à 1 W m–2.
Un pyrhéliomètre absolu qui n’est pas conforme aux spécifications d’un étalon primaire ou qui
n’a pas fait l’objet d’une caractérisation complète peut servir d’étalon secondaire s’il est étalonné
par comparaison avec le GEM, avec une incertitude à 95 % inférieure à 1 W m–2 pour une série de
mesures.
D’autres types d’instruments présentant des valeurs d’incertitude conformes ou à peu près
conformes aux exigences établies pour les étalons primaires peuvent être utilisés comme étalons
secondaires.
Les mesures s’effectuent en séquences de trois cycles ou plus au cours desquels les lamelles
droite et gauche sont alternativement occultées ou irradiées. La lamelle occultée est chauffée par
un courant électrique réglable de telle manière que la force thermoélectrique du thermocouple
et, par conséquent, la différence de température entre les deux lamelles s’annulent à peu près.
Avant et après une séquence de mesure, le zéro est vérifié soit par occultation, soit par irradiation
des deux lamelles. Le calcul de l’éclairement énergétique peut différer légèrement selon qu’on
adopte l’une ou l’autre de ces deux méthodes. Lors des comparaisons pyrhéliométriques
internationales, on adopte la relation suivante:
E = K ⋅ iL ⋅ iR (7.2)
où E est l’éclairement énergétique en W m ; K est la constante d’étalonnage (W m A )
–2 –2 –2
déterminée par comparaison avec un étalon primaire; et iL iR est le courant en ampères, mesuré
respectivement avec les lamelles gauche et droite irradiées.
CHAPITRE 7. MESURE DU RAYONNEMENT 247
Avant et après chaque série de mesures, le zéro du système est ajusté électriquement en
appliquant l’une ou l’autre des méthodes décrites ci‑dessus, le zéro étant appelé «froid»
(occultation) ou «chaud» (irradiation) selon le cas. Normalement, la première lecture, soit iR, est
exclue et seuls les couples suivants, iL – iR, sont utilisés pour calculer l’éclairement énergétique.
Lorsque l’on compare de tels pyrhéliomètres avec d’autres instruments, la valeur dérivée des
courants correspond à la moyenne géométrique des éclairements énergétiques aux moments
des lectures de iL et iR.
La sensibilité du galvanomètre à zéro central devrait être d’environ 0,05 · 10 ‑6 A par division
d’échelle avec une basse impédance d’entrée (< 10 Ω), ou d’environ 0,5 µV avec une haute
impédance d’entrée (> 10 kΩ). Dans ces conditions, une différence de température d’environ
0,05 K entre les soudures d’un thermocouple cuivre constantan entraîne une déviation d’une
division d’échelle, ce qui indique que l’une des deux lamelles subit un accroissement de chaleur
d’origine électrique d’environ 0,3 %.
Les pyrhéliomètres ont en général des thermopiles comme détecteurs. Leurs caractéristiques
angulaires sont semblables à celles des pyrhéliomètres étalons. Les anciens modèles ont
généralement des champs de vision et des angles de pente plus grands. Il s’agissait de faciliter
surtout la poursuite du Soleil. Toutefois, plus grands sont l’angle d’ouverture et l’angle de pente,
plus grande est la quantité de rayonnement circumsolaire détectée par le capteur, celle‑ci
pouvant atteindre plusieurs points de pourcentage pour des épaisseurs optiques élevées et de
grandes ouvertures angulaires. Avec les montures de poursuite du Soleil de conception récente,
notamment celles qui sont informatisées (fonctionnement en mode passif ou actif), il n’est plus
nécessaire d’avoir de grands angles de pente. Un angle de pente de 1° est cependant encore
requis pour faire en sorte que l’énergie dégagée par le faisceau solaire direct soit distribuée
également sur le capteur et pour n’autoriser que des erreurs de poursuite de l’ordre de 0,1°.
Le choix d’un type particulier de pyrhéliomètre sera dicté par l’utilisation que l’on veut en
faire. Certains instruments à orientation manuelle, tels que l’actinomètre Linke Fuessner, sont
essentiellement utilisés pour des mesures ponctuelles, alors que d’autres, comme les types EKO,
Eppley, Kipp et Zonen, et Middleton sont spécifiquement destinés à la surveillance continue et à
long terme du rayonnement direct. Avant d’installer un instrument, l’utilisateur doit prendre en
compte les différences importantes qui existent entre les pyrhéliomètres opérationnels pour les
caractéristiques suivantes:
248 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il est indispensable d’étalonner tous les pyrhéliomètres autres qu’absolus en prenant le Soleil
comme source et en les comparant à un pyrhéliomètre raccordé par chaîne d’étalonnage au GEM
et qui présente une incertitude d’étalonnage vraisemblablement égale à celle de l’instrument
étalonné ou meilleure.
Toutes les données de radiométrie solaire doivent se référer à la RRM; on applique donc aussi
au pyrhéliomètre absolu un facteur d’alignement déterminé par comparaison avec le GEM et
non son propre facteur. Après de semblables comparaisons (par exemple les comparaisons
internationales de pyrhéliomètres (IPC)), ces pyrhéliomètres peuvent servir d’étalons
primaires pour étalonner, à leur tour, avec le Soleil comme source, des étalons secondaires et
des pyrhéliomètres de terrain. Des étalons secondaires peuvent également être utilisés pour
étalonner des instruments de terrain, mais l’incertitude est accrue.
La qualité de tels étalonnages peut dépendre de l’influence de l’auréole dans le cas où les
comparaisons portent sur des instruments à caractéristiques angulaires différentes. La qualité
des résultats reposera aussi sur la variabilité de l’éclairement énergétique solaire, si les constantes
de temps et les signaux d’éclairement zéro des pyrhéliomètres sont sensiblement différents.
Enfin, les conditions ambiantes, notamment la température, la pression et le rayonnement total
résultant de grandes longueurs d’onde, peuvent influer sur les résultats. Si l’on exige une très
grande exactitude dans l’étalonnage, seules les données de mesures effectuées au cours de
journées où le ciel est très clair et l’atmosphère stable devraient être prises en considération.
Les méthodes d’étalonnage des pyrhéliomètres de terrain sont décrites dans une norme ISO
(ISO, 1990b).
D’après l’expérience acquise durant les dernières IPC, il serait suffisant de réétalonner tous les
cinq ans les étalons primaires et secondaires rattachés au GEM. Les pyrhéliomètres de terrain
devraient être réétalonnés une fois par an ou tous les deux ans, l’intervalle entre ces opérations
étant d’autant plus court que les instruments font l’objet d’un usage plus intensif et opèrent dans
des conditions plus rigoureuses.
7.2.2 Exposition
Pour des enregistrements continus et des incertitudes réduites, il est essentiel d’avoir recours à
un dispositif de poursuite précis et suffisamment protégé contre les effets du milieu ambiant. La
poursuite doit être ajustée avec une exactitude de 0,2° et les instruments devraient être vérifiés
au moins une fois par jour, et plus fréquemment si les conditions météorologiques l’exigent (avec
une protection contre les mauvaises conditions).
CHAPITRE 7. MESURE DU RAYONNEMENT 249
Pour des observations continues, on utilise couramment une fenêtre destinée à protéger le
capteur et les éléments optiques contre la pluie, la neige et d’autres intempéries. Il faut veiller à
ce que celle‑ci reste propre et que la condensation ne se dépose pas à l’intérieur de l’appareil.
Le rayonnement solaire reçu sur une surface horizontale à partir d’un angle solide de 2π sr est
appelé rayonnement global. Celui‑ci comprend à la fois le rayonnement solaire direct transmis
dans l’angle solide limité au disque solaire et le rayonnement du ciel ayant été diffusé en
traversant l’atmosphère.
L’instrument utilisé pour mesurer le rayonnement solaire parvenant sur une surface plane à partir
d’un angle solide de 2π sr et dans le domaine spectral de 300 à 3 000 nm est le pyranomètre. On
s’en sert aussi parfois pour la mesure du rayonnement solaire sur des surfaces inclinées ou en
position inversée pour la mesure du rayonnement global réfléchi. Si l’on ne veut mesurer que la
composante diffuse du rayonnement solaire, il convient d’éliminer la composante solaire directe
au moyen d’un dispositif d’ombrage (voir la section 7.3.3.3).
Le tableau 7.4 (inspiré de la publication ISO, 1990a) décrit les caractéristiques de pyranomètres
ayant divers niveaux de performance, en indiquant les degrés d’incertitude que l’on peut
atteindre avec des installations appropriées, du personnel formé comme il se doit et un contrôle
qualité sérieux, dans les conditions de ciel établies dans la section 7.2.1.
c) La réponse angulaire;
d) L’inclinaison de l’instrument;
h) la température;
Les utilisateurs de pyranomètres doivent être conscients que l’incertitude des observations
augmente quand les conditions d’exposition du capteur s’écartent des conditions déterminées
lors de l’étalonnage de l’instrument.
Décalage du zéro:
a) Réponse à un rayonnement thermique net de 7 W m–2 15 W m–2 30 W m–2
200 W m–2 (avec ventilation)
b) Réponse à un changement de la température 2 W m–2 4 W m–2 8 W m–2
ambiante de 5 K h–1
Normalement, il est nécessaire de spécifier les conditions ambiantes prévalant lors des
caractérisations, car celles‑ci peuvent différer grandement selon les applications. La méthode
utilisée et les conditions devraient donc être décrites de façon assez détaillée dans le certificat
d’étalonnage.
Ce ne sont pas là les seules méthodes; néanmoins, les méthodes décrites en a), b), c) et d) sont
couramment utilisées. À l’exception de b), il est essentiel de connaître les signaux d’éclairement
énergétique zéro pour tous les instruments ou d’utiliser des paires de pyranomètres de modèle
identique dans des configurations semblables. Ne pas tenir compte de ces décalages et de ces
différences pourrait fausser grandement les résultats obtenus.
Il semble que la méthode c) donne de très bons résultats sans avoir à recourir à un pyranomètre
étalonné.
a) Les écarts par rapport à la réponse selon la loi des cosinus, en particulier pour des hauteurs
du Soleil inférieures à 10° (c’est pourquoi il est préférable de n’effectuer les étalonnages que
pour des hauteurs supérieures à 30°);
b) La température ambiante;
Le pyranomètre devrait être étalonné dans tous les cas dans sa position d’utilisation.
252 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Lorsque l’on prend le Soleil comme source, sa hauteur apparente devrait être mesurée ou
calculée (à 0,01° près) pour cette période à partir du temps solaire (voir l’annexe 7.D). Il faudrait
aussi noter la température moyenne de l’instrument ou la température ambiante.
Selon cette méthode, décrite dans la publication de l’ISO (1993), l’étalonnage du pyranomètre
se fait par comparaison de la réponse à l'éclairement énergétique global avec la somme des
mesures distinctes de ses composantes directe et diffuse. Il faudrait privilégier les périodes
de ciel dégagé et de conditions de rayonnement stables (déterminées à partir des relevés). La
composante verticale de l’éclairement énergétique solaire direct est toujours mesurée par un
pyrhéliomètre, mais la composante diffuse est quantifiée par un second pyranomètre occulté
en permanence. La composante directe est éliminée par occultation de la totalité de la coupelle
extérieure du pyranomètre à l’aide d’un disque de diamètre adéquat monté à l’extrémité d’une
tige et maintenu à une distance appropriée. Le diamètre du disque et sa distance par rapport à
la surface du récepteur devraient être tels que l’angle ainsi délimité soit approximativement égal
à l’angle d’ouverture du pyrhéliomètre. Au lieu d’utiliser le rayon du capteur, on devrait plutôt se
servir du rayon de la coupelle extérieure pour calculer l’angle de pente de la combinaison disque/
pyranomètre. Ce dispositif empêche d’obtenir une approximation rapprochée du faisceau solaire
direct et de l’éclairement circumsolaire, tels que captés par le pyrhéliomètre.
Au cours d’une journée de temps clair, l’éclairement diffus est inférieur à 15 % de l’éclairement
global; il n’est donc pas indispensable de connaître avec une grande exactitude le facteur
d’étalonnage du pyranomètre de référence. Il faut toutefois s’assurer que les signaux
d’éclairement énergétique zéro des deux pyranomètres sont pris en compte, étant donné que
pour certains pyranomètres utilisés dans des conditions de ciel dégagé, ce signal peut atteindre
jusqu’à 15 % de l’éclairement énergétique diffus.
Cette méthode, décrite dans la publication de l’ISO (1993), est semblable à la précédente, à ceci
près que l’éclairement énergétique diffus est mesuré par le même pyranomètre. La composante
directe est interceptée temporairement par occultation de la totalité de la coupelle extérieure
de l’instrument, comme cela est décrit à la section 7.3.1.1. La durée d’occultation dépend de la
stabilité du flux énergétique et du temps de réponse du pyranomètre, y compris l’intervalle de
temps nécessaire pour rétablir l’équilibre de la température et de l’émission à grandes longueurs
d’onde du dôme de verre; dix fois la constante de temps 1/e de la thermopile du pyranomètre
suffit généralement.
CHAPITRE 7. MESURE DU RAYONNEMENT 253
Les composantes directe et diffuse varieront toutes deux durant la comparaison; aussi faut‑il
veiller en procédant à l’échantillonnage et en établissant les moyennes à ce que soient utilisés
pour le calcul des valeurs représentatives des signaux de sortie des pyranomètres occultés et non
occultés. Afin de réduire l’incertitude associée aux signaux représentatifs, il convient de réaliser
une série de cycles de mesures avec et sans occultation et d’utiliser des valeurs interpolées
dans le temps pour atténuer les variations de l’éclairement énergétique global et diffus dans
le temps. Puisque le même pyranomètre est utilisé en mode différentiel et que l’écart entre les
signaux d’éclairement énergétique zéro pour l'éclairement énergétique global et l'éclairement
énergétique diffus est négligeable, il n’est pas nécessaire de prendre en compte l’éclairement
énergétique zéro dans l’équation 7.6.
Cette méthode fait appel à la même configuration instrumentale que celle décrite à la
section 7.3.1.1, à ceci près que le pyrhéliomètre doit fournir des données d’éclairement
énergétique étalonnées (E) et que les deux pyranomètres sont censés être non étalonnés
(Forgan, 1996). On étalonne les deux pyranomètres par la résolution de deux équations
simultanées analogues à l’équation 7.3. Les données de signaux d’éclairement énergétique sont
d’abord collectées avec le pyrhéliomètre; un pyranomètre (le pyranomètre A) mesure les signaux
d’éclairement énergétique global (VgA) et un autre (le pyranomètre B) mesure les signaux
d’éclairement énergétique diffus (VdB) sur une plage donnée de distances zénithales du Soleil
dans des conditions de ciel dégagé. Lorsqu’une quantité suffisante de données ont été recueillies
avec la configuration initiale, les pyranomètres sont intervertis de sorte que le pyranomètre A,
qui mesurait à l’origine l’éclairement énergétique global, mesure maintenant la composante
diffuse (VdA), et vice‑versa. On se fonde sur l’hypothèse que pour chaque pyranomètre, les
coefficients d’étalonnage de la composante diffuse (kd) et de la composante globale (kg) sont
égaux; ce qui donne la relation suivante pour le pyranomètre A:
kA k=
= gA kdA (7.7)
On retient la même hypothèse pour les coefficients du pyranomètre B; par conséquent, pour un
temps, t0, au cours de la période initiale, la version modifiée de l’équation 7.3 s’écrit comme suit:
E (t0 ) sin( h(t0 )) = kAVgA (t0 ) − k BVdB (t0 ) (7.8)
Pour un temps, t1, pendant l’autre période avec interversion des pyranomètres, on obtient la
formule suivante:
E (t1 ) sin( h(t1 )) = k BVgB (t1 ) − kAVdA (t1 ) (7.9)
Comme les seules inconnues des équations 7.8 et 7.9 sont k A et kB, celles‑ci peuvent être
résolues pour n’importe quelle paire de temps (t0, t1). Les paires qui couvrent une plage de
hauteurs du Soleil donnent une indication de la réponse en direction. L’information obtenue
pour l’étalonnage des deux pyranomètres est représentative des coefficients d’étalonnage de
l'éclairement énergétique global et produisent des données identiques à celles découlant de la
méthode 7.3.1.1, mais sans qu’il soit nécessaire de faire appel à un pyranomètre étalonné.
254 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Comme avec la méthode 7.3.1.1, pour obtenir des coefficients produisant le minimum
d’incertitude, il faut ajuster les signaux d’éclairement énergétique des pyranomètres,
afin d’éliminer tout décalage d’éclairement énergétique zéro estimé. Si l’on veut réduire
l’incertitude associée à la variation de la réponse en direction, il est recommandé d’utiliser
une paire de pyranomètres du même modèle et de procéder à des paires d’observation avec
sin h (t0) ~ sin h (t1).
Comme cela est expliqué dans la publication de l’ISO (1992), cette méthode consiste à comparer
simultanément deux pyranomètres montés horizontalement, côte à côte, à l’extérieur pendant
une période suffisante pour accumuler des résultats significatifs. Un ou deux jours suffisent si
les instruments sont du même modèle et présentent la même configuration de surveillance.
Dans le cas contraire, la période de comparaison doit être d’autant plus longue que leur modèle
et leur configuration sont différents. Il est toutefois possible de remplacer une longue période
par plusieurs périodes plus courtes, représentatives de conditions typiques (ciel dégagé, ciel
nuageux, pluie, neige, etc.). On déduit directement la constante instrumentale, mais lorsque
les modèles sont différents, l’incertitude obtenue est davantage susceptible de refléter cette
différence, plutôt qu’une variation de la stabilité de l’instrument à étalonner. On devrait choisir
les données de préférence lorsque les valeurs d’éclairement énergétique sont élevées et varient
lentement. Chacune des valeurs moyennes des rapports, R, entre la réponse de l’instrument
à étalonner et celle de l’instrument de référence peut être utilisée pour calculer la constante
instrumentale de l’appareil à étalonner, k = R · kr, où kr est la constante de l’instrument de
référence et k le facteur d’étalonnage déduit. Pendant l’étalonnage, à condition que l’intervalle
entre les mesures soit inférieur à la constante de temps, 1/e, des pyranomètres, la collecte des
données peut être effectuée lorsque l’éclairement énergétique fluctue.
La température moyenne des instruments ou celle de l’air ambiant devrait être enregistrée au
cours de toute opération d’étalonnage effectuée à l’extérieur, de façon qu’on puisse tenir compte
des effets éventuels de la température sur le facteur instrumental.
Deux méthodes impliquent le recours à des sources artificielles de lumière soit directe, soit
diffuse. Dans les deux cas, l’instrument à étalonner et l’instrument de référence doivent être
irradiés dans les mêmes conditions.
Avec la première méthode, l’instrument est exposé au rayonnement d’une lampe à filament de
tungstène stabilisée fixée à l’extrémité d’un banc optique. Une lampe halogène de 0,5 à 1 kW,
refroidie par circulation d’eau et ventilation forcée, dont l’émission est réduite au domaine
spectral du rayonnement solaire à l’aide d’un filtre à quartz, convient parfaitement, à condition
que le pyranomètre à étalonner et le pyranomètre de référence aient la même réponse spectrale.
On devrait utiliser, pour les étalonnages généraux, une lampe à xénon sous haute pression,
équipée de filtres reproduisant aussi fidèlement que possible le spectre solaire. Il faudrait alors
protéger les instruments des effets parasites dus à la réflexion au moyen d’écrans noirs. Le
processus usuel consiste à installer d’abord l’instrument de référence et à effectuer une mesure
du flux énergétique, puis à lui substituer le pyranomètre à étalonner et à refaire les mesures. On
continue à se servir alternativement des deux instruments autant de fois qu’il le faut pour obtenir
un jeu de mesures dont l’exactitude soit satisfaisante, c’est‑à‑dire environ 0,5 %.
CHAPITRE 7. MESURE DU RAYONNEMENT 255
Dans les stations qui possèdent des étalons (pyrhéliomètres ou pyranomètres) soigneusement
entretenus, les procédures de base décrites ci‑dessus sont applicables. Quand la station
ne dispose pas d’étalon, il est possible de recourir à d’autres solutions. Si l’on procède à un
enregistrement simultané du rayonnement solaire direct, on peut examiner la cohérence des
deux relevés au moyen de la méthode de normalisation directe décrite à la section 7.3.1.2; cette
vérification simple devrait être répétée fréquemment.
On peut aussi vérifier les lectures à l’aide d’un étalon itinérant prêté par la station centrale ou
par une station voisine. Enfin, si l’étalonnage n’est pas réalisé sur le site, on peut échanger le
pyranomètre par un modèle semblable provenant de la station d’étalonnage. Il faudrait avoir
recours à l’une ou à l’autre des deux méthodes précédentes au moins une fois par année. Les
pyranomètres utilisés pour la mesure du rayonnement solaire réfléchi devraient être remis à
l’endroit et contrôlés de la même façon que précédemment.
Il faut se montrer très minutieux et ne négliger aucun détail si l’on veut répondre aux exigences
en matière d’incertitude. Bon nombre de propriétés se rapportant tant aux caractéristiques
de l’instrument qu’à la nature des mesures devraient être prises en considération pour évaluer
l’incertitude des données obtenues. Il a, par exemple, été démontré que pour un enregistrement
continu du rayonnement global sans mesures auxiliaires des composantes diffuse et directe, une
incertitude meilleure que 5 % dans les totaux quotidiens représentait le résultat d’un travail suivi
et méticuleux. De même, lorsque l’on a recours à un protocole semblable à celui proposé par
l’OMM (1998), l’incertitude des totaux quotidiens peut être de l’ordre de 2 %.
Il est essentiel, si l’on veut obtenir des mesures exactes du rayonnement global à l’aide d’un
pyranomètre, que la surface plane de la thermopile soit parfaitement horizontale quand le
niveau à bulle en donne l’indication. Cela peut être vérifié en laboratoire avec un plateau de
mise à niveau optique et une lampe à collimateur orientée de manière que les rayons incidents
256 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
atteignent l’instrument sous un angle de 20° environ. On ajuste les vis de calage de l’instrument
jusqu’au moment où sa réponse est la plus constante possible lors du mouvement de rotation du
capteur autour de l’axe vertical. Le niveau à bulle est alors réglé à nouveau, si nécessaire, pour
indiquer le plan horizontal. Cette opération s’appelle la mise à niveau radiométrique et devrait
en principe correspondre à la mise à niveau mécanique de la thermopile, sauf si la qualité de la
surface de la pile n’est pas uniforme.
Comme la plupart des pyranomètres de réseau sont utilisés pour mesurer les expositions horaires
ou quotidiennes (ou expositions exprimées en éclairement énergétique moyen), il est évident
que l’incertitude de ces valeurs est importante.
Le tableau 7.4 indique les écarts maximaux attendus par rapport aux valeurs vraies, en l’absence
d’erreurs d’étalonnage. Les types de pyranomètres dans la troisième colonne de ce tableau
(c’est‑à‑dire de qualité moyenne) ne devraient pas être utilisés pour quantifier les totaux horaires
ou quotidiens, mais ils peuvent servir à mesurer les irradiations mensuelles et annuelles.
L’emplacement choisi pour installer un pyranomètre devrait être entièrement dégagé, libre de
toute obstruction au‑dessus du plan horizontal de l’élément sensible et, en même temps, d’un
accès aisé. S’il est impossible de satisfaire ces exigences, il faut au moins qu’il n’y ait sur le site ou
dans son voisinage aucun obstacle susceptible d’y projeter une ombre à une époque quelconque
de l’année. Le pyranomètre ne devrait être placé ni à proximité d’un mur ou d’autres objets clairs
pouvant réfléchir les rayons du Soleil, ni dans le champ d’une source artificielle de rayonnement.
Dans la plupart des stations, un toit plat constitue un bon emplacement pour l’installation
du pyranomètre; à défaut, il convient de poser l’instrument sur un socle érigé assez loin des
bâtiments et d’autres obstacles. Dans la mesure du possible, il faudrait choisir le site pour qu’il ne
comporte aucun obstacle dont la hauteur soit supérieure à 5°, en particulier dans la gamme des
azimuts comprise entre le lever et le coucher du Soleil , et que les autres obstacles ne réduisent
pas de plus de 0,5 sr l’angle solaire total. Si tel n’est pas le cas, des indications très complètes sur
l’horizon et les angles solides sous‑tendus devraient figurer dans la description de la station.
Un examen du site devrait être effectué avant l’installation initiale du pyranomètre, lorsque l’on
change son emplacement ou qu’une modification se produit dans les obstacles avoisinants.
Une excellente méthode consiste à utiliser un appareil photographique pouvant fournir un
quadrillage en hauteur et en azimut sur négatif. Il convient de prendre une série de clichés pour
représenter la hauteur angulaire au‑dessus du plan de la surface réceptrice du pyranomètre et la
répartition angulaire en azimut de tous les obstacles dans toute la périphérie du pyranomètre. Si
un tel appareil n’est pas disponible, on peut avoir recours à un théodolite ou à une combinaison
compas/clinomètre pour cartographier la distribution angulaire des obstacles.
Le facteur sans doute le plus déterminant dans le choix d’un site est l’accessibilité de l’instrument
en vue de fréquentes inspections. Il est hautement recommandé que les pyranomètres et les
enregistreurs soient inspectés au moins une fois par jour et, de préférence, plus souvent.
Ces remarques s’appliquent également aux pyranomètres installés sur des navires, des mâts et
des bouées. L’installation de pyranomètres sur de telles plates‑formes est très difficile et constitue
parfois une entreprise dangereuse. Dans ces conditions, il est rare que le fonctionnement de
l’instrument ne soit pas perturbé par au moins un obstacle très gênant (par exemple un mât).
Les pyranomètres sont soumis à des mouvements et des vibrations ondulatoires provoqués par
le ballottement de la plate‑forme. Il faudrait donc prendre des précautions spéciales en vue
de maintenir le capteur à l’horizontale et d’amortir les vibrations, ce qui exige le plus souvent
l’emploi de suspensions à cardan adéquates.
258 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Lorsque le faisceau du rayonnement solaire direct est intercepté par un obstacle (ce qui se
remarque très facilement par temps dégagé), il convient d’apporter les corrections nécessaires en
vue de réduire l’incertitude.
L’apport de corrections aux mesures du rayonnement diffus n’est envisageable que si l’on
effectue des enregistrements distincts du rayonnement global et du rayonnement diffus. La
procédure consiste à corriger d’abord l’enregistrement du rayonnement diffus puis à ajuster
l’enregistrement du rayonnement global. Ce n’est pas la fraction de ciel occultée qui devrait être
calculée, mais la fraction de l’éclairement énergétique provenant de cette partie du ciel. Comme
le rayonnement diffus limité à des angles inférieurs à 5° n’intervient que pour moins de 1 % du
rayonnement diffus total, il peut normalement être négligé. Il faudrait plutôt se concentrer sur
les objets sous‑tendant des angles de 10° ou plus, ainsi que sur ceux qui interceptent le faisceau
solaire à un moment quelconque. En outre, il ne faut pas perdre de vue que des objets brillants
peuvent réfléchir la lumière du Soleil vers le récepteur.
où θ est la hauteur angulaire, ϕ est l’angle d’azimut, Θ est la hauteur totale de l’obstacle et φ est
l’angle d’azimut total de l’obstacle.
Cette relation ne s’applique qu’aux cas d’obstacles présentant une surface noire dans la direction
du pyranomètre. Pour d’autres objets, la correction doit être multipliée par un facteur de
réduction dépendant de leur albédo. La lumière éblouissante que la neige renvoie quand le Soleil
est bas sur l’horizon peut même conduire à des corrections de signe opposé.
Les pyranomètres devraient être solidement fixés sur leur support de montage par les trous
prévus sur le trépied ou l’embase. Il faudrait toujours éviter soigneusement de soumettre
l’instrument à des vibrations ou à des chocs mécaniques pendant son installation. La meilleure
façon de procéder est d’orienter le pyranomètre de manière à ce que ses fils ou ses prises de
raccordement soient orientés vers le pôle par rapport à la surface réceptrice, afin de réduire au
minimum l’échauffement des conducteurs par le Soleil. Les instruments équipés de thermopiles
du type Moll‑Gorcynski devraient, eux, être orientés de sorte que la ligne des soudures
thermoélectriques (le côté long du rectangle de la pile) soit dans l’axe est‑ouest. Dans le cas
où (selon le modèle de l’instrument) cette dernière recommandation entre en conflit avec la
précédente, il faudrait quand même lui accorder la priorité puisque, en tout état de cause, les
connecteurs pourraient être protégés si nécessaire. S’il y a une tour à proximité, il conviendrait de
placer l’appareil le plus loin possible de celle‑ci du côté de l’équateur.
Le rayonnement réfléchi par le sol ou par le socle ne devrait pas échauffer par irradiation le
corps de l’instrument. On peut utiliser un cylindre d’occultation pour éviter cette situation,
mais il faudrait veiller dans ce cas à ce que la ventilation naturelle reste suffisante pour maintenir
l’instrument à la température ambiante.
Le support ou la plate‑forme devrait être suffisamment rigide pour protéger l’instrument contre
les chocs et préserver l’horizontalité de la surface réceptrice, en particulier pendant les périodes
de forts vents et de rayonnement solaire intense.
Le câble à deux conducteurs reliant le pyranomètre à l’enregistreur devrait être étanche à l’eau.
Il devrait être solidement fixé au support de montage de l’instrument afin d’éviter tout faux
contact ou toute rupture par grand vent. Il sera, autant que possible, enterré et dûment protégé
si l’enregistreur est éloigné de l’instrument. L’utilisation de câbles blindés est recommandée;
le pyranomètre, le câble et l’enregistreur sont reliés à la terre par un conducteur à très basse
résistance. Comme pour les autres équipements du type thermoélectrique, il faut veiller à réaliser
une soudure permanente en cuivre à toutes les connexions au moment du soudage. Toutes les
jonctions exposées doivent être protégées contre l’humidité et les risques de détérioration. Après
l’identification de la polarité, l’autre extrémité du câble est raccordée au système de collecte de
données selon les indications pertinentes.
La première méthode implique la rotation synchrone d’une tige fine avec le mouvement
apparent du Soleil. Si l’on a recours à un moteur synchronisé ou aux éphémérides, il est
indispensable de contrôler fréquemment le bon fonctionnement et les réglages du dispositif, car
il est difficile de déceler les valeurs faussées. L’emploi de systèmes automatiques de poursuite du
Soleil peut réduire au minimum ces risques. La seconde méthode nécessite moins de surveillance
sur le site mais plus de corrections sur les relevés, vu la quantité appréciable de rayonnement
diffus interceptée par le dispositif d’ombrage. Il faut se fonder sur des hypothèses concernant la
distribution spectrale et la dimension de la bande d’ombrage, afin d’y apporter des corrections,
et l’incertitude accrue des résultats obtenus par rapport à ceux provenant de l’utilisation de
dispositifs de poursuite automatique du Soleil. On trouvera à l’annexe 7.E de plus amples
indications sur la configuration de l’arceau d’ombrage et sur les corrections à apporter.
Le signal d’éclairement énergétique zéro constitue une source d’erreur significative pour les
données de rayonnement diffus. Par temps clair, ce signal correspond à 5‑10 W m–2, selon le
modèle de pyranomètre, et peut approcher les 15 % de l’éclairement énergétique diffus total. La
publication intitulée Baseline Surface Radiation Network (BSRN) Operations Manual (OMM, 1998)
propose des méthodes permettant d’atténuer l’effet de ce signal.
Comme le rayonnement diffus par temps clair peut être inférieur au dixième du rayonnement
global, il convient d’accorder une attention toute particulière à la sensibilité du système
d’enregistrement.
La hauteur d’installation devrait être de un à deux mètres au‑dessus du sol. En été, la surface
du sol devrait être couverte de pelouse régulièrement tondue. Dans les régions où il neige,
il convient de prévoir un mécanisme qui permette de maintenir l’instrument à une distance
raisonnable de la couche de neige. Même si la monture se situe dans le champ de vision de
260 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
l’instrument, celle‑ci devrait être conçue de manière à causer moins de 2 % d’erreur dans les
mesures. On devrait pouvoir accéder au pyranomètre pour en vérifier la mise à niveau sans
modifier l’état de la surface en dessous, notamment si celle‑ci est recouverte de neige.
Les pyranomètres qui fonctionnent en permanence devraient être inspectés au moins une fois
par jour et, de préférence plus souvent encore, par exemple lorsqu’on procède aux observations
météorologiques courantes. À chaque inspection, il convient de nettoyer et d’essuyer
soigneusement les coupelles en verre (en prenant soin de ne pas perturber les mesures diurnes
courantes). Les dépôts de neige gelée, de verglas, de gelée blanche ou de givre devraient
être éliminés avec précaution (au moins temporairement) par la projection d’un jet de fluide
antigivre, les coupelles étant ensuite essuyées. Lors du contrôle quotidien, on devrait aussi
vérifier que l’instrument est de niveau, qu’il n’y a pas de condensation à l’intérieur de la coupelle
et que les surfaces sensibles demeurent noires.
Dans certains réseaux, la coupelle extérieure du pyranomètre est continuellement ventilée par un
système de soufflerie, qui supprime ou réduit les dépôts par temps froid et atténue les différences
de température entre la coupelle et le boîtier. L’écart de température entre l’apport d’air et l’air
ambiant ne devrait pas excéder 1 K. Lorsque des polluants ou du sable se déposent sur le dôme,
il faudrait nettoyer celui‑ci très délicatement, de préférence après avoir éliminé la plus grande
partie des dépôts en soufflant dessus ou en les humectant légèrement, de manière à ne pas rayer
la surface. L’abrasion peut en effet altérer sensiblement les propriétés initiales de transmission du
matériau. Les cartouches de produit déshydratant seront régulièrement régénérées (on utilise
généralement du gel de silice contenant un indicateur coloré).
7.3.3.6 Installation et entretien des pyranomètres montés sur des plates‑formes spéciales
Des précautions particulières devraient être prises lorsque l’on installe des équipements sur des
plates‑formes comme les ponts de navire, les bouées, les mâts ou les aéronefs. Les radiomètres
installés à bord de navires devraient être montés sur des suspensions à cardans en raison du fort
ballottement auquel ils sont soumis.
Si un mât est destiné exclusivement aux observations radiométriques, il peut être muni en son
sommet d’une plate‑forme rigide sur laquelle les capteurs sont disposés de manière à ce que les
obstacles qui dissimulent une partie de l’horizon soient du côté le plus éloigné de l’équateur et à
ce que les bras supportant les albédomètres soient dirigés vers celui‑ci.
Les capteurs devraient être placés le plus haut possible sur les navires, les bouées et les mâts afin
de réduire au minimum les effets des embruns.
Des mesures du rayonnement sont effectuées sans problème depuis plusieurs années à partir
d’aéronefs, mais il faut choisir avec soin le type de pyranomètre et son emplacement.
L’installation des équipements, notamment ceux dont l’accès est malaisé, exige la plus grande
attention, car la fiabilité des observations en dépend. Il est parfois souhaitable de s’assurer
une marge de sécurité en dédoublant les systèmes de mesure exploités dans des conditions
particulièrement difficiles.
La mesure du rayonnement total porte à la fois sur le rayonnement de courtes longueurs d’onde
d’origine solaire (300 à 3 000 nm) et le rayonnement de grandes longueurs d’onde d’origine
terrestre et atmosphérique (3 000 à 100 000 nm). Les instruments utilisés à cette fin sont les
pyrradiomètres. On peut s’en servir pour mesurer les composantes ascendante et descendante
CHAPITRE 7. MESURE DU RAYONNEMENT 261
du flux énergétique et les employer en paires pour mesurer les écarts entre les deux résultats
obtenus, ce qui donne le rayonnement total résultant. Les pyrradiomètres à un capteur,
possédant une surface active des deux côtés, sont également utilisés pour l’observation du
rayonnement total résultant. Les capteurs des pyrradiomètres se caractérisent par une sensibilité
uniforme dans tout le domaine de longueurs d’onde compris entre 300 et 100 000 nm.
L− = L* + σ Ts4 (7.11)
Ces dix dernières années, de grands progrès ont été accomplis dans la mesure du rayonnement
terrestre à l’aide de pyrgéomètres, notamment avec l’apparition du pyrgéomètre à coupelles
en silicium, qui fait que cet instrument fournit les mesures les plus exactes du rayonnement
terrestre. Il n’en reste pas moins que la mesure du rayonnement terrestre est encore et toujours
plus difficile et moins bien comprise que la mesure du rayonnement solaire. On se reportera au
tableau 7.5 pour une analyse des sources d’erreur.
(
L− = L* + k2σ Ts4 + k3σ Td4 − Ts4 ) (7.12)
Le flux énergétique net mesuré par le récepteur, L*, est défini comme suit:
(
L* = U C 1 + k1σ Ts4 ) (7.13)
262 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
a) Lorsqu’on utilise des pyrgéomètres à circuit de batterie intégré pour créer les conditions de
corps noir de l’instrument, il faut absolument s’assurer que la batterie est bien entretenue.
Il suffit d’une légère modification de la tension de batterie pour que l’erreur dans la mesure
augmente sensiblement. Autant que possible, la batterie devrait être retirée de l’instrument
et la température du bâti et de la coupelle devrait être mesurée en se conformant aux
instructions du fabricant;
d) Pour obtenir les meilleurs résultats possible, l’instrument devrait être protégé des rayons
solaires directs par un petit disque asservi au Soleil.
L’étalonnage de ces instruments devrait avoir lieu dans les centres d’étalonnage nationaux ou
régionaux à l’aide de pyrgéomètres de référence traçables par rapport au Groupe étalon mondial
pour l’infrarouge du Centre de Davos.
L’un des problèmes qui se posent avec les instruments destinés à la mesure du rayonnement total
est qu’il n’existe pas de surface absorbante dont la sensibilité soit absolument constante pour
tout le domaine des longueurs d’onde concernées. De même, il est difficile de trouver des filtres
ayant un pouvoir de transmission constant de 300 à 100 000 nm. En conséquence, la méthode
recommandée de mesure du rayonnement total consiste à procéder simultanément à des
mesures distinctes du rayonnement de courtes longueurs d'onde à l'aide d'un pyranomètre, et
du rayonnement de grandes longueurs d'onde à l'aide d'un pyrgéomètre.
Le recours à des capteurs thermiquement sensibles nécessite une bonne connaissance de leur
bilan thermique, sans quoi on est forcé de réduire à des valeurs voisines de zéro les pertes de
chaleur dues à la convection en protégeant le capteur contre les effets directs du vent. Les
difficultés techniques liées à ces pertes sont largement responsables du fait qu’on ne parvienne
pas à déterminer les flux énergétiques totaux résultants avec autant d’exactitude que les flux
énergétiques globaux. Différents laboratoires ont conçu leurs propres pyrradiomètres en faisant
appel aux techniques qui leur paraissent les plus efficaces pour réduire le transfert de chaleur par
convection dans le capteur. On a ainsi fabriqué au cours des dernières décennies des instruments
CHAPITRE 7. MESURE DU RAYONNEMENT 263
dont le fonctionnement, encore loin d’être parfait, repose cependant sur des procédés de mesure
dont le principe est valable. Il existe donc une grande variété de pyrradiomètres avec lesquels on
emploie, pour éliminer ou prendre en compte l’effet du vent, l’une des méthodes suivantes:
La composante grandes longueurs d’onde d’un pyrradiomètre est définie par l'équation 7.11.
Le tableau 7.5 présente une analyse des sources d’erreur dans les mesures pyrradiométriques et
des méthodes pour en déterminer les caractéristiques.
Il est malaisé de déterminer l’incertitude qui risque d'exister en pratique. Des comparaisons
in situ effectuées sur des sites différents entre divers types de pyrradiomètre ont conduit à des
résultats accusant des écarts allant jusqu’à 5–10 % dans les meilleures conditions. Pour améliorer
les résultats, une étude complète menée en laboratoire devrait précéder les comparaisons in situ
en vue de déterminer séparément chacun des effets qui sont à l’origine des écarts.
Pour obtenir la meilleure exactitude possible, il vaut mieux déduire le rayonnement total après
avoir mesuré indépendamment le rayonnement de courtes longueurs d’onde et le rayonnement
de grandes longueurs d’onde, plutôt que d'utiliser un pyrradiomètre. Le rayonnement de courtes
longueurs d’onde se mesure à l’aide des méthodes décrites dans les sections 7.2 et 7.3, alors que
le rayonnement de grandes longueurs d’onde se quantifie au moyen de pyrgéomètres.
Le tableau 7.6 répertorie les caractéristiques des pyrradiomètres ayant des performances
différentes, ainsi que les incertitudes auxquelles on peut s’attendre dans les mesures effectuées à
l’aide de ces instruments.
CHAPITRE 7. MESURE DU RAYONNEMENT 265
Les pyrradiomètres et les pyrradiomètres différentiels peuvent être étalonnés pour la mesure
du rayonnement de courtes longueurs d’onde de la même manière que les pyranomètres (voir
la section 7.3.1), avec le Soleil et le ciel comme sources. Dans le cas des pyrradiomètres à un
capteur, la surface inférieure doit être recouverte d’une cavité dont la température est connue et
stable.
V = L∗ ⋅ K ou K = V L∗ (7.14)
Les pyrradiomètres et les pyrgéomètres sont généralement installés dans un site libre d’obstacles,
ou tout au moins dépourvu d’obstacles dont l’angle d’obstruction serait supérieur à 5° dans
toutes les directions, et qui présente un faible angle solaire aux différentes époques de l’année.
b) S’assurer que les capteurs et leurs dispositifs de protection sont propres et exempts de
rosée, de givre, de neige ou de pluie;
c) S’assurer qu’il n’y a pas de condensation à l’intérieur des coupelles (il faudrait l’éliminer le
cas échéant);
d) S’assurer que les surfaces réceptrices recouvertes d’un enduit noir présentent une émissivité
très proche de 1.
De manière générale, les indications de la section 7.1.3 s’appliquent aux pyrradiomètres et aux
pyrgéomètres. Les effets ci‑après peuvent aussi affecter de manière spécifique les lectures de ces
radiomètres et devraient être consignées:
a) Effets des hydrométéores (pluie, neige, rosée, givre) sur les instruments non protégés et
non ventilés;
c) Dérive du zéro du système de données. Cet effet est bien plus important pour les
pyrradiomètres, qui peuvent fournir des valeurs négatives, que pour les pyranomètres
dont le signal d’éclairement énergétique zéro est lui‑même une propriété de l’éclairement
énergétique net à la surface du capteur.
Il convient de prêter une attention particulière à la position des instruments, si l’on détermine
le rayonnement de grandes longueurs d’onde en soustrayant l’éclairement énergétique solaire
CHAPITRE 7. MESURE DU RAYONNEMENT 267
1,0
0,8
Réponse relative
0,6
0,4
0,2
0,0
400 450 500 550 600 650 700 750
Figure 7.2. Efficacité lumineuse relative, V(λ), de l’œil humain et vision photopique
L’éclairement lumineux est le flux incident d’énergie rayonnante qui émane d’une source
caractérisée par des longueurs d’onde comprises entre 380 et 780 nm et est pondéré par la
réponse de l’œil humain à l’énergie dans ce domaine spectral. La CIE a défini que l’œil humain
réagissait le plus efficacement aux photons à 555 nm. La figure 7.2 et le tableau 7.7 illustrent la
réponse relative de l’œil humain normalisée à cette fréquence. L’efficacité lumineuse est définie
comme le rapport entre l’exitance énergétique (W m–2) et l’exitance lumineuse (lm). Elle est une
fonction de l’efficacité lumineuse relative, V(λ), de l’œil humain et d’un facteur de normalisation,
Km (683), décrivant le nombre de lumens émis par watt de rayonnement électromagnétique à
partir d’une source monochromatique de 555,19 nm (le point de congélation du platine):
780
Φ v = Km ∫ Φ ( λ )V ( λ ) d λ (7.15)
380
où Φv est le flux lumineux (lm m–2 ou lx), Φ(λ) est le flux énergétique spectral (W m–2 nm–1), V(λ)
est l’efficacité lumineuse relative de l’œil humain et Km est la constante de normalisation reliant
les quantités lumineuses aux quantités énergétiques. Ainsi, 99 % du rayonnement visible se
trouve entre 400 et 730 nm.
7.5.1.1 Instruments
580 0,870
Réponse‑rayonnement UV 0,2
Réponse‑rayonnement IR 0,2
Linéarité 0,2
les risques de condensation et/ou de givrage sur la surface extérieure de l’élément sensible. Les
instruments de mesure de l’éclairement lumineux devraient normalement pouvoir quantifier les
flux compris entre 1 et 20 000 lx. Dans cette plage de valeurs, les incertitudes devraient demeurer
CHAPITRE 7. MESURE DU RAYONNEMENT 269
dans les limites spécifiées dans le tableau 7.8. Ces valeurs sont fondées sur les recommandations
de la CIE (CIE, 1987), mais uniquement pour les incertitudes associées à des instruments de
qualité spécialement conçus pour la mesure de la lumière du jour à l’extérieur.
L’éclairement lumineux diffus peut être mesuré selon les mêmes principes appliqués pour
la mesure de l’éclairement énergétique diffus. Les mesures de l’éclairement lumineux direct
devraient être effectuées avec des instruments dont le demi‑angle d’ouverture n’est pas
supérieur à 2,85° et dont l’angle de pente est inférieur à 1,76°.
7.5.1.2 Étalonnage
Les étalonnages devraient se rattacher à une source lumineuse étalon de type A, conformément
aux procédures décrites par la CIE (1987). Ce matériel ne se trouve normalement que dans les
laboratoires d’étalonnage nationaux. Les étalonnages et les tests portant sur les caractéristiques
instrumentales devraient avoir lieu chaque année. On devrait aussi procéder à des tests
permettant de déterminer le vieillissement, la dérive du zéro, la stabilité mécanique et la stabilité
du climat. Il est par ailleurs recommandé de se servir d’un étalon de terrain pour vérifier les
étalonnages à chaque site de mesure entre les étalonnages effectués en laboratoire.
a) Éclairement lumineux global et diffus de la lumière naturelle sur des surfaces horizontales et
verticales;
c) Éclairement lumineux du ciel pour des intervalles de 0,08 sr (environ 10° · 10°) couvrant
tout l’hémisphère céleste;
d) Albédo photopique de surfaces caractéristiques telles que le gazon, la terre nue et la neige.
Les mesures du rayonnement solaire ultraviolet font l’objet d’une demande croissante en raison
des incidences de ce dernier sur l’environnement et la santé humaine et de l’augmentation du
rayonnement à la surface de la Terre attribuable à l’appauvrissement de la couche d’ozone (Kerr
et McElroy, 1993) et aux variations d'autres paramètres comme les nuages et les aérosols. Le
spectre ultraviolet se divise par convention en trois domaines:
a) Le rayonnement UV‑A, qui correspond à la bande 315–400 nm, se situe juste en dehors du
spectre visible. Il est habituellement1 moins actif sur le plan biologique, et son intensité à la
surface de la Terre ne varie pas selon la teneur de l’atmosphère en ozone;
1
Le spectre d'action photosynthétique chez le phytoplancton comporte par exemple une importante composante
UV‑A.
270 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
b) Le rayonnement UV‑B, qui couvre la plage 280–315 nm. Il est actif sur le plan biologique et
son intensité à la surface de la Terre dépend de la colonne atmosphérique d’ozone et de la
longueur d’onde. On exprime fréquemment son activité biologique par l’effet érythémal,
qui est la mesure dans laquelle il provoque le rougissement de la peau humaine;
c) Le rayonnement UV‑C, qui correspond à la bande 100–280 nm, est entièrement absorbé par
l’atmosphère et ne se retrouve pas à l’état naturel à la surface de la Terre.
La bande UV‑B est celle à laquelle on s’intéresse le plus pour la mesure du rayonnement
ultraviolet. Il existe une autre définition de la limite entre le rayonnement UV‑A et UV‑B, mais qui
n’est plus normalisée: 320 nm au lieu de 315 nm.
L’effet des surfaces avoisinantes doit être également pris en compte en raison des multiples
sources de diffusion. C’est le cas notamment dans les zones enneigées.
Des directives et des procédures normalisées ont été mises au point pour la caractérisation et
l’étalonnage des instruments à large bande, des spectroradiomètres UV et des radiomètres à
filtre UV destinés à mesurer l’éclairement énergétique UV (voir OMM, 1996, 1999a, 1999b, 2001,
1.0E+1
1.0E+0
Éclairement énergétique (W m–2 nm–1)
1.0E-1
1.0E-2
1.0E-3
Figure 7.3. Résultats obtenus à partir de modèles illustrant l’effet d’un accroissement de la
quantité d’ozone sur la transmission du rayonnement UV-B dans l’atmosphère
CHAPITRE 7. MESURE DU RAYONNEMENT 271
2008, 2010a). Par ailleurs, d'autres directives et procédures normalisées non encore disponibles
dans le commerce ont aussi été élaborées pour les spectroradiomètres en réseau (OMM, 2010b).
L’application des procédures recommandées en matière d’assurance de la qualité des données
aux sites qui exploitent des instruments de mesure du rayonnement UV permettront d’établir
une base de données utile. Celle‑ci est nécessaire pour mettre au point une climatologie de
l’éclairement énergétique UV à l’échelle spatio‑temporelle pour les études du climat terrestre.
Ces documents renferment également des recommandations pour les sites d’observation et les
spécifications des instruments. Les exigences relatives aux mesures du rayonnement UV‑B ont été
définies dans le Programme de la Veille de l'atmosphère globale de l’OMM (OMM, 1993, 2001,
2003, 2010a, 2010b, 2011). S'agissant de l'éclairement énergétique spectral UV‑B, les exigences
dépendent de l'objectif visé. Les spécifications correspondant aux objectifs moins astreignants
sont énoncées au tableau 7.9 (OMM, 2001).
Les descriptions ci‑après sont présentées à titre d’information en vue de faciliter le choix des
instruments.
7.6.1 Instruments
On trouve dans le commerce trois types généraux d’instruments pour la mesure du rayonnement
ultraviolet. Les instruments appartenant à la première catégorie font appel à des filtres à large
bande. Ces appareils intègrent le spectre UV‑B ou UV‑A, ou la totalité du domaine spectral UV
susceptible de nuire à la santé humaine. Les instruments de deuxième catégorie comportent
un ou plusieurs filtres interférentiels qui touchent des parties discrètes du spectre UV‑A ou
UV‑B. La troisième catégorie englobe les spectroradiomètres qui couvrent séquentiellement ou
simultanément une partie prédéfinie du spectre en faisant appel à une bande passante fixe.
La plupart, mais non la totalité, des capteurs à large bande sont conçus pour mesurer un spectre
ultraviolet pondéré par la fonction érythémale proposée par McKinlay et Diffey (1987) et
reproduite à la figure 7.4. Certains instruments ont un autre spectre d’action, c’est‑à‑dire celui
de Parrish et al. (1982). Deux méthodes (et leurs variations) sont employées pour pondérer le
matériel.
Le moyen le plus courant d’obtenir une pondération selon la fonction érythémale est d’éliminer
d’abord la quasi‑totalité des longueurs d’onde du spectre visible au moyen de filtres en verre
noir transmettant les rayons ultraviolets. Le rayonnement restant atteint alors un luminophore
sensible aux rayons UV. La lumière verte émise par le luminophore est de nouveau filtrée par
un verre coloré afin de supprimer toute lumière visible autre que le vert, avant de parvenir à
une photodiode à l’arséniure de gallium ou au phospho‑arséniure de gallium. La qualité de
l’instrument dépend de facteurs tels que la qualité du dôme protecteur extérieur en quartz,
la réponse cosinusoïdale de l’instrument, sa stabilité thermique et la capacité du fabricant
à faire correspondre la courbe d’action érythémale à une combinaison de caractéristiques
du verre et de la diode. La stabilité thermique de l’instrument est par ailleurs essentielle
tant pour ce qui concerne les composants électroniques que la réaction du luminophore au
rayonnement ultraviolet incident. L’efficacité du luminophore décroît d’environ 0,5 % K–1 et la
courbe de réponse aux longueurs d’onde se décale d’environ 1 nm par 10 K. Ce dernier effet est
particulièrement important du fait de la forte inclinaison de la courbe de rayonnement à de telles
longueurs d’onde.
Caractéristiques Exigences
Erreur de cosinus a
a) < ±10 % pour des angles d'incidence < 60°
b) < ±10 % pour le rayonnement isotrope intégré
Lumière parasite < 5 · 10 –4 W m–2 nm–1 lorsque l'instrument est exposé au soleil à une
distance zénithale solaire minimale
Durée du balayage < 10 min par spectre, par exemple, pour faciliter la comparaison avec les
modèles
Date et heure du balayage Notées pour chaque spectre pour assurer une exactitude d'au moins 10 s à
chaque longueur d'onde
Fréquence des données Au moins un balayage par heure, et un balayage supplémentaire au midi
solaire local
Notes:
a Des erreurs de cosinus moins grandes seraient souhaitables, mais cette exigence est irréaliste pour la majorité des
instruments actuellement en usage.
b L'incertitude d'étalonnage globale est exprimée au seuil de confiance de 95 % et inclut toutes les incertitudes liées
à l'étalonnage de l'éclairement (par exemple, incertitude liée aux lampes étalon, incertitudes dues au transfert,
erreurs d'alignement pendant l'étalonnage, et dérive des instruments pendant l'étalonnage). Pour plus de détails,
voir Bernhard et Seckmeyer (1999), Cordero et al. (2008) et Cordero et al. (2013).
c L'extension à des longueurs d'onde plus grandes est souhaitable pour l'établissement d'une climatologie UV pour
les applications biologiques (voir OMM, 2001, 2010b).
CHAPITRE 7. MESURE DU RAYONNEMENT 273
1.00E+0
1.00E-1
McKinlay et Diffey (1987)
1.00E-2
1.00E-3
1.00E-4
1.00E-5
250,00 300,00 350,00 400,00
Figure 7.4. Courbes d’action érythémateuse telles que présentées par Parrish, Jaenicke et
Anderson (1982) et par McKinlay et Diffey (1987)
Sources: Parrish et al. (1982) et McKinlay et Diffey (1987)
D’autres instruments à large bande font appel à l’une ou l’autre méthode pour mesurer les
spectres complets en employant une combinaison de filtres de verre ou de filtres interférentiels.
La bande passante se situe entre 20 et 80 nm (largeur totale à mi‑hauteur − LTMH) pour les
instruments qui mesurent une combinaison de rayonnements UV‑A et UV‑B. Certains fabricants
fournissent des algorithmes simples qui permettent d’approcher le dosage érythémal à partir de
mesures non pondérées.
L’entretien de base de ces instruments consiste à veiller à ce que les coupelles soient propres, à
ce que les appareils soient de niveau, à ce que le produit déshydratant soit actif (si fourni) et à
ce que le système de chauffage/refroidissement fonctionne correctement, si l’équipement en
est doté. Le contrôle et l'assurance de la qualité ainsi que les procédures détaillées d'entretien
devraient être confiés à des employés expérimentés.
La définition d’une bande étroite pour la présente classification des instruments est plutôt vague.
La bande passante la plus large pour les instruments de cette catégorie est de 10 nm (LTMH), et,
actuellement, la bande passante la plus étroite pour les instruments vendus dans le commerce
est de l'ordre de 2 nm (LTMH) (OMM, 2010a).
Avec ces capteurs, on utilise un ou plusieurs filtres interférentiels afin d’obtenir de l’information
sur une partie des spectres UV. Les instruments les plus simples comportent un filtre unique,
généralement à une longueur d’onde qui peut être mesurée par une photodiode de bonne
qualité améliorée pour les ultraviolets, bien qu'il soit souhaitable d'utiliser plus d'un filtre. Les
spécifications requises pour ce type d'instrument (OMM, 2010a) sont indiquées au tableau 7.10.
Les longueurs d’onde de l’ordre de 305 nm sont caractéristiques de tels instruments. Le rejet
hors bande offert par les filtres devrait être égal ou supérieur à 10 –6 dans toute la région sensible
du détecteur. Les instruments de qualité supérieure font appel à un dispositif de refroidissement
à effet Peltier pour maintenir une température constante avoisinant les 20 °C ou à un appareil
de chauffage pour porter la température du filtre et de la diode au‑dessus de la température
ambiante normale, habituellement 40 °C. Cette dernière solution réduit toutefois sensiblement la
durée de vie des filtres interférentiels. Une autre configuration de ce type d’instrument consiste
274 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Tableau 7.10. Exigences pour les mesures de l'éclairement énergétique global dans la
région UV‑B à bande étroite
Caractéristiques Exigences
Lumière parasite, y compris Contribution < 1 % au signal de longueurs d'onde situées au‑delà d'une
sensibilité au rayonnement LTMH de 2,5
visible et infrarouge pour une distance zénithale inférieure à 70°
Nombre minimal de canaux Au moins un canal à longueur d'onde centrale < 310 nm, et au moins un
autre à longueur d'onde centrale > 330 nm
Éclairement énergétique Le signal des instruments ne doit pas être saturé aux niveaux de
maximal rayonnement observés à la surface de la Terre
Seuil de détection Rapport signal/bruit (SNR) = 3 pour éclairement avec distance zénithale
solaire de 80°
et valeur de la colonne d’ozone total de 300 unités Dobson
Les instruments doivent être conçus de telle façon que le rayonnement traverse le filtre à un
angle proche de l’angle normal d’incidence afin d’éviter un décalage spectral vers une longueur
d’onde plus courte. Par exemple, un écart de 10° par rapport à l’angle normal d’incidence risque
de provoquer un décalage de 1,5 nm, selon l’indice de réfraction du filtre. La température peut
également modifier sensiblement la longueur d’onde centrale: environ 0,012 nm K–1 pour les
filtres très étroits (< 1 nm).
On procède à l’entretien des instruments à filtre unique de la même façon qu’avec les
instruments à large bande. Dans le cas des instruments qui comportent plusieurs filtres sur une
roue mobile, l’entretien consiste à vérifier si la roue porte‑filtres est correctement alignée. Il est
par ailleurs recommandé de tester régulièrement l’alimentation haute tension des instruments
équipés d’un photomultiplicateur et de contrôler la qualité des filtres.
CHAPITRE 7. MESURE DU RAYONNEMENT 275
7.6.1.3 Spectroradiomètres
Les instruments les plus perfectionnés sur le marché sont ceux qui font appel à des réseaux
gravés ou holographiques pour disperser l’énergie incidente dans le spectre. La faible énergie
du rayonnement ultraviolet par rapport à celle du spectre visible exige un fort rejet hors bande.
On y parvient en employant soit un monochromateur double, soit des filtres d’arrêt, qui ne
transmettent que le rayonnement ultraviolet, conjointement avec un monochromateur unique.
Un photomultiplicateur sert souvent à mesurer le rayonnement à la sortie du monochromateur
(OMM, 2001). Certains instruments moins onéreux font appel à des batteries de photodiodes
ou de détecteurs à transfert de charge (OMM, 2010b) qui permettent la mesure simultanée
de l'ensemble de la région spectrale sélectionnée. Ces instruments sont incapables de
mesurer l’énergie dans les longueurs d’onde les plus courtes du rayonnement UV‑B et posent
généralement plus de problèmes associés à la lumière parasite.
Les instruments de contrôle possèdent désormais plusieurs fonctions d’autocontrôle. Les tests
électroniques consistent à vérifier le fonctionnement du photomultiplicateur et du convertisseur
analogique numérique. Les tests visant à déterminer si les dispositifs optiques de l’instrument
fonctionnent correctement comportent des vérifications au moyen de lampes internes à vapeur
de mercure et de lampes étalons quartz halogène. Si ceux‑ci ne permettent pas de procéder à un
étalonnage absolu, ils donnent à l’opérateur des indications quant à la stabilité de l’instrument
pour ce qui est de l’alignement spectral et de l’intensité.
Des instruments vendus dans le commerce sont conçus pour donner des mesures allant de
290 nm jusqu’au milieu du spectre visible, selon leur modèle et leur configuration. La largeur de
bande des mesures se situe généralement entre 0,5 et 2,0 nm. Le temps nécessaire pour effectuer
un balayage complet du réseau dépend de la résolution de longueur d’onde et du spectre total à
mesurer. Il peut être de moins d’une minute avec des spectroradiomètres modernes à balayage
rapide jusqu’à environ dix minutes avec certains modèles de spectrophotomètres classiques de
qualité, quand il s’agit de balayer le domaine spectral UV et une partie du visible (290 à 450 nm)
en procédant par petits pas de longueur d’onde.
Le contrôle régulier du rayonnement ultraviolet exige que l’instrument soit protégé du milieu
ambiant ou qu’il soit conçu de telle façon que l’énergie incidente qui atteint un récepteur soit
transmise à un spectromètre logé dans un réceptacle. Il faut veiller, dans les deux cas, à ce que
les composants optiques aient une sensibilité uniforme jusqu’à une faible hauteur angulaire du
Soleil.
L’entretien des spectroradiomètres conçus pour le contrôle du rayonnement UV‑B doit être confié
à un personnel sur place bien formé pour s’occuper de ce type d’instruments. Il est primordial de
suivre les instructions du fabricant en raison de la complexité des appareils.
7.6.2 Étalonnage
L’étalonnage de tout capteur servant à l’observation du rayonnement UV‑B est à la fois très
important et difficile. Des directives sur l’étalonnage des spectroradiomètres UV et des
radiomètres à filtre UV sont énoncées dans des publications de l’OMM (1996, 1999a, 1999b,
2001, 2008, 2010a, 2010b) et dans des documents spécialisés. Les spectroradiomètres doivent
être étalonnés par rapport à des lampes étalonnées par raccordement à des laboratoires
nationaux de normalisation. Les nombreux pays qui ne disposent pas de laboratoires
capables de caractériser les lampes dans l’ultraviolet utilisent des lampes habituellement
rattachées au National Institute of Standards and Technology des États‑Unis d’Amérique ou au
Physikalisch‑Technische Bundesanstalt allemand.
On estime qu’il n’est possible actuellement d’atteindre une incertitude de 5 % dans les mesures
ponctuelles à 300 nm que dans les conditions les plus rigoureuses. L’incertitude associée aux
mesures des totaux quotidiens est environ la même, selon les meilleures pratiques. Afin d’obtenir
des totaux quotidiens représentatifs de l’éclairement spectral UV, il convient de procéder à des
balayages spectraux rapides avec des intervalles d’échantillonnage réduits entre les balayages
lorsque la nébulosité et/ou l’épaisseur optique des nuages évolue rapidement. L’incertitude
276 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
b) La stabilité des instruments, et notamment la stabilité du filtre spectral ainsi que, pour les
instruments plus anciens, les coefficients de température;
i) Le fait que le spectre d’une lampe étalon n’est pas le même que le spectre mesuré;
ii) Le fait que le spectre du rayonnement UV‑B mesuré varie fortement en fonction de la
distance zénithale du Soleil.
Le recours aux lampes étalons comme sources d’étalonnage conduit à des incertitudes
importantes aux longueurs d’onde les plus courtes, même si le transfert de l’étalonnage est
parfait. À 350 nm, par exemple, l’incertitude associée à l’éclairement énergétique standard est
de l’ordre de 1,3 %; lors du transfert vers une lampe étalon, on ajoute une incertitude de l’ordre
de 0,7 %. Soulignons que les incertitudes d’étalonnage diminuent avec l’augmentation des
longueurs d’onde. Il faut également porter attention au montage et au maniement des lampes
étalons. Des variations de courant électrique, ne serait‑ce que de 1 %, peuvent provoquer des
erreurs de flux UV de 10 % ou plus aux longueurs d’onde les plus courtes. Une mesure incorrecte
de la distance qui sépare la lampe et l’instrument à étalonner peut également entraîner des
erreurs de l’ordre de 1 %, du fait que la loi de l’inverse du carré s’applique à l’étalonnage. Webb
et al. (1994) abordent divers aspects de l’incertitude associée à l’emploi de lampes étalons pour
l’étalonnage des spectroradiomètres dans l’ultraviolet ou le visible.
Les instruments à large bande posent divers problèmes liés à: a) l’ensemble complexe de
filtres employés pour intégrer le rayonnement incident au signal d’action érythémale; et b) la
fluctuation de la nature spectrale de l’atmosphère en fonction de la masse d’air et de la quantité
d’ozone. Même si la détermination des caractéristiques de l’instrument au moyen de lampes
étalonnées est parfaite, les écarts entre le spectre solaire mesuré et le spectre de la lampe jouent
sur l’incertitude des mesures finales. L’emploi de lampes à deutérium à rendement élevé et
d’un monochromateur double, ainsi qu’une sélection rigoureuse des filtres peuvent faciliter
la caractérisation des appareils, mais rares sont les laboratoires capables d’effectuer ce type
d’étalonnage. Diverses méthodes d'étalonnage des instruments à large bande sont décrites dans
OMM (2008).
On peut avoir recours avec bonheur à des détecteurs à filtre avec les capteurs à bande étroite,
mais à ce jour, ils n’ont été utilisés que dans le cadre de travaux de recherche. Lorsque l’on
procède au réétalonnage de ces instruments, qu’ils soient à filtre unique ou à filtres multiples,
il faut prendre soin de vérifier que les caractéristiques spectrales des filtres n’ont pas changé
dans le temps. Diverses méthodes d'étalonnage des capteurs à bande étroite, ainsi que leurs
avantages et leurs inconvénients, sont décrits dans OMM (2010a).
La plupart des fabricants d’instruments à filtres préconisent un étalonnage tous les ans. Les
spectroradiomètres devraient être étalonnés au moins deux fois par an s’ils ne disposent pas
de fonctions d’autocontrôle du signal de sortie du photomultiplicateur ou de la sélection
de la longueur d’onde. Dans tous les cas, les étalonnages absolus ne devraient être réalisés
régulièrement que par des techniciens qualifiés sur les sites. Les sources employées pour
l’étalonnage doivent garantir le rattachement à des étalons radiométriques absolus conservés
par des laboratoires nationaux de métrologie. Dans l’éventualité où les vérifications courantes
d’assurance de la qualité indiqueraient une diminution notable de la performance de
l’instrument ou une variation de son étalonnage avec le temps, il pourrait être nécessaire de
procéder à un réétalonnage entre deux étalonnages prévus. Tous les étalonnages devraient être
effectués par du personnel compétent et être fondés sur la documentation présente sur le site
et sur les directives et procédures recommandées, telles que celles publiées par l’OMM (1996,
1999a, 1999b, 2001, 2008, 2010a, 2010b). Outre les étalonnages absolus, il peut être utile de
procéder à des comparaisons entre les sources employées pour l’étalonnage, par exemple les
lampes et les instruments de mesure, afin de déceler et d’éliminer les incohérences ou les écarts
systématiques dans les résultats obtenus avec les instruments aux différents sites.
ANNEXE 7.A. NOMENCLATURE DES GRANDEURS ÉNERGÉTIQUES ET
LUMINEUSES
1) Grandeurs énergétiques
2) Grandeurs lumineuses
Flux lumineux Φv lm
3) Caractéristiques optiques
Facteur de Φr
réflexion ρ ρ= Φr est le flux énergétique réfléchi
Φi
Ed↓
Ld↓
Hd↓
Hl↑, Hl↓
CHAPITRE 7. MESURE DU RAYONNEMENT 281
Lr↑
Hr↑
L* L* = L↓ – L↑
H* H* = H↓ – H↑
À sa trentième session, tenue en 1978, le Comité exécutif avait désigné par sa résolution 11
(EC‑XXX) les centres radiométriques mondiaux qui devaient être utilisés pour les comparaisons
internationales des étalons de mesure radiométriques faites en météorologie dans les stations du
réseau mondial et pour la conservation des instruments de référence destinés à cette fin.
a) Il possède et entretient un groupe d’au moins trois pyrhéliomètres absolus stables dont le
niveau d’incertitude identifiable (95 %) est inférieur à 1 W m–2 par rapport à la Référence
radiométrique mondiale et dont 95 % des mesures de l’éclairement énergétique direct
du Soleil, dans des conditions ensoleillées stables présentant un éclairement énergétique
direct supérieur à 700 W m–2, se situent à moins de 4 W m–2 de la valeur réelle. Le Centre
radiométrique mondial de Davos est invité à maintenir le Groupe étalon mondial en vue de
l’établissement de la Référence radiométrique mondiale;
c) Son personnel devrait être suffisant pour assurer la continuité du service et comprendre des
scientifiques qualifiés détenant une vaste expérience dans le domaine du rayonnement;
d) Il met tout en œuvre pour que ses étalons et appareils d’essai présentent en permanence la
plus grande qualité possible;
g) Il se tient informé ou est à l’origine de l’évolution des normes ou des méthodes qui sont
employées en radiométrie météorologique;
h) Il est évalué par un organisme international ou par des experts de la CIMO au moins tous
les cinq ans, de manière à vérifier la traçabilité des mesures du rayonnement solaire direct;
ou
a) Il établit et tient à jour des archives de données sur le rayonnement solaire provenant de
tous les Membres de l’OMM;
b) Son personnel devrait être suffisant pour assurer la continuité du service et comprendre des
scientifiques qualifiés ayant une vaste expérience dans le domaine du rayonnement;
c) Il prend toutes les mesures nécessaires afin d’assurer en permanence un niveau très élevé
tant en matière de qualité que pour ce qui est de l’accès à sa base de données;
d) Au moins tous les cinq ans, il fait l’objet d’une évaluation effectuée par un organisme
international ou par des experts de la CIMO.
CHAPITRE 7. MESURE DU RAYONNEMENT 283
Les centres radiométriques régionaux sont chargés par les conseils régionaux de procéder à la
comparaison d’instruments de mesure du rayonnement à l’intérieur de la Région et de conserver
les instruments étalons voulus pour ce faire.
Tout centre radiométrique régional doit remplir les conditions ci‑après avant sa désignation et
continuer de les remplir par la suite:
a) Il possède et entretient un groupe étalon formé d’au moins trois pyrhéliomètres stables
dont le niveau d’incertitude identifiable (95 %) est inférieur à 1 W m–2 par rapport à la
Référence radiométrique mondiale et dont 95 % des mesures de l’éclairement énergétique
direct du Soleil, dans des conditions ensoleillées stables présentant un éclairement
énergétique direct supérieur à 700 W m–2, se situent à moins de 6 W m–2 de la valeur réelle;
b) Il fait en sorte que l’un des radiomètres soit, au moins une fois tous les cinq ans, comparé au
Groupe étalon mondial, dans le cadre d’une comparaison approuvée par l’OMM (CIMO),
ou étalonné;
c) Ses radiomètres étalons sont comparés entre eux au moins une fois par an dans le but
de vérifier la stabilité de chaque instrument. Si le coefficient moyen, calculé sur au moins
100 mesures avec un niveau d’incertitude (95 %) inférieur à 0,1 %, a changé de plus de
0,2 % et s’il est impossible de déterminer l’instrument en cause, un étalonnage doit être
effectué dans l’un des centres radiométriques mondiaux avant toute nouvelle utilisation des
radiomètres comme étalons;
f) Son personnel devrait être suffisant pour assurer la continuité du service et comprendre un
scientifique qualifié possédant une vaste expérience dans le domaine du rayonnement;
g) Il est évalué par un organisme national ou international ou par des experts de la CIMO au
moins tous les cinq ans, de manière à vérifier la traçabilité des mesures du rayonnement
solaire direct.
Les centres radiométriques nationaux sont désignés au niveau d’un pays. Ils sont chargés de
procéder à l’étalonnage, à la normalisation et à la vérification des instruments qui sont utilisés
dans le réseau national de stations radiométriques et de conserver les instruments étalons voulus
pour ce faire.
b) Il fait en sorte que l’un des radiomètres étalons nationaux soit comparé à un étalon régional
au moins une fois tous les cinq ans;
284 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
c) Ses radiomètres étalons sont comparés entre eux au moins une fois par an dans le but
de vérifier la stabilité de chaque instrument. Si le coefficient moyen, calculé sur au moins
100 mesures avec un niveau d’incertitude (95 %) inférieur à 0,2 %, a changé de plus de
0,6 % et s’il est impossible de déterminer l’instrument en cause, un étalonnage doit être
effectué dans l’un des centres radiométriques régionaux avant toute nouvelle utilisation des
radiomètres comme étalons;
e) Son personnel devrait être suffisant pour assurer la continuité du service et comprendre un
scientifique qualifié possédant de l’expérience dans le domaine du rayonnement.
Les centres radiométriques nationaux sont tenus d’élaborer et de tenir à jour toutes les
instructions techniques nécessaires au bon fonctionnement et à l’entretien du réseau national de
stations radiométriques.
Des dispositions devraient être prises pour assembler les résultats de toutes les mesures du
rayonnement effectuées au sein du réseau national de stations radiométriques et pour vérifier
soigneusement et régulièrement ces résultats en vue de garantir leur exactitude et leur fiabilité.
Si ces tâches sont confiées à un autre organisme, le centre radiométrique national doit être en
relation étroite avec celui‑ci.
Davos (Suisse)
Saint‑Pétersbourg (voir la note) (Fédération de Russie)
Région I (Afrique):
Le Caire (Égypte)
Khartoum (Soudan)
Kinshasa (République démocratique du Congo)
Lagos (Nigéria)
Tamanrasset (Algérie)
Tunis (Tunisie)
Région II (Asie):
Pune (Inde)
Tokyo (Japon)
Toronto (Canada)
Boulder (États Unis d’Amérique)
Mexico/Colima (Mexique)
CHAPITRE 7. MESURE DU RAYONNEMENT 285
Melbourne (Australie)
Région VI (Europe):
Budapest (Hongrie)
Davos (Suisse)
Saint‑Pétersbourg (Fédération de Russie)
Norrköping (Suède)
Toulouse/Carpentras (France)
Uccle (Belgique)
Lindenberg (Allemagne)
Note: Le centre de Saint Pétersbourg est principalement exploité à titre de centre mondial de données sur le
rayonnement, en vertu du plan stratégique de la Veille de l’atmosphère globale.
ANNEXE 7.D. FORMULES UTILES
Données générales
Toutes les données astronomiques peuvent se calculer à l’aide des tables qui figurent dans les
almanachs nautiques ou des tables astronomiques (éphémérides); mais on utilise aussi des
équations d’approximation à des fins pratiques. Michalsky (1988a, 1988b) a conclu, après avoir
comparé plusieurs séries de formules d’approximation, que celles qui convenaient le mieux
étaient les équations présentées comme des approximations pratiques dans l’Astronomical
Almanac (United States Naval Observatory, 1993). Celles‑ci sont reproduites ci‑après à toutes fins
utiles.
Position du Soleil
Pour déterminer la position réelle du Soleil, les valeurs ci‑après doivent être connues:
a) L’année;
c) L’heure décimale en temps universel (par exemple, heures + minute/60 + écart horaire par
rapport à Greenwich);
Pour déterminer le jour julien (JJ), on fait appel à l’Astronomical Almanac, qui détermine le
jour julien actuel à partir d’un jour julien de référence fixé au 1er janvier 2000 à midi en temps
universel (TU). Ce JJ correspond à 2 451 545,0. Le jour julien à déterminer se calcule comme suit:
JJ = 2 432 917, 5 + delta ⋅ 365 + jours intercalaires + jour + heure 24
où
La constante 2 432 917,5 est le jour julien correspondant à 0000 1er janvier 1949 et n’est utilisée
que par commodité.
a) n = JJ – 2 451 545;
Il convient de noter que d’après les spécifications, tous les multiples de 360° devraient être
ajoutés ou soustraits jusqu’à ce que la valeur finale s’inscrive dans la marge recommandée.
CHAPITRE 7. MESURE DU RAYONNEMENT 287
À l’aide des équations susmentionnées, les coordonnées célestes, l’ascension droite (ra) et la
déclinaison (dec), peuvent se calculer comme suit:
tan ( ra ) = cos ( ep ) ⋅ sin ( l ) cos ( l )
sin ( dec ) = sin ( ep ) ⋅ sin ( l )
Pour convertir les coordonnées célestes en coordonnées locales, c’est‑à‑dire l’ascension droite et
la déclinaison en azimut (A) et altitude (a), il est recommandé d’utiliser l’angle horaire local (h). À
cette fin, il faut d’abord déterminer le temps sidéral moyen de Greenwich (GMST, en heures) et le
temps sidéral moyen local (LMST):
GMST = 6, 697 375 + 0, 065 709 824 2 ⋅ n + heure ( TU )
où
La hauteur du Soleil (el) et l’azimut du Soleil (az) peuvent se calculer par les relations suivantes
(az et el sont exprimés en degrés):
sin ( el ) = sin ( dec ) ⋅ sin ( lat ) + cos ( dec ) ⋅ cos ( lat ) ⋅ cos ( ha )
et:
sin ( az ) = − cos ( dec ) ⋅ sin ( ha ) cos ( el )
cos ( az ) = ( sin ( dec ) − sin ( el ) ⋅ sin ( lat ) ) ( cos ( el ) ⋅ cos ( lat ) )
où l’azimut est compté à partir du Nord (0°), avec des valeurs positives vers l’Est.
a) Une expression simple pour la réfraction r dans le cas de distances zénithales inférieures à
75°:
r = 0° , 004 52 P tan z ( 273 + T )
b) Pour les distances zénithales supérieures à 75° et les altitudes inférieures à 15°, la formule
d’approximation ci‑après est recommandée:
r=
(
P 0,159 4 + 0, 019 6a + 0, 000 02a 2 )
(
( 273 + T ) 1 + 0, 505a + 0, 084 5a 2
)
où a est l’altitude (90° – z), h = el + r et la distance zénithale apparente du Soleil est z0 = z + r.
288 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Distance Terre‑Soleil
Même si elle est peu importante à notre époque, l’excentricité de l’orbite que la Terre décrit
autour du Soleil est néanmoins suffisante pour que le carré de la distance Terre‑Soleil R, et donc
l’éclairement énergétique solaire à la surface du globe, varie de 3,3 pour cent par rapport à la
moyenne. En unités astronomiques, avec une incertitude de 10 –4, la relation est la suivante:
R = 1, 000 14 − 0, 016 71 ⋅ cos ( g ) − 0, 000 14 ⋅ cos ( 2 g )
où g est l’anomalie moyenne définie ci‑dessus. L’excentricité est définie comme le carré de la
distance moyenne Terre‑Soleil (1 UA, R0) divisée par la distance réelle Terre‑Soleil:
E0 = ( R0 R )
2
Masse d’air
Le temps solaire moyen, sur lequel se fonde notre temps civil, est déduit du mouvement d’un
corps imaginaire, appelé Soleil moyen, dont on suppose qu’il se déplace sur l’équateur céleste à
une vitesse uniforme égale à la vitesse moyenne du mouvement du Soleil vrai. La différence entre
ce temps adopté comme référence et le temps vrai local, qui est variable, est appelée équation du
temps, Eq, laquelle peut être positive ou négative selon les positions relatives du Soleil vrai et du
Soleil moyen:
LAT = LMT + Eq = CT + LC + Eq
où LAT est le temps vrai local (également appelé temps solaire vrai (TSV)), LMT est le temps
local moyen, CT est le temps civil (appelé aussi temps légal parce qu’il se réfère à un méridien
donné) et LC est la correction de longitude (4 minutes par degré). LC est positive si le méridien
local est à l’est du méridien de référence et vice‑versa.
L’arceau d’ombrage est monté sur deux rails orientés parallèlement à l’axe de la Terre, de telle
manière que le centre de l’arceau coïncide avec celui du pyranomètre aux équinoxes. Le diamètre
de l’arceau est compris entre 0,5 et 1,5 m et le rapport entre la largeur et le rayon b/r est compris
entre 0,09 et 0,35. L’ajustement de la position de l’arceau en fonction de la déclinaison du
Soleil s’opère en faisant glisser l’arceau le long des rails. La longueur de la bande d’ombrage
et la hauteur de la monture supportant les rails par rapport au pyranomètre sont déterminées
par la position du Soleil au solstice d’été; la longueur de la bande est d’autant plus grande et
l’inclinaison des rails d’autant plus faible que la latitude est élevée.
Divers auteurs, par exemple Drummond (1956), Dehne (1980) et Le Baron et al. (1980), ont
proposé des formules pour le calcul des corrections à apporter aux mesures du rayonnement du
ciel en vue de prendre en compte la partie de celui‑ci que la bande empêche de mesurer. Pour
un arceau dont le rapport est b/r < 0,2, le rayonnement, Dv, non mesuré pendant un jour peut se
calculer par la relation:
tset
b
Dv ≈ cos3δ
r ∫ L ( t ) ⋅ sin h ( t ) dt
trise
où δ est la déclinaison du Soleil, t est l’angle horaire du Soleil, trise et tset sont les angles horaires au
lever et au coucher du Soleil dans le cas d’un horizon mathématique (Φ étant la latitude du lieu,
trise= – tset et cos trise= – tan Φ · tan δ), L(t) est le rayonnement diurne du ciel et h est la hauteur du
Soleil.
1,15
F Ciel clair
Facteur de correction
1,10
f Ciel clair
f Ciel couvert
1,05
F Ciel couvert
1,00
–2 3,5° –20° –10° 0° 10° 20° 23,5°
Déclinaison
Bass, A.M. et R.J. Paur, 1985: The ultraviolet cross‑sections of ozone: I. The Measurements. Atmospheric
Ozone (dir.: C.S. Zerefos et A. Ghazi), Reidel, Dordrecht, p. 606–610.
Bernhard, G. et G. Seckmeyer, 1999: Uncertainty of measurements of spectral solar UV irradiance. Journal of
Geophysical Research: Atmospheres, 104(D12):14321–14345.
Bodhaine, B.A., N.B. Wood, E.G. Dutton et J.R. Slusser, 1999: On Rayleigh optical depth calculations. Journal
of Atmospheric and Oceanic Technology, 16:1854–1861.
Commission électrotechnique internationale (CEI), 1987: Vocabulaire électrotechnique international,
Chapitre 845: Éclairage, CEI 60050‑845, Genève.
Commission internationale de l’éclairage (CIE), 1987: Methods of Characterizing Illuminance Meters and
Luminance Meters, CIE 69‑1987, Vienne.
———, 1994: Guide to Recommended Practice of Daylight Measurement, CIE 108‑1994, Vienne.
Cordero R.R., G. Seckmeyer, A. Damiani, F. Labbe et D. Laroze, 2013: Monte Carlo‑based uncertainties of
surface UV estimates from models and from spectroradiometers. Metrologia, 50(5):L1–L5.
Cordero R.R., G. Seckmeyer, D. Pissulla, L. DaSilva et F. Labbe, 2008: Uncertainty evaluation of spectral UV
irradiance measurements. Measurement Science and Technology, 19(4):1–15.
Dehne, K., 1980: Vorschlag zur standardisierten Reduktion der Daten verschiedener nationaler
Himmelsstrahlungs‑Messnetze. Annalen der Meteorologie (Neue Folge), 16:57–59.
Drummond, A.J., 1956: On the measurement of sky radiation. Archiv für Meteorologie, Geophysik und
Bioklimatologie, Serie B, 7:413–436.
Forgan, B.W., 1996: A new method for calibrating reference and field pyranometers. Journal of Atmospheric
and Oceanic Technology, 13:638–645.
Frouin, R., P.‑Y. Deschamps et P. Lecomte, 1990: Determination from space of atmospheric total water
vapour amounts by differential absorption near 940 nm: Theory and airborne verification.
Journal of Applied Meteorology, 29:448–460.
Kerr, J.B. et T.C. McElroy, 1993: Evidence for large upward trends of ultraviolet‑B radiation linked to ozone
depletion. Science, 262:1032–1034.
Le Baron, B.A., W.A. Peterson et I. Dirmhirn, 1980: Corrections for diffuse irradiance measured with
shadowbands. Solar Energy, 25:1–13.
McKinlay, A.F. et B.L. Diffey, 1987: A reference action spectrum for ultraviolet induced erythema in human
skin. Dans: Human Exposure to Ultraviolet Radiation: Risks and Regulations (dir.: W.F. Passchier et
B.F.M. Bosnjakovic), Elsevier, Amsterdam, p. 83–87.
Michalsky, J.J., 1988a: The astronomical almanac’s algorithm for approximate solar position (1950–2050).
Solar Energy, 40(3):227–235.
———, 1988b: Errata. The astronomical almanac’s algorithm for approximate solar position (1950–2050).
Solar Energy, 41(1):113.
Organisation internationale de normalisation, 1990a: Énergie solaire – Spécification et classification des
instruments de mesurage du rayonnement solaire hémisphérique et direct, ISO 9060:1990, Genève.
———, 1990b: Énergie solaire – Étalonnage des pyrhéliomètres de terrain par comparaison à un pyrhéliomètre de
référence, ISO 9059:1990, Genève.
———, 1990c: Énergie solaire – Pyranomètres de champ – Pratique recommandée pour l'emploi, ISO/TR 9901:1990,
Genève.
———, 1992: Énergie solaire – Étalonnage des pyranomètres de terrain par comparaison à un pyranomètre de
référence, ISO 9847:1992, Genève.
———, 1993: Énergie solaire – Étalonnage d'un pyranomètre utilisant un pyrhéliomètre, ISO 9846:1993, Genève.
Organisation internationale de normalisation/Commission électrotechnique internationale (CEI), 2008:
Incertitude de mesure – Partie 3: Guide pour l'expression de l'incertitude de mesure,
ISO/IEC Guide 98‑3:2008, y compris Suppl. 1:2008/Cor 1:2009, Suppl. 1:2008, Suppl. 2:2011,
Genève (équivalant à: Comité commun pour les guides en métrologie (JCGM), 2008:
Évaluation des données de mesure – Guide pour l’expression de l’incertitude de mesure,
JCGM 100:2008, corrigé en 2010).
Organisation météorologique mondiale, 1986: Revised Instruction Manual on Radiation Instruments and
Measurements. World Climate Research Programme Publications Series No. 7
(WMO/TD‑No. 149), Genève.
———, 1993: Rapport de la deuxième réunion des directeurs de recherches sur l’ozone des Parties de la Convention
de Vienne pour la protection de la couche d’ozone (Genève, 10–12 mars 1993). Rapport N° 32 du
Projet mondial OMM de surveillance et de recherche concernant l'ozone, Genève.
292 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
8.1 GÉNÉRALITÉS
Le terme «insolation» est associé à la luminosité du disque solaire par rapport au fond que
constitue la lumière diffuse du ciel, ou encore, ce qui est plus facile à observer pour l’œil humain,
à l’apparition d’ombres que projettent les objets illuminés. Dans cette acception, il se réfère plus
au rayonnement visible qu’à l’énergie rayonnée dans d’autres longueurs d’onde, bien que les
deux soient inséparables. Dans la pratique cependant, la première définition de ce terme a été
établie directement à partir des résultats que fournissait l’héliographe Campbell‑Stokes (voir la
section 8.2.3). Cet instrument relativement simple décèle une insolation quand le rayonnement
solaire qu’il capte et focalise par l’intermédiaire d’une lentille spéciale laisse des traces de brûlure
sur une bande de papier cartonné thermosensible. L’héliographe Campbell‑Stokes, introduit
dans les stations météorologiques dès 1880, est encore en service dans de nombreux réseaux.
Pendant longtemps, faute de règlements internationaux relatifs aux dimensions et à la qualité
des pièces spéciales constituant l’instrument, les diverses configurations fondées sur le même
principe de fonctionnement ont fourni des valeurs différentes de la durée d’insolation.
Dans le but d’uniformiser les mesures à l’échelle mondiale, il a été recommandé d’utiliser un
héliographe Campbell‑Stokes de conception particulière, appelé «héliographe de référence
provisoire (HRP)» (OMM, 1962). L’application d’une définition relative au matériel devait
entraîner une amélioration uniquement durant le temps nécessaire à l’établissement d’une
définition physique précise qui permettrait la fabrication d’héliographes automatiques et
dont l’échelle se rapprocherait autant que possible de celle représentée par l’héliographe de
référence provisoire. À ce sujet, il a été vivement recommandé que soit adopté, d’un commun
accord, un seuil d’éclairement énergétique solaire direct correspondant au seuil auquel les
héliographes Campbell‑Stokes commencent à enregistrer une insolation effective. Les études
menées dans différentes stations (Bider, 1958; Baumgartner, 1979) montrèrent que le seuil
d’éclairement énergétique nécessaire pour que des traces de brûlure apparaissent sur la bande
de papier cartonné de l’appareil se situait entre 70 et 280 W m–2. Mais de nouvelles études, en
particulier celles menées en France à l’aide de l’héliographe de référence provisoire, établirent
la valeur moyenne de 120 W m–2 dont l’adoption a été finalement recommandée1 en tant que
valeur seuil de l’éclairement énergétique solaire direct déterminant le seuil d’insolation. Compte
tenu de l’éventail des résultats des essais, il a été convenu d’appliquer cette valeur seuil dans les
spécifications des instruments avec un degré d’incertitude de 20 %. Il a aussi été recommandé
d’utiliser le pyrhéliomètre comme instrument de référence pour détecter le seuil d’éclairement
énergétique. Pour qu’il soit possible d’affiner cette référence à l’avenir, il faudra parvenir à
s’entendre sur l’angle d’ouverture de l’instrument (voir les sections 7.2 et 7.2.1.3 du chapitre 7 de
la partie I).
8.1.1 Définition
1
Recommandation 10 (CIMO‑VIII), adoptée par la Commission des instruments et des méthodes d’observation à sa
huitième session (1981).
2
Recommandation 16 (CIMO‑X), adoptée par la Commission des instruments et des méthodes d’observation à sa
dixième session (1989).
CHAPITRE 8. MESURE DE LA DURÉE D’INSOLATION 295
utilise aussi des unités dérivées telles que le nombre d’heures par jour ou les heures d’insolation
quotidienne, ainsi que des pourcentages tels que la durée d’insolation quotidienne relative où SD
peut se rapporter à la durée d’insolation extraterrestre potentielle SD 0 ou à la durée d’insolation
maximale potentielle SDmax. La période sur laquelle portent les mesures (jour, décade, mois,
année, etc.) est un élément important qu’il convient d’indiquer.
Les exigences quant aux performances sont données au chapitre 1 de la partie I. Ainsi convient‑il
de mesurer la durée d’insolation avec une incertitude de ±0,1 h et une résolution de 0,1 h.
Pour un ciel sans nuages, les erreurs éventuelles (en fonction de la quantité de poussière) dues
à un mauvais réglage du seuil ou à la sensibilité spectrale ne portent que sur les valeurs horaires
qui correspondent au lever ou au coucher du soleil.
Le maximum d’exactitude est requis lorsque des couches de nuages élevés (cirrus, altostratus)
présentant de petites variations d’épaisseur optique atténuent l’éclairement énergétique solaire
direct de telle façon que la valeur mesurée est proche de 120 W m‑2. L’angle d’ouverture et
l’exactitude du réglage du seuil sont alors tous deux importants.
L’une des premières applications consistait à se servir des données sur la durée de l’insolation
pour établir les caractéristiques climatiques de certains types d’emplacements, les stations
climatiques notamment. On tenait compte dans ce cas de l’effet psychologique positif d’un
ensoleillement important sur le bien‑être. Des collectivités locales se servent encore de ce type
de données pour promouvoir le tourisme.
La description des conditions météorologiques passées, sur un mois par exemple, contient
d’ordinaire une série de données sur la durée d’insolation journalière.
En ce qui concerne les domaines d’application de ce type, on a accepté une incertitude d’environ
10 % pendant de nombreuses décennies.
296 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
où G/G 0 est l’indice dit de limpidité (qui se rapporte à l’exposition énergétique globale
extraterrestre), SD/SD 0 est la durée d’insolation correspondante (qui se rapporte à la valeur de
la durée d’insolation extraterrestre potentielle) et a et b sont des constantes qu’il faut établir
chaque mois. On a pu observer, à partir des relevés des stations allemandes (Golchert, 1981),
que pour les moyennes mensuelles du rayonnement solaire journalier obtenues de cette manière
à partir des données des instruments Campbell‑Stokes, l’incertitude était inférieure à 10 % en été
et atteignait jusqu’à 30 % en hiver.
Voici un résumé rapide des principes et des types d’instruments utilisés pour mesurer la durée de
l’insolation:
b) Principe pyranométrique:
ii) Mesure pyranométrique de l’éclairement énergétique solaire global (G) afin d’en
déduire une durée d’insolation.
c) Principe des traces de brûlure de l’héliographe: effet de seuil obtenu par la focalisation
du rayonnement solaire direct qui entraîne la carbonisation d’une bande de carton (effet
thermique de l’énergie solaire absorbée). La longueur des traces de brûlure fournit la durée
de l’insolation.
d) Principe du contraste: détection de la différence entre les valeurs de l’insolation reçue par
un certain nombre de capteurs placés dans différentes positions par rapport au soleil, une
valeur donnée de la différence entre les signaux de sortie des capteurs correspondant à la
valeur seuil recommandée par l’OMM (déterminée par comparaison avec des valeurs de
référence de l’insolation); le reste comme dans b).
Les méthodes de mesure de la durée d’insolation décrites dans les paragraphes qui suivent
fournissent des exemples de mise en pratique des principes énoncés ci‑dessus. Les instruments
qui fonctionnent suivant ces principes, à l’exception de l’enregistreur de commutation Foster, ont
participé à la comparaison OMM d’instruments automatiques de mesure de la durée d’insolation
qui s’est tenue en 1988‑1989 à Hambourg et à la comparaison de pyranomètres et d’enregistreurs
électroniques de la durée d’insolation, organisée par le Conseil régional VI à Budapest, en 1984
(OMM, 1986).
La description de l’héliographe Campbell‑Stokes qui figure dans la section 8.2.3 est relativement
détaillée, car cet instrument est encore largement employé dans des réseaux nationaux et qu’il
serait bon que les spécifications et les règles d’évaluation recommandées par l’OMM soient
prises en compte. (Il y a lieu de noter cependant qu’il n’est plus recommandé d’employer cette
méthode, puisqu’elle ne permet pas d’enregistrer «la durée des périodes durant lesquelles le
soleil brille effectivement, tout au moins pas de façon assez uniforme3».)
Une analyse historique des héliographes est également présentée dans les ouvrages suivants:
Coulson, 1975; Hameed et Pittalwala, 1989; Sonntag et Behrens, 1992.
3
Voir la recommandation 10 (CIMO‑VIII).
298 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
8.2.1.1 Généralités
Découlant directement de la définition de l’insolation donnée par l’OMM (voir la section 8.1.1)
et par conséquent recommandée pour obtenir des valeurs de référence de la durée d’insolation,
cette méthode nécessite un pyrhéliomètre étanche et un dispositif de poursuite du soleil fiable
destiné à pointer automatiquement ou tout au moins semi‑automatiquement le pyrhéliomètre
vers le soleil. Il est possible de modifier la méthode en fonction du choix du pyrhéliomètre, dont
l’angle d’ouverture a une influence sur l’éclairement énergétique mesuré quand des nuages
entourent le soleil.
Il est possible de contrôler le seuil d’ensoleillement par une comparaison continue du signal de
sortie du pyrhéliomètre avec la tension équivalente au seuil Vth = 120 W m–2 · R μV W–1 m2 que
l’on peut calculer à partir de la sensibilité R du pyrhéliomètre. Le passage par le seuil est détecté
quand la différence ΔV = V – Vth change de signe. Le totalisateur horaire couplé à l’appareil
fonctionne quand ΔV > 0.
Comme il n’existe pas encore de convention relative à la définition de l’angle d’ouverture (voir
les sections 7.2 et 7.2.1.3 du chapitre 7 de la partie I), deux pyrhéliomètres ayant des angles
d’ouverture différents risquent fort de fournir des résultats très différents, en particulier quand le
soleil est entouré de nuages. Selon la classe des pyrhéliomètres utilisés, il faut aussi tenir compte
d’autres erreurs types, à savoir l’effet d’inclinaison, la sensibilité à la température, la non‑linéarité
et le décalage du zéro. Des erreurs importantes sont aussi à signaler en cas d’alignement imprécis
sur le soleil ou encore lorsque la fenêtre de l’appareil est couverte de gouttes de pluie ou de
neige.
8.2.2.1 Généralités
La méthode pyranométrique utilisée pour obtenir la durée d’insolation repose sur la relation
fondamentale entre le rayonnement solaire direct (I), d’une part, et le rayonnement solaire
global (G) et diffus (D), d’autre part:
I ⋅ cos ζ = G − D (8.2)
où ζ est l’angle zénithal du soleil et I · cos ζ la composante horizontale de I. Pour que cette
équation se vérifie exactement, l’angle d’ouverture occulté du pyranomètre utilisé pour mesurer
D doit être égal à l’angle d’ouverture du pyrhéliomètre (voir le chapitre 7 de la partie I). En
outre les bandes spectrales et les constantes de temps des pyrhéliomètres et des pyranomètres
devraient être aussi similaires que possible.
Lorsqu’on ne dispose pas d’un pyrhéliomètre à poursuite automatique du soleil, mais plutôt des
mesures de G et D obtenues par ordinateur à partir de relevés pyranométriques, il est possible,
compte tenu de l’équation 8.2, d’exprimer le critère établi par l’OMM en ce qui concerne
l’insolation par la relation suivante:
Les modifications apportées à cette méthode suivant les stations intéressent avant tout:
b) L’élément pare‑soleil utilisé (bande ou disque dans le cas d’un dispositif de poursuite
automatique du soleil) et la géométrie de l’ombre portée (angle occulté);
Il y a lieu de signaler aussi une modification spéciale, à savoir le remplacement du critère exprimé
par l’équation 8.3 par une formule statistique de paramétrisation (éliminant la nécessité de
déterminer l’angle zénithal du soleil), qui s’applique aux systèmes d’acquisition de données
relativement simples (Sonntag et Behrens, 1992).
Différents algorithmes, fondés sur diverses hypothèses, peuvent servir à estimer la durée
d’insolation à partir de la mesure d’un seul pyranomètre.
La «méthode de Slob et Monna» (Slob et Monna, 1991) repose sur les deux hypothèses ci‑après
quant à la relation entre l’éclairement énergétique et la nébulosité:
b) Quand une différence nette apparaît entre les valeurs minimale et maximale de
l’éclairement énergétique global mesuré durant l’intervalle de 10 minutes, cela suppose que
les nuages ont temporairement obscurci le ciel. Par contre, si aucune différence n’apparaît,
c’est que, durant ces 10 minutes, soit aucune insolation n’a été enregistrée soit le soleil a
brillé sans interruption (SD = 0 ou SD = 10 min).
Compte tenu de ces deux hypothèses, il est possible de se servir d’un algorithme (Slob et
Monna, 1991) pour calculer la durée d’insolation quotidienne à partir de la somme des résultats
recueillis au cours des intervalles de mesure de 10 minutes. Selon cet algorithme, la durée
d’insolation est déterminée pour une succession d’intervalles de 10 minutes (SD10’ = ƒ · 10 min,
où ƒ est la fraction de l’intervalle pendant laquelle une insolation a été enregistrée, 0 ≤ ƒ ≤ 1).
Le facteur d’atténuation est en grande partie fonction du trajet optique de la lumière du soleil à
travers l’atmosphère. Ce trajet variant en fonction de la hauteur angulaire du soleil (h = 90° – z),
l’algorithme établit une différence entre trois groupes horaires. Le plus souvent ƒ = 0 ou ƒ = 1,
mais le cas où 0 < ƒ < 1 requiert une attention particulière. L’algorithme en question figure dans
l’annexe 8.A. Un tel cumul journalier présente un degré d’incertitude d’environ 0,6 h, même si
des travaux récents (Hinssen et Knap, 2007; OMM, 2012) ont montré que l’incertitude élargie
(k = 2) propre aux cumuls journaliers pouvait dépasser 1 h.
L’application de la méthode de Carpentras peut être optimisée en utilisant les valeurs moyennes
de l’éclairement énergétique global et direct sur des intervalles de 1 minute (servant de
référence) pour plusieurs années consécutives (quatre au minimum), de manière à pouvoir
déterminer les coefficients nécessaires à la paramétrisation de Gthr sur des intervalles de 1 minute
pour le lieu considéré. Cette façon de procéder réduit au minimum l’erreur relative totale de la
durée d’insolation quotidienne calculée par la méthode de Carpentras sur une longue période de
300 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
temps (plusieurs années) au moyen des différences cumulées de cette durée et permet en outre
d’obtenir une évaluation de l’incertitude possible liée à la méthode de Carpentras (Morel et al.,
2012).
Compte tenu de l’équation 8.3, les erreurs de mesure de l’éclairement énergétique solaire
global et diffus sont répercutées dans les calculs de l’éclairement énergétique solaire direct et se
trouvent fortement amplifiées lorsque l’angle zénithal du soleil augmente. Il importe donc, afin
de réduire le degré d’incertitude associé aux résultats, de veiller à l’exactitude des corrections
apportées aux valeurs du rayonnement solaire diffus obtenues à l’aide d’instruments équipés
d’une bande pare‑soleil (OMM, 1984a) ainsi qu’au choix d’un pyranomètre de bonne qualité.
8.2.3.1 Réglages
a) Niveler le socle;
b) Ajuster le support en arc de cercle de manière que la ligne centrale de la bande d’équinoxe
soit dans le plan de l’équateur céleste (l’échelle de latitude imprimée sur le bloc à glissière
facilite cette opération);
c) S’assurer que le plan vertical passant par le centre de la sphère et la marque de midi sur le
support sont dans le plan du méridien géographique (réglage nord‑sud).
La meilleure façon de vérifier ce dernier réglage consiste à observer la tache de soleil projetée par
la sphère à midi de l’heure solaire vraie: si l’instrument est orienté convenablement, elle devrait
tomber exactement sur la ligne de 12 heures du support ou de la bande.
CHAPITRE 8. MESURE DE LA DURÉE D’INSOLATION 301
8.2.3.2 Évaluation
Pour obtenir des résultats uniformes avec les héliographes Campbell‑Stokes, il est
particulièrement important de respecter à la lettre les instructions ci‑après quand on dépouille
les enregistrements des HRP. Il y a lieu de déterminer la durée totale de l’insolation journalière
en portant, sur le bord d’une bande de papier cartonné analogue, des traits correspondant à la
longueur de chaque trace de brûlure sur l’enregistrement, puis en mesurant, au dixième d’heure
le plus proche, la longueur totale des espaces délimités par ces traits. La longueur des différentes
traces de brûlure devrait être évaluée de la manière suivante:
a) Si la trace est bien nette, avec des extrémités arrondies, en retrancher des quantités égales
aux demi‑rayons de ses courbures à chaque extrémité; cela reviendra généralement à
réduire d’environ 0,1 heure la longueur totale de la trace;
b) Si la trace est circulaire, en prendre le rayon comme longueur; lorsque plusieurs traces
circulaires apparaissent sur le relevé quotidien, il suffit habituellement de considérer que
deux ou trois brûlures équivalent à 0,1 heure d’insolation, quatre, cinq et six à 0,2 heure, et
ainsi de suite par tranches de 0,1 heure;
c) Si la trace n’est qu’une ligne étroite, ou même une simple décoloration, en prendre toute la
longueur;
d) Si la trace est bien nette, mais que sa largeur se réduit par endroits d’un tiers au moins,
retrancher 0,1 heure par étranglement, sans toutefois que la somme des soustractions
excède la moitié de la longueur totale de la trace.
Pour déterminer les erreurs aléatoires et systématiques commises lors de l’évaluation des
enregistrements et garantir l’objectivité des résultats de la comparaison, il est recommandé de
faire effectuer successivement et indépendamment par au moins deux personnes expérimentées
les évaluations relatives à chaque instrument comparé.
L’héliographe Campbell‑Stokes n’enregistrant qu’une partie de l’insolation durant les mois d’été
aux latitudes supérieures à environ 65°, certains Services nationaux en exploitent des versions
modifiées.
302 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
L’une des solutions possibles consiste à utiliser deux de ces instruments en les installant dos à dos,
l’un de manière normale, l’autre face au nord.
Sous de nombreux climats, il peut se révéler nécessaire de chauffer le système afin d’éviter les
dépôts de givre et de rosée. Des comparaisons effectuées sous des climats comme ceux de
l’Europe septentrionale ont montré que la différence entre les quantités d’insolation enregistrées
respectivement par des instruments chauffés et non chauffés atteignait à peu près 1 % de la
moyenne mensuelle en été et de 5 à 10 % en hiver.
Pour ce type d’héliographe, les erreurs sont principalement dues à l’influence de la température
et de l’humidité sur la bande de papier cartonné ainsi qu’à l’effet de brûlure excessive, en
particulier dans le cas de nuages épars (Ikeda et al., 1986).
Aux latitudes moyennes et élevées, les valeurs relevées le matin sont souvent erronées en raison
du givre ou de la rosée qui se dépose sur l’instrument.
L’héliographe différentiel de Foster est un dispositif opto‑électronique qui a été mis en service
dans le réseau des États‑Unis d’Amérique dès 1953 (Foster et Foskett, 1953). Le système se
compose de deux cellules photoélectriques au sélénium, l’une exposée au rayonnement
solaire direct, l’autre soustraite à ce rayonnement par un élément pare‑soleil. Les cellules sont
connectées de manière qu’aucun signal ne soit engendré en l’absence de tout rayonnement
solaire direct. Lorsque l’éclairement énergétique solaire direct dépasse environ 85 W m–2,
l’héliographe est actionné (Hameed et Pittalwala, 1989). Il n’est besoin d’ajuster la position de
la bande pare‑soleil que quatre fois par an afin de l’adapter aux modifications saisonnières de la
course apparente du soleil dans le ciel.
8.2.5.1 Généralités
La répartition des nuages dans le ciel ou le rayonnement solaire réfléchi par les environs peuvent
avoir une influence sur les mesures, en raison à la fois des différences de procédures pour évaluer
le contraste et des angles d’ouverture relativement grands des cellules des systèmes utilisés.
En règle générale, les cellules photovoltaïques au silicium qui ne sont pas équipées de filtres
présentent une sensibilité maximale dans le proche infrarouge et donnent des résultats qui
varient en fonction du spectre du rayonnement solaire direct.
Comme les angles relativement faibles de l’ouverture en forme de fente rectangulaire de ces
appareils présentent des différences considérables par rapport à ceux des ouvertures circulaires
du pyrhéliomètre de référence, la répartition des nuages autour du soleil peut entraîner des
écarts par rapport aux valeurs de référence.
CHAPITRE 8. MESURE DE LA DURÉE D’INSOLATION 303
Compte tenu des angles d’ouverture relativement faibles de ces appareils, des imperfections
de l’enveloppe de verre peuvent entraîner des incertitudes particulières. Il est possible que la
sensibilité spectrale du capteur contribue aussi aux erreurs associées à la hauteur angulaire du
soleil. Un seul des héliographes disponibles actuellement dans le commerce, utilisant un capteur
pyroélectrique, présente une réponse spectrale satisfaisante.
Les trois conditions fondamentales à respecter pour l’installation des héliographes sont les
suivantes:
a) L’instrument devrait être fixé solidement à un socle rigide. Cela n’est pas nécessaire pour les
capteurs SONI (OMM, 1984b) conçus également pour fonctionner sur des bouées;
b) L’instrument devrait être exposé en un endroit d’où le soleil est visible sans interruption
durant toute sa trajectoire, à partir de 3° au‑dessus de l’horizon, à toutes les époques de
l’année. Cette recommandation accepte des exceptions dans les cas suivants:
ii) Dans les régions montagneuses (dans les vallées notamment), les obstacles naturels
interviennent en tant que facteurs dans le climat local et il y a lieu d’en donner une
description précise dans un document approprié;
Il est fait mention plus haut du réglage de l’axe du capteur. Pour certains de ces capteurs, le
fabricant recommande une certaine inclinaison en fonction de la saison.
La classification de sites pour les stations terrestres d’observation en surface (voir l’annexe 1.B
du chapitre 1 de la partie I du présent guide) donne des indications supplémentaires sur le choix
d’un site et l’emplacement d’un héliographe sur le site considéré aux fins d’une représentativité
optimale.
L’OMM a fourni, sous forme d’écarts par rapport à des valeurs de référence, les incertitudes
associées à la durée d’insolation mesurée par divers types d’instruments et selon diverses
méthodes, et ce pour les conditions météorologiques enregistrées à Hambourg (Allemagne) en
1988‑1989.
Il existe aussi un doute concernant les valeurs de référence en raison de l’incertitude relative au
facteur d’étalonnage du pyrhéliomètre de référence et aux dimensions de l’angle d’ouverture de
cet instrument (influence du halo solaire). Pour des valeurs ponctuelles, il conviendrait aussi de
tenir compte de la constante de temps.
304 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
g) Le manque d’entretien.
8.5 ÉTALONNAGE
Avant d’aborder la description des diverses méthodes d’étalonnage, il semble utile d’énoncer
quelques remarques d’ordre général:
c) Compte tenu des différences techniques entre les divers héliographes et l’instrument de
référence, ainsi que de la variabilité naturelle des conditions de mesure, l’étalonnage doit se
fonder sur des comparaisons de longue durée (quelques mois);
d) L’étalonnage des héliographes nécessite en général que soit adopté un mode opératoire
particulier pour régler les valeurs de seuil (moyens électroniques pour les dispositifs
opto‑électriques, logiciel pour les systèmes pyranométriques);
Il y a lieu de mesurer simultanément les valeurs de référence SDref et les valeurs d’étalonnage
SDcal de l’instrument à étalonner. Il convient d’utiliser comme instrument de référence un
pyrhéliomètre fixé sur une monture de poursuite automatique du soleil et associé à un circuit
à seuil informatisé (voir la section 8.1.4). Il est également possible d’utiliser un héliographe
étalonné régulièrement et dont l’exactitude est connue. Sachant que les exigences quant
à l’exactitude du seuil d’insolation d’un héliographe varient en fonction des conditions
météorologiques rencontrées (voir la section 8.1.3), les résultats des comparaisons doivent être
obtenus par calcul statistique à partir de jeux de données recueillis sur de longues périodes.
CHAPITRE 8. MESURE DE LA DURÉE D’INSOLATION 305
Si l’on applique la méthode à l’ensemble d’un jeu de données recueilli sur une certaine période
(comportant des conditions types de nébulosité), le premier résultat de l’étalonnage calculé est
le rapport: qtot = Σtot SDref /Σtot SDcal.
Lorsque la valeur q est supérieure ou inférieure à 1, il faut régler la tension équivalente au seuil
afin de rétablir q = 1. Comme il n’existe pas de corrélation étroite entre le réglage requis et qtot, il
est nécessaire de poursuivre la comparaison sur plusieurs périodes successives afin de parvenir
par approximation itérative à un seuil idéal qtot = 1. La durée totale d’une comparaison peut être
comprise entre trois et six mois dans les régions d’Europe situées aux latitudes moyennes. Il est
par conséquent opportun de prévoir des installations qui permettent d’étalonner simultanément
plusieurs héliographes d’un réseau. (Il faut signaler que l’emploi de qtot comme facteur de
correction de la somme des valeurs de la durée d’insolation ne donne des résultats fiables que
si les périodes sur lesquelles doit porter l’évaluation se caractérisent par les mêmes conditions
de nébulosité que la période d’étalonnage. Il n’est donc pas recommandé de recourir à cette
méthode.)
En appliquant une régression linéaire au jeu de données ainsi constitué, on obtient une ligne
d’ajustement optimal de laquelle on peut déduire la tension équivalente au seuil de 120 W m–2.
En cas d’écart supérieur à ±20 % entre le résultat de l’étalonnage et la tension certifiée, il convient
d’ajuster le seuil du capteur.
Quant aux capteurs caractérisés par une grande sensibilité spectrale, il y a lieu d’éliminer
les données qui correspondent à une faible hauteur angulaire du soleil, proches du seuil
de 120 W m–2, en raison de leur manque flagrant de linéarité dû à cette sensibilité, à moins
évidemment que la tension équivalente au seuil, au lever et au coucher du soleil, présente un
intérêt particulier. Il faut extrapoler la tension équivalente au seuil à partir de valeurs plus élevées
de l’éclairement énergétique.
La méthode dite du MEIT (mean effective irradiance threshold) est fondée sur la détermination d’un
seuil moyen horaire de l’éclairement énergétique effectif Im.
Dans un premier temps, il faut procéder à une série de mesures par pyrhéliomètre assisté
par ordinateur, pour des seuils fictifs successifs de l’éclairement énergétique I(n) (entre 60 et
306 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
240 W m–2, par exemple) (cela signifie que I(n) = (60 + n) W m–2 avec n = 0, 1, 2, ... 180), afin
d’obtenir une série de valeurs horaires de la durée d’insolation SDref (hk, I(n)). Dans un deuxième
temps, il faut comparer la valeur horaire de la durée d’insolation SD(hk) fournie par le capteur à
SDref (hk, I(n)), pour trouver le n = nk pour lequel SD(hk) = SDref (hk, I(nk)). I(nk) représente la valeur
du MEIT pour l’heure hk: Im(hk) = (60 + nk) W m–2. Dans le cas contraire, il faut obtenir la valeur du
MEIT par interpolation à partir des valeurs adjacentes.
Dans un troisième temps enfin, on ajuste la tension équivalente au seuil si l’écart relatif entre
une valeur moyenne du MEIT Im et le seuil idéal de 120 W m–2 est supérieur à ±20 %. Il y a lieu
de prendre une valeur mensuelle, par exemple, comme valeur moyenne, en raison de la grande
dispersion des écarts des valeurs horaires.
Cette méthode ne peut s’appliquer aux heures marquées par des passages rapides par le seuil;
le taux moyen horaire de variation devrait être inférieur à 5 W m–2 s–1. Enfin, les valeurs du MEIT
ne sont pas représentatives de l’ensemble du jeu de données recueilli au cours de la période
d’étalonnage.
Étant donné qu’il est difficile de simuler en laboratoire la distribution du rayonnement solaire
global et diffus, il n’est possible de recommander qu’un étalonnage provisoire applicable aux
héliographes dont la tension équivalente au seuil est réglable. Il faut pour ce faire disposer du
matériel suivant: une source de rayonnement stabilisée (reproduisant autant que possible le
spectre solaire) ainsi qu’un socle qui recevra l’héliographe à étalonner et permettra de l’ajuster
avec exactitude et qui recevra aussi un héliographe convenablement étalonné sur le terrain,
utilisé comme référence. Les deux instruments devraient être du même modèle.
Le processus consiste à installer tout d’abord avec soin l’instrument de référence dans le faisceau
de la lampe, de façon qu’une sortie analogique indique 120 W m–2 ou que la commutation
habituelle indique ce seuil. On remplace alors l’instrument de référence précisément par celui à
étalonner et dont il faudra ajuster la tension de seuil afin que la commutation se fasse ou encore
pour obtenir l’équivalent de 120 W m–2. Il faudrait ensuite répéter ce processus plusieurs fois pour
s’assurer de la répétabilité des résultats.
8.6 ENTRETIEN
Les programmes d’entretien qui relèvent de la responsabilité des techniciens comprennent les
éléments suivant:
a) Nettoyage: il est nécessaire de nettoyer, chaque jour, les fenêtres d’ouverture de chacun des
instruments, en particulier celles des appareils d’exploration dont l’angle d’ouverture est
faible. Les instruments qui ne sont pas équipés d’une protection contre le givre et la rosée
exigent l’attention d’un technicien à plusieurs reprises certains jours;
d) Réglages: il faut procéder aux réglages recommandés par le fabricant pour les instruments
dont il faut changer l’inclinaison en fonction de la saison; cela peut aussi être le cas après un
orage violent.
CHAPITRE 8. MESURE DE LA DURÉE D’INSOLATION 307
Certaines pièces des instruments et des systèmes d’acquisition des données nécessitent un
entretien particulier, indiqué dans les manuels d’instructions, qui devra être exécuté par des
techniciens qualifiés.
ANNEXE 8.A. ALGORITHME PERMETTANT DE DÉTERMINER LA
DURÉE D’INSOLATION À PARTIR DE MESURES DE L’ÉCLAIREMENT
ÉNERGÉTIQUE GLOBAL DIRECT
L’estimation de la durée d’insolation SD quotidienne est fondée sur la somme des fractions
ƒ d’intervalles de 10 minutes, soit, SD = Σ SD10’, où SD10 = ƒ ≤ 10 min. Dans la pratique, ƒ = 0
(ensoleillement nul, ciel couvert) ou 1 (ensoleillement uniquement, ciel clair), mais une attention
particulière est accordée au cas 0 < ƒ < 1 (ensoleillement partiel, nébulosité partielle). Étant
donné que la corrélation entre la durée d’insolation et l’exposition énergétique globale, mesurée
sur une surface horizontale, varie suivant la hauteur angulaire du soleil (h), une différence est
établie tout d’abord en fonction de sin (h).
Équations utilisées:
G 0 = I0 sin (h), I0 = 1 367 W m–2 (pour l’éclairement énergétique extraterrestre)
I = I0 exp (–T L/(0,9 + 9,4 sin (h))), I0 = 1 367 W m–2
c = (G – D)/(I sin (h)), où
T L = 4 et
D = 1,2 Gmin si (1,2 Gmin < 0,4) ou alors
D = 0,4
Hauteur sin (h)<0,1, 0,1 ≤ sin (h) ≤ 0,3, sin (h) ≥ 0,3, h ≥ 17,5º
angulaire h < 5,7º 5,7º ≤ h ≤ 17,5º
du Soleil
Autres Aucun autre G/G0 ≤ {0,2 + sin (h)/3 Gmax/G0 < 0,4?
critères critère de + exp (–TL/(0,9 + 9,4 Si «oui» Si «non»
décision sin (h)))}
avec TL = 6? Gmin/G0 > {0,3 + exp (–TL/(0,9 + 9,4 sin (h)))}
avec TL = 10?
Si «oui» Si «non» Si «oui» Si «non»
Gmax/G0 > {0,3 + exp (–TL/(0,9 +
9,4 sin (h)))} et Gmax – Gmin < 0,1 G0
avec TL = 10?
Si «oui» Si «non»
c<0 0≤c≤1 c>1
Résultat ƒ=0 ƒ=0 ƒ=1 ƒ=0 ƒ=1 ƒ=1 ƒ=0 ƒ=c ƒ=1
ANNEXE 8.B. ALGORITHME PERMETTANT DE DÉTERMINER LA
DURÉE D’INSOLATION À PARTIR DE MESURES DE L’ÉCLAIREMENT
ÉNERGÉTIQUE GLOBAL SUR 1 MINUTE
Cette méthode, mise au point au Centre radiométrique régional de l’OMM établi à Carpentras
(France) et décrite par J. Oliviéri (OMM, 1998), consiste en un algorithme qui calcule la durée
d’insolation chaque minute par la mesure de la valeur moyenne de l’éclairement énergétique
global (G) sur 1 minute comparée à une valeur seuil (Gthr) paramétrée par deux coefficients (A et
B) et la hauteur angulaire du soleil h (plus précisément sin (h)).
Équations utilisées:
Gthr = Fc x Mod
Mod = 1 080 (sin (h))1,25
Fc = A +B cos (2πd/365)
où Mod représente l’éclairement énergétique global obtenu à l’aide d’un modèle de prévision
quotidienne sans nuages (ciel dégagé et valeur moyenne du trouble atmosphérique); Fc
représente un facteur dont la valeur empirique est proche de 0,7 et d est le numéro du jour de la
séquence annuelle.
Le facteur Fc, dont la valeur est généralement comprise entre 0,5 et 0,8, est fonction des
conditions climatiques de l’emplacement considéré; quant aux coefficients A et B, ils peuvent
être calculés de façon empirique par une comparaison à long terme des mesures de la durée
d’insolation et de celles effectuées au moyen d’un pyrhéliomètre (Morel et al., 2012). Il se peut
aussi que la présence à proximité ou, encore mieux, au même endroit d’instruments servant à
mesurer le trouble atmosphérique permette de déterminer plus précisément le facteur Fc. On
a en outre observé une certaine variabilité des coefficients A et B en fonction de la latitude (B
tend vers des valeurs négatives dans l’hémisphère Sud, alors que la valeur de A diminue avec la
latitude).
L’algorithme, qui est appliqué chaque minute, peut être exprimé comme suit:
Hauteur h < 3° h ≥ 3°
angulaire du
soleil
Critère Aucune G ≥ Gthr?
décision Si «oui» Si «non»
Résultat SD = 0 min SD = 1 min SD = 0 min
La hauteur angulaire du soleil doit être calculée chaque minute en même temps que l’angle
horaire, l’ascension droite et la déclinaison géocentrique du soleil, selon les formules
astronomiques indiquées dans l’annexe 7.D du chapitre 7 de la partie I.
Le filtrage des données (h ≥ 3°) a lieu avant l’exécution du test principal et permet d’éliminer
les erreurs dues aux imperfections du modèle, à la hauteur angulaire du soleil (faibles hauteurs)
et à la réfraction atmosphérique. Une tolérance de 3° au‑dessus de l’horizon est admise pour
peu que les détecteurs utilisés pour déterminer la durée d’insolation soient exposés de façon
ininterrompue au soleil tout au long de l’année. Les erreurs dues au filtrage des données
en fonction de h donnent lieu à une légère sous‑estimation qui, du fait de son caractère
310 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
systématique, peut être corrigée après une longue période de mesures. Il a été procédé à une
comparaison de cette méthode avec d’autres méthodes et avec des données de référence
concernant la durée d’insolation (OMM, 2012).
RÉFÉRENCES ET AUTRES LECTURES
Angell, J.K., 1990: Variation in United States cloudiness and sunshine duration between 1950 and the
drought year of 1988. Journal of Climate, 3: 296–308.
Baumgartner, T., 1979: Die Schwellenintensität des Sonnenscheinautographen Campbell‑Stokes an
wolkenlosen Tagen. Arbeitsberichte der Schweizerischen Meteorologischen Zentralanstalt, No. 84,
Zurich.
Bider, M., 1958: Über die Genauigkeit der Registrierungen des Sonnenscheinautographen
Campbell‑Stokes. Archiv für Meteorologie, Geophysik und Bioklimatologie, Serie B, 9(2): 199–230.
Coulson, K.L., 1975: Solar and Terrestrial Radiation. Methods and Measurements. Academic Press, New York,
p. 215–233.
Dyson, P., 2003: Investigation of the Uncertainty of Sunshine Duration in the Solar and Terrestrial Radiation
Network. Instrument Test Report 674, Commonwealth Bureau of Meteorology.
Foster, N.B. et L.W. Foskett, 1953: A photoelectric sunshine recorder. Bulletin of the American Meteorological
Society, 34: 212–215.
Golchert, H.J., 1981: Mittlere Monatliche Global‑strahlungsverteilungen in der Bundesrepublik
Deutschland. Meteorologische Rundschau, 34: 143–151.
Hameed, S. et I. Pittalwala, 1989: An investigation of the instrumental effects on the historical sunshine
record of the United States. Journal of Climate, 2: 101–104.
Hinssen, Y.B.L. et W.H. Knap, 2007: Comparison of pyranometric and pyrheliometric methods for the
determination of sunshine duration. Journal of Atmospheric and Oceanic Technology,
24(5): 835–846.
Ikeda, K., T. Aoshima et Y. Miyake, 1986: Development of a new sunshine‑duration meter. Journal of the
Meteorological Society of Japan, 64(6): 987–993.
Jaenicke, R. et F. Kasten, 1978: Estimation of atmospheric turbidity from the burned traces of the
Campbell‑Stokes sunshine recorder. Applied Optics, 17: 2617–2621.
Morel, J.‑P., E. Vuerich, J. Oliviéri et S. Mevel, 2012: Sunshine duration measurements using the Carpentras
method. Baseline Surface Radiation Network meeting, Potsdam, Allemagne, 1er–3 août 2012.
Organisation météorologique mondiale, 1962: Rapport final abrégé de la troisième session de la Commission des
instruments et des méthodes d’observation (OMM‑N° 116, RP.48), Genève.
———, 1982: Rapport final abrégé de la huitième session de la Commission des instruments et des méthodes
d’observation (OMM‑N° 590), Genève.
———, 1984a: Diffuse solar radiation measured by the shade ring method improved by a new correction
formula (K. Dehne). Papers Presented at the WMO Technical Conference on Instruments and
Cost‑effective Meteorological Observations (TECEMO). Instruments and Observing Methods
Report No. 15, Genève.
———, 1984b: A new sunshine duration sensor (P. Lindner). Papers Presented at the WMO Technical Conference
on Instruments and Cost‑effective Meteorological Observations (TECEMO). Instruments and
Observing Methods Report No. 15, Genève.
———, 1985: Dependence on threshold solar irradiance of measured sunshine duration (K. Dehne). Papers
Presented at the Third WMO Technical Conference on Instruments and Methods of Observation
(TECIMO‑III). Instruments and Observing Methods Report No. 22 (WMO/TD‑No. 50), Genève.
———, 1986: Radiation and Sunshine Duration Measurements: Comparison of Pyranometers and Electronic
Sunshine Duration Recorders of RA VI (G. Major). Instruments and Observing Methods
Report No. 16 (WMO/TD‑No. 146), Genève.
———, 1990: Rapport final abrégé de la dixième session de la Commission des instruments et des méthodes
d’observation (OMM‑N° 727), Genève.
———, 1998: Sunshine duration measurement using a pyranometer (J.C. Oliviéri). Papers Presented at the
WMO Technical Conference on Meteorological and Environmental Instruments and Methods of
Observation (TECO‑98). Instruments and Observing Methods Report No. 70
(WMO/TD‑No. 877), Genève.
———, 2010: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2012: Updating and development of methods for worldwide accurate measurements of sunshine
duration (E. Vuerich, J.P. Morel, S. Mevel et J. Oliviéri). Paper presented at the WMO Technical
Conference on Meteorological and Environmental Instruments and Methods of Observation
(TECO‑2012). Instruments and Observing Methods Report No. 109, Genève
Painter, H.E., 1981: The performance of a Campbell‑Stokes sunshine recorder compared with a
simultaneous record of normal incidence irradiance. The Meteorological Magazine, 110: 102–109.
312 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Slob, W.H. et W.A.A. Monna, 1991: Bepaling van een directe en diffuse straling en van zonneschijnduur uit
10‑minuutwaarden van de globale straling. KNMI TR136, De Bilt.
Sonntag, D. et K. Behrens, 1992: Ermittlung der Sonnenscheindauer aus pyranometrisch gemessenen
Bestrahlungsstärken der Global‑und Himmelsstrahlung. Berichte des Deutschen Wetterdienstes,
No. 181.
Stanghellini, C., 1981: A simple method for evaluating sunshine duration by cloudiness observations.
Journal of Applied Meteorology, 20: 320–323.
TABLE DES MATIÈRES DU CHAPITRE
Page
9.1 GÉNÉRALITÉS
9.1.1 Définitions
La visibilité a été définie pour la première fois, pour les besoins de la météorologie, comme
une quantité devant être estimée par un observateur humain, et c’est ainsi que sont réalisées la
majorité des observations. Toutefois, l’estimation de la visibilité est influencée par de nombreux
éléments subjectifs et physiques. La quantité météorologique fondamentale, à savoir la
transparence de l’atmosphère, peut être mesurée de manière objective et être représentée par la
portée optique météorologique (POM).
La portée optique météorologique est la longueur du trajet que doit effectuer dans l’atmosphère
un faisceau de rayons lumineux parallèles, émanant d’une lampe à incandescence, à une
température de couleur de 2 700 K, pour que l’intensité du flux lumineux soit réduite à 0,05 fois
sa valeur originale, le flux lumineux étant évalué au moyen de la fonction de luminosité
photométrique de la Commission internationale de l’éclairage (CIE).
Portée visuelle (en météorologie): distance à laquelle le contraste entre un objet donné et son
arrière‑plan atteint la valeur du seuil de contraste propre à l’observateur (OMM, 1992a).
La lumière de l’air est la lumière du soleil et du ciel diffusée vers les yeux d’un observateur par les
particules en suspension dans l’air (et, dans une faible mesure, par les molécules d’air) situées
dans le cône de vision de l’observateur. En fait, la lumière de l’air atteint l’œil de la même manière
que le rayonnement diffus du ciel atteint la surface de la Terre. La lumière de l’air est le facteur
fondamental limitant la visibilité horizontale diurne pour les objets noirs car ses effets opérant
dans le cône de vision entre l’homme et l’objet, portent la luminance apparente d’un objet noir
suffisamment éloigné à un niveau qui ne peut être distingué de celui du ciel de fond. La plus
grande partie de la lumière de l’air pénétrant dans l’œil de l’observateur provient des zones de
son cône de vision assez proches de lui.
Les quatre qualités photométriques ci‑après sont définies en détails dans plusieurs normes, telles
celles établies par la Commission électrotechnique internationale (CEI, 1987):
a) Le flux lumineux (symbole: F (ou Φ); unité: lumen, lm) est une grandeur dérivée d’un flux
énergétique en évaluant le rayonnement en fonction de son action sur l’observateur
photométrique standard de la CIE;
b) L’intensité lumineuse (symbole: I; unité: candela, cd ou lm sr–1) est le flux lumineux par unité
d’angle solide;
c) La luminance (symbole: L; unité: cd m–2) est l’intensité lumineuse par unité d’aire;
1
Afin d’éviter toute confusion, il convient de ne pas définir la visibilité de nuit comme «la plus grande distance à
laquelle des sources lumineuses d’intensité modérée connue, se détachant d’un arrière‑plan non éclairé, peuvent
être vues et identifiées» (voir le Rapport final abrégé de la onzième session de la Commission des instruments et des
méthodes d’observation (OMM‑N° 807)). Si la visibilité doit être évaluée à partir de sources lumineuses, il est
recommandé de définir la portée visuelle en indiquant précisément l’intensité lumineuse et son application, comme
par exemple, la portée visuelle de piste. La Commission des instruments et des méthodes d’observation a toutefois
estimé que de nouvelles recherches seraient nécessaires pour résoudre les problèmes pratiques d’application de
cette définition.
CHAPITRE 9. MESURE DE LA VISIBILITÉ 315
d) L’éclairement (lumineux) (symbole: E; unité: lux ou lm m–2) est le flux lumineux par unité
d’aire.
Le coefficient d’extinction (symbole σ) est la proportion de flux lumineux qu’un faisceau de rayons
lumineux parallèles, émanant d’une source incandescente, à une température de couleur de
2 700 K, perd en parcourant dans l’atmosphère une longueur égale à l’unité de distance. Ce
coefficient mesure l’atténuation due à la fois à l’absorption et à la diffusion.
Le contraste de luminance (symbole C) est le rapport de la différence entre la luminance d’un objet
et celle de son arrière‑plan à la luminance de cet arrière‑plan.
Le seuil de contraste (symbole ε) est la valeur minimale du contraste de luminance que peut
détecter l’œil humain; c’est‑à‑dire la valeur qui permet de distinguer un objet du fond sur lequel
il se détache. Le seuil de contraste varie selon l’observateur.
Le seuil d’éclairement (Et), est la valeur minimale d’éclairement de l’œil humain pour la détection
de sources ponctuelles de lumière sur un arrière‑plan de luminance donné. La valeur de Et varie
donc en fonction des conditions.
Le facteur de transmission (symbole T) est défini, pour un faisceau de rayons lumineux parallèles,
émanant d’une source incandescente, à une température de couleur de 2 700 K, comme
la fraction de flux lumineux qui subsiste dans le faisceau à l’issue d’une trajectoire optique
de longueur donnée dans l’atmosphère. Le facteur de transmission est également appelé
«coefficient de transmission». On utilise aussi les termes «transmittance» ou «pouvoir transmissif
de l’atmosphère» lorsque le trajet est défini, c’est‑à‑dire de longueur bien déterminée (par
exemple dans le cas d’un transmissomètre). Dans ce cas, T est souvent multiplié par 100 et
exprimé en pourcentage.
Un aérodrome est une surface définie sur terre ou sur l’eau (comprenant, éventuellement,
bâtiments, installations et matériel), destinée à être utilisée, en totalité ou en partie, pour
l’arrivée, le départ et les évolutions des aéronefs à la surface (OACI, 2013).
Les erreurs dans les mesures de la visibilité augmentent proportionnellement avec la visibilité et
les échelles de mesure tiennent compte de cet élément. Ce fait est reflété dans le code utilisé pour
les comptes rendus synoptiques à travers l’utilisation de trois segments linéaires d’une résolution
décroissante, c’est‑à‑dire de 100 à 5 000 m par pas de 100 m, de 6 à 30 km par pas de 1 km et
de 35 à 70 km par pas de 5 km. Cette échelle permet de rendre compte de la visibilité avec une
résolution supérieure à l’exactitude de la mesure, excepté lorsque la visibilité est inférieure à
1 000 m environ.
Le concept de visibilité est largement utilisé en météorologie sous deux aspects différents. La
visibilité est d’abord l’un des éléments qui identifient les caractéristiques d’une masse d’air,
spécialement aux fins de la météorologie synoptique et de la climatologie. Elle doit être pour
316 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
L’une des applications spéciales essentielles est celle des services météorologiques pour l’aviation
(voir le chapitre 2 de la partie II).
La mesure de la visibilité utilisée en météorologie devrait être libre de l’influence des conditions
extra météorologiques et être simplement reliée à des concepts intuitifs de visibilité et à la
distance à laquelle les objets courants peuvent être vus dans des conditions normales. La POM
a été définie afin de répondre à ces besoins, en s’adaptant aux méthodes instrumentales de
mesure de jour et de nuit et en tenant dûment compte des relations avec d’autres mesures de
la visibilité. La POM a été officiellement adoptée par l’OMM comme la mesure de la visibilité à
usage général et aéronautique (OMM, 2014). Elle est également reconnue par la Commission
électrotechnique internationale (CEI, 1987) pour les applications en optique atmosphérique et
pour la signalisation visuelle.
La POM est liée au concept intuitif de visibilité au travers du seuil de contraste. En 1924,
Koschmieder, suivi par Helmholtz, proposa une valeur de 0,02 pour ε. D’autres auteurs
ont proposé d’autres valeurs. Elles varient de 0,007 7 à 0,06 voire 0,2. Dans des conditions
atmosphériques données, la valeur la plus faible donne une estimation plus forte de la visibilité.
Pour les besoins de l’aéronautique, il est admis que ε est supérieur à 0,02, et on prend une
valeur de 0,05 étant donné que, pour un pilote, le contraste d’un objet (marques de piste) par
rapport au terrain avoisinant est très inférieur à celui d’un objet contre l’horizon. On suppose
que lorsqu’un observateur peut juste voir et reconnaître un objet noir sur l’horizon, le contraste
apparent de l’objet est de 0,05 et, comme cela est expliqué ci‑après, cela conduit à adopter 0,05
comme facteur de transmission dans la définition de la POM.
Les exigences d’exactitude sont abordées dans le chapitre 1 de la partie I du présent guide.
Toutefois, on utilise des instruments fixes en partant de l’hypothèse selon laquelle le coefficient
d’extinction est indépendant de la distance. Certains instruments mesurent directement
l’atténuation et d’autres mesurent la diffusion de la lumière pour déduire le coefficient
d’extinction. Ces instruments sont décrits dans la section 9.3. La brève analyse de la physique
de la visibilité présentée dans ce chapitre peut être utile pour comprendre les relations entre les
différentes mesures du coefficient d’extinction et pour étudier les instruments utilisés pour le
mesurer.
Les conditions de perception visuelle sont basées sur les mesures de l’efficacité photopique de
l’œil humain en fonction des diverses radiations monochromatiques du spectre lumineux visible.
Suivant les conditions diurnes ou nocturnes, on parlera de vision photopique ou scotopique.
Dans le cas de la vision photopique (vision au niveau de la fovéa), l’efficacité lumineuse relative
de l’œil varie en fonction de la longueur d’onde de la lumière incidente. L’efficacité lumineuse de
l’œil en vision photopique est maximale pour la longueur d’onde de 555 nanomètres. On peut
établir la courbe de réponse de l’efficacité relative de l’œil pour les différentes longueurs d’onde
du spectre visible, en prenant comme référence la valeur de cette efficacité pour la longueur
d’onde de 555 nanomètres. On obtient la courbe de la figure 9.1 ci‑après, adoptée par la CIE pour
un observateur normal moyen.
1
V2
Efficacité lumineuse relative
0,8
0,6
0,4
0,2
Figure 9.1. Efficacité lumineuse relative des diverses radiations monochromatiques pour l’œil
moyen. Les traits pleins représentent la vision diurne;
les traits interrompus, la vision nocturne.
318 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Dans le cas de la vision nocturne, la vision est dite scotopique (vision faisant intervenir les
bâtonnets de la rétine à la place de la fovéa). Les bâtonnets, partie périphérique de la rétine,
n’ont aucune sensibilité à la couleur et n’ont pas une bonne résolution, mais ils sont surtout
sensibles aux faibles intensités lumineuses. En vision scotopique, l’efficacité lumineuse maximale
correspond à la longueur d’onde de 507 nanomètres.
La vision scotopique demande une longue adaptation pouvant atteindre 30 minutes, alors que la
vision photopique ne demande que deux minutes.
Principales équations
Les principales équations applicables aux mesures de la visibilité sont définies par la loi de
Bouguer‑Lambert:
F = F0 � e −σ x (9.1)
où F est le flux lumineux reçu après un trajet x dans l’atmosphère et F0 le flux pour x = 0. En
différenciant cette formule, on obtient:
−dF 1
σ= ⋅ (9.2)
F dx
Remarquons que cette loi n’est valable que pour une lumière monochromatique, cependant elle
peut être appliquée avec une bonne approximation à un flux spectral. Le facteur de transmission
T est donné par:
T = F F0 (9.3)
Des relations mathématiques entre la POM et les diverses variables représentant l’état optique
de l’atmosphère peuvent être déduites de la loi de Bouguer‑Lambert. Bien que la relation entre
le facteur de transmission et la POM soit valable dans le cas de gouttelettes d’eau de brouillard,
lorsque la visibilité est réduite par d’autres hydrométéores tels que la pluie ou la neige ou par des
lithométéores (chasse‑sable par exemple), les valeurs de la POM devraient être traitées avec plus
de prudence.
C’est ainsi qu’à partir des équations 9.1 et 9.3 on peut écrire:
T = F / F0 = e −σ x (9.4)
T = 0, 05 = e −σ P (9.5)
Cette formule sert de base aux mesures de la portée optique météorologique à l’aide de
transmissomètres [voir l’équation 9.14 où x est, dans ce cas, égal à la base de mesure a du
transmissomètre].
CHAPITRE 9. MESURE DE LA VISIBILITÉ 319
La luminance du ciel à l’horizon vient de la lumière de l’air diffusée par l’atmosphère le long de la
ligne de mire de l’observateur.
Remarquons que si l’objet est plus sombre que l’horizon, C est négatif, et si l’objet est noir
(Lb = 0), C = –1.
En 1924, Koschmieder établit une relation (qui devint plus tard la Loi de Koschmieder) entre le
contraste apparent (Cx) d’un objet vu sur l’horizon par un observateur éloigné, et son contraste
inhérent (C 0), c’est‑à‑dire le contraste qui serait celui de cet objet par rapport à l’horizon s’il était
vu à très courte distance. La relation de Koschmieder peut s’écrire sous la forme:
C x = C0 � e −σ x (9.9)
Cette relation est valable à condition que le coefficient de diffusion soit indépendant de l’angle
azimutal et que l’éclairement soit uniforme sur tout le trajet séparant l’observateur de l’objet et de
l’horizon.
Lorsqu’un objet noir est vu sur l’horizon (C 0 = –1) et que le contraste apparent est de –0,05,
l’équation 9.9 est alors réduite à:
0, 05 = e −σ x (9.10)
Une comparaison de ce résultat avec l’équation 9.5 montre que lorsque la grandeur du contraste
apparent d’un objet noir, vu sur l’horizon, est de 0,05, cet objet est alors à la portée optique
météorologique (P).
La distance à laquelle une lumière (repère de visibilité nocturne) peut être vue la nuit n’est pas
uniquement liée à la POM. Elle dépend non seulement de la POM et de l’intensité de la lumière
mais aussi de l’éclairement de l’œil de l’observateur par d’autres sources de lumière.
En 1876, Allard proposa la loi d’atténuation d’une source lumineuse ponctuelle d’intensité
connue (I) comme fonction de la distance (x) et du coefficient d’extinction (σ). L’éclairement (E)
de cette source est donné par:
E = I ⋅ x −2 ⋅ e −σ x (9.11)
Lorsque la source lumineuse est juste visible, E = Et, on peut alors écrire:
{ ( E ⋅ x )}
σ = (1 x ) ⋅ ln I t
2
(9.12)
( ( E ⋅ x ))
P = x ⋅ ln (1 0, 05) ln I t
2
(9.13)
Cette relation entre la POM et la distance à laquelle les lumières peuvent être vues est présentée
dans la section 9.2.3. L’application de cette équation aux observations visuelles est décrite à la
section 9.2.
320 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
9.2.1 Généralités
Dans chaque station, il convient de dresser un plan des repères utilisés pour les observations,
en indiquant la distance et l’orientation de chaque repère par rapport à l’observateur. Ce plan
devrait inclure des repères convenant pour les observations diurnes et des repères convenant
pour les observations nocturnes. L’observateur devra également accorder une attention
particulière aux variations significatives de la POM en fonction de la direction.
Les observations devraient être effectuées par des observateurs possédant une vision «normale»
et convenablement formés. Elles devraient normalement être faites sans l’aide d’appareils
optiques (jumelles, télescopes, théodolites, etc.) et, de préférence, pas à travers une vitre,
particulièrement la nuit. L’œil de l’observateur devrait se trouver à une hauteur normale
au‑dessus du sol (environ 1,5 m); les mesures de visibilité ne devraient donc pas être effectuées
depuis les étages supérieurs des tours de contrôle ou de tout autre bâtiment élevé. Ceci est
d’autant plus important lorsque la visibilité est faible.
Lorsque la visibilité varie selon les directions, la valeur enregistrée ou relevée peut dépendre de
l’usage auquel est destiné le relevé. Dans les messages synoptiques, la valeur à indiquer est la
valeur la plus faible mais pour les comptes rendus destinés à l’aviation, il convient de suivre les
directives données dans la publication de l’OMM (2014).
Pour les observations diurnes, des estimations visuelles de la visibilité donnent une bonne
approximation de la valeur réelle de la portée optique météorologique.
On devrait choisir comme repères pour les observations diurnes des objets situés à un aussi
grand nombre de distances différentes que possible, à condition qu’ils soient noirs ou presque
noirs et se détachent sur le ciel au‑dessus de l’horizon. On éliminera donc, autant que faire se
peut, les objets de couleur claire ou proches d’un arrière‑plan terrestre. Ceci est particulièrement
important lorsque le soleil illumine l’objet puisque, si l’albédo de celui‑ci ne dépasse pas
0,25 environ, l’erreur risque d’être alors très supérieure à 3 %, tandis qu’elle ne dépassera pas ce
seuil par temps couvert. Une maison blanche constitue par conséquent un mauvais repère alors
qu’un bouquet d’arbres en est un bon, sauf quand il est brillamment éclairé par le soleil. Si l’on
est obligé de prendre comme repère un objet se profilant sur un arrière‑plan terrestre, la distance
entre l’objet et l’arrière‑plan devrait être au moins égale à la moitié de celle qui sépare l’objet du
point d’observation. Un arbre situé à la lisière d’un bois, par exemple, ne serait pas un repère
satisfaisant pour l’observation de la visibilité.
Pour être représentatives, les observations devraient être faites d’après des repères dont la
dimension angulaire n’est pas inférieure à 0,5° pour l’œil de l’observateur, car un repère qui
sous‑tend un angle inférieur devient invisible à une certaine distance, alors que des repères plus
grands demeurent toujours visibles dans les mêmes conditions (un trou de 7,5 mm de diamètre
percé dans un carton tenu à bout de bras sous‑tend approximativement cet angle; un repère de
visibilité vu par ce trou devrait donc le remplir complètement). D’autre part, un repère ne devrait
pas sous‑tendre un angle de plus de 5°.
Des méthodes pouvant servir à estimer la portée optique météorologique de nuit à partir
d’observations visuelles de la distance de perception de sources lumineuses sont décrites
ci‑après.
CHAPITRE 9. MESURE DE LA VISIBILITÉ 321
Toutes les sources lumineuses peuvent servir de repère de visibilité, à condition que leur intensité
dans la direction de l’observation soit bien définie et connue. En général, il est cependant
souhaitable d’utiliser des sources pouvant être considérées comme ponctuelles et dont l’intensité
lumineuse ne soit pas plus forte dans une direction que dans une autre et ne soit pas contenue
dans un angle solide trop restreint. La stabilité mécanique (fixation) et la stabilité optique de la
source lumineuse doivent être soigneusement contrôlées.
Il conviendrait de distinguer les sources dites isolées, au voisinage desquelles il n’existe aucune
autre source ou plage lumineuse, des sources groupées, même lorsque celles‑ci sont distinctes
les unes des autres. Cette dernière disposition pouvant affecter la visibilité de chaque source
considérée séparément, seule l’utilisation de sources isolées et convenablement réparties est
recommandable pour les mesures de visibilité de nuit.
Il y a lieu de noter que l’observation des repères lumineux de nuit peut être affectée sensiblement
par l’ambiance lumineuse, par les effets physiologiques de l’éblouissement et par les lumières
parasites, même situées hors du champ visuel, surtout lorsque l’observation est faite à travers
une vitre. Ainsi, une observation précise et fiable ne peut être effectuée qu’à partir d’un endroit
sombre, convenablement choisi et situé à l’extérieur de tout local.
D’autre part, l’importance des facteurs physiologiques ne peut pas être négligée, étant donné
qu’ils constituent une source importante de dispersion des mesures. Il est essentiel de ne faire
appel qu’à des observateurs qualifiés, dotés d’une vue normale. Il est également nécessaire de
prévoir une période d’accommodation (de 5 à 15 minutes en général) pour permettre à l’œil de
s’adapter à l’obscurité.
Dans la pratique, la relation existant entre la distance de perception d’une source lumineuse de
nuit et la valeur de la POM peut s’exprimer de deux façons différentes:
Cette seconde façon de procéder est la plus aisée et la plus pratique, car il ne serait pas évident
d’installer à différentes distances des sources lumineuses d’intensité variable. Cette méthode
consiste donc à utiliser des sources lumineuses existantes ou installées aux alentours de la station
et à remplacer dans l’équation 9.13, I, x et Et par les valeurs correspondant aux sources lumineuses
disponibles. Les Services météorologiques peuvent donc dresser des tableaux donnant les
valeurs de la POM en fonction de la luminance de fond et des sources lumineuses d’intensité
connue. Les valeurs à attribuer au seuil d’éclairement Et varient considérablement en fonction
de la luminance ambiante. Il conviendrait d’utiliser les valeurs suivantes, considérées comme des
valeurs moyennes pour les observateurs:
a) 10 –6,0 lux au crépuscule et à l’aube ou lorsque des sources artificielles fournissent une
lumière appréciable;
b) 10 –6,7 lux par clair de lune ou lorsque l’obscurité n’est pas encore complète;
c) 10 –7,5 lux dans l’obscurité complète ou lorsqu’il n’y a pas d’autre lumière que celle des
étoiles.
Les tableaux 9.1 et 9.2 ci‑dessous donnent la correspondance entre la portée optique
météorologique et la distance de perception des sources lumineuses pour chacune des méthodes
mentionnées ci‑dessus et pour différentes conditions d’observation. Ils ont été établis dans le
dessein d’aider les Services météorologiques à choisir où installer les sources lumineuses qui
serviront aux observations de visibilité de nuit et à rédiger à l’intention des observateurs des
instructions sur le calcul des valeurs de la portée optique météorologique.
322 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Tableau 9.1. Relation entre la POM et l’intensité d’une source lumineuse ponctuelle
juste visible pour trois valeurs de Et
500 5 1 0,16
1 000 20 4 0,63
2 000 80 16 2,5
Tableau 9.2. Relation entre la POM et la distance à laquelle une source lumineuse ponctuelle
de 100 candelas est juste visible, pour trois valeurs de Et
Une ampoule à incandescence ordinaire d’une puissance de 100 watts constitue une source
lumineuse d’environ 100 cd.
Étant donné les différences considérables qu’entraînent soit des variations relativement faibles
des valeurs du seuil d’éclairement visuel, soit des conditions différentes d’éclairement général,
il est clair que le but du tableau 9.2 ci‑dessus n’est pas de donner un critère absolu de visibilité,
mais de souligner la nécessité d’étalonner les sources lumineuses utilisées pour l’estimation de
la POM la nuit et de rendre comparables, dans la mesure du possible, les observations de nuit
effectuées en des endroits différents et par des Services différents.
CHAPITRE 9. MESURE DE LA VISIBILITÉ 323
Dans certains endroits (plaine, navire, etc.), lorsque l’horizon est restreint (vallée ou cirque) ou
encore en l’absence de points de repère appropriés, il est impossible de faire des observations,
sauf pour de faibles valeurs de visibilité. Pour de tels cas, à moins de pouvoir procéder à des
mesures instrumentales, on est obligé d’estimer les valeurs de la POM supérieures à celles pour
lesquelles on dispose de repères, à partir de la transparence générale de l’atmosphère. On peut
le faire en notant la netteté avec laquelle se détachent les points de repère les plus éloignés.
Des contours nets et du relief, avec peu ou pas de flou dans les couleurs, indiquent que la POM
est supérieure à la distance entre le point de repère et l’observateur. En revanche, des points
de repère flous ou indistincts indiquent la présence de brume ou d’autres phénomènes qui
réduisent la POM.
Généralités
L’observation des repères devrait être effectuée par des observateurs convenablement entraînés
et possédant une vision dite normale. Ce facteur humain joue un rôle considérable dans
l’estimation de la visibilité; en effet, dans les mêmes conditions atmosphériques, la capacité de
perception et d’interprétation visuelle peut varier d’une personne à une autre.
Les observations montrent que les estimations de la POM fondées sur les mesures instrumentales
concordent raisonnablement avec les estimations diurnes de la visibilité. La visibilité et la POM
devraient être égales lorsque le seuil de contraste de l’observateur est de 0,05 (selon le critère de
reconnaissance) et que le coefficient d’extinction est le même au voisinage de l’instrument et de
l’observateur.
Middleton (1952) a relevé, en se fondant sur 1 000 mesures, que le seuil moyen du rapport de
contraste pour un groupe de 10 jeunes aviateurs formés comme observateurs météorologiques
était de 0,033 avec une fourchette allant, pour les observations individuelles, de moins de 0,01
à plus de 0,2. Sheppard (1983) signale que lorsque l’on trace les données de Middleton sur une
échelle logarithmique, elles correspondent relativement bien avec une distribution gaussienne.
Si les données de Middleton représentent des conditions d’observation normales, on peut
s’attendre à ce que les estimations diurnes de la visibilité soient en moyenne de 14 % supérieures
à la POM, avec un écart type égal à 20 %. Ces calculs correspondent tout à fait aux résultats de la
première comparaison OMM des mesures de la visibilité (OMM, 1990) qui a montré que, durant
la journée, les estimations de la visibilité faites par les observateurs étaient supérieures d’environ
15 % aux mesures de POM effectuées à l’aide d’instruments. L’amplitude interquartile des
différences entre les résultats donnés par l’observateur et par les instruments est d’environ 30 %.
Ceci correspond à un écart type d’environ 22 % avec une distribution gaussienne.
À l’aide du tableau 9.2 de la section 9.2.3, on voit aisément combien les valeurs de la portée
optique météorologique peuvent être trompeuses si elles sont basées seulement sur la distance
à laquelle sont visibles des sources lumineuses ordinaires et si l’on ne tient pas compte de
leur intensité ni des conditions d’observation. Ceci souligne combien il importe de donner
aux observateurs des instructions précises et explicites et de leur dispenser une formation à
l’observation de la visibilité.
En pratique, il faut remarquer que le recours aux méthodes et aux tableaux décrits ci‑dessus pour
établir des plans de repères lumineux n’est pas toujours aisé. Les sources lumineuses servant
de repère ne sont pas forcément bien disposées, d’intensité stable et connue, et ponctuelles.
324 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
En ce qui concerne ce dernier point, on peut trouver des lampes à faisceau large ou étroit
ou des lampes groupées, ou enfin des lampes de couleurs différentes, pour lesquelles l’œil a
une sensibilité différente. En présence de telles lampes, il convient de faire preuve de grandes
précautions.
L’estimation de la portée visuelle des sources lumineuses ne peut fournir des estimations fiables
de la visibilité de nuit que si les sources lumineuses et le fond sur lequel elles se détachent sont
choisis avec soin, les conditions d’observation dûment contrôlées et un temps considérable
consacré à l’observation afin que les yeux de l’observateur soient pleinement accommodés
aux conditions d’observation. Les résultats de la première comparaison OMM des mesures de
la visibilité (OMM, 1990) ont montré que pendant les heures d’obscurité les estimations de la
visibilité données par les observateurs étaient supérieures d’environ 30 % aux mesures de la POM
effectuées à l’aide d’instruments. L’amplitude interquartile des différences entre les résultats
donnés par l’observateur et par les instruments n’est que légèrement supérieure à celle observée
pour la journée (environ 35 à 40 % de la POM mesurée).
9.3.1 Généralités
En posant certaines hypothèses, on peut convertir les mesures faites avec des instruments
en valeurs de la POM. Il n’y a donc pas toujours avantage à employer un instrument pour les
mesures de jour si une série convenable de points de repère peut servir pour l’observation
directe. Toutefois, un instrument de mesure de la visibilité est souvent utile pour les observations
de nuit quand on ne dispose pas de points de repère ou encore pour les systèmes automatiques
d’observation. Les instruments de mesure de la POM peuvent être classés en deux groupes:
b) Ceux qui mesurent le coefficient de diffusion de la lumière dans un petit volume d’air.
Dans le cas du brouillard naturel, l’absorption est souvent négligeable et le coefficient de
diffusion peut être considéré comme équivalent au coefficient d’extinction.
Ces deux groupes englobent des instruments utilisés pour des mesures visuelles faites par
un observateur humain et des instruments utilisant une source lumineuse et un dispositif
électronique comprenant une cellule photoélectrique ou une photodiode pour détecter le
faisceau lumineux émis. Le principal inconvénient des instruments à mesure visuelle est le
fait que des erreurs considérables peuvent se produire si l’observateur ne laisse pas sa vision
s’accommoder suffisamment (plus particulièrement la nuit).
Les caractéristiques essentielles de ces deux catégories d’instruments servant à mesurer la POM
sont décrites ci‑dessous.
Instruments téléphotométriques
Pour la nuit, un instrument très simple d’utilisation se matérialise par un filtre neutre dégradé,
réduisant dans une proportion connue la lumière venant d’une source lumineuse éloignée et
ajusté tel que la lumière soit juste visible. La mesure lue sur l’instrument donne une mesure de
la transparence de l’air entre la source lumineuse et l’observateur, mesure à partir de laquelle
on peut calculer le coefficient d’extinction. L’exactitude générale dépend principalement des
variations de la sensibilité de l’œil et des fluctuations de l’intensité énergétique de la source
lumineuse. L’erreur augmente en proportion de la POM.
L’avantage de cet instrument est qu’il permet d’évaluer la POM pour une gamme comprise entre
100 m et 5 km avec une exactitude raisonnable, en utilisant seulement trois sources lumineuses
bien espacées les unes des autres, alors que, sans lui, un dispositif plus compliqué de sources
lumineuses est indispensable pour atteindre la même exactitude. L’exactitude et l’homogénéité
des mesures dépendent cependant grandement de la méthode d’utilisation de l’instrument
(point d’apparition ou de disparition de la lumière).
Transmissomètres
Étant donné que les estimations transmissométriques de la POM sont basées sur la perte de
lumière d’un faisceau de rayons lumineux parallèles, laquelle dépend de la diffusion et de
l’absorption, elles sont étroitement liées à la définition de la POM. Un bon transmissomètre,
correctement entretenu et fonctionnant dans sa gamme de plus haute exactitude, donne une
très bonne approximation de la POM vraie.
a) Ceux dont l’émetteur et le récepteur sont placés dans des boîtiers différents à une distance
connue l’un de l’autre, illustrés sur la figure 9.2;
b) Ceux dont l’émetteur et le récepteur sont placés dans le même boîtier, mais dont la lumière
émise est réfléchie par un miroir ou rétroréflecteur placé à distance (aller et retour du
faisceau lumineux), illustrés à la figure 9.3.
La distance parcourue par la lumière entre l’émetteur et le récepteur est communément appelée
«base du transmissomètre» et peut varier de quelques mètres à 150 mètres (voire 300 mètres)
suivant la gamme de valeurs de la POM que l’on désire mesurer et les applications auxquelles les
mesures sont destinées.
Source
lumineuse Ligne de base Cellule
photoélectrique
Émetteur Récepteur
Nous avons vu dans l’expression de la POM donnée par l’équation 9.7, que la relation:
P = a ⋅ ln ( 0, 05) ln ( T ) (9.14)
dans laquelle a est la base du transmissomètre, est la formule de base des mesures
transmissométriques, en admettant que l’application des lois de Koschmieder et
Bouguer‑Lambert soit acceptable et que le coefficient d’extinction soit le même le long de la base
du transmissomètre que sur le trajet qui sépare un observateur et un objet à cette valeur de la
POM.
Afin que les mesures puissent rester valables durant une longue période, il est nécessaire que le
flux lumineux reste constant durant ce temps. Dans le cas d’utilisation de la lumière halogène,
le problème du vieillissement du filament de la lampe est moins critique et le flux reste plus
constant. Néanmoins, certains transmissomètres utilisent des dispositifs à rétroaction (en captant
et en mesurant une petite partie du flux émis) permettant ainsi d’assurer une plus grande
homogénéité du flux lumineux dans le temps ou de compenser toute modification.
Comme nous le verrons à la section traitant de l’exactitude des mesures de la POM, la valeur
choisie pour la base du transmissomètre conditionne la gamme de mesure de la POM. On admet
généralement que cette gamme est comprise entre 1 et 25 fois environ la valeur de la base.
Cependant, l’opto‑électronique moderne pourrait permettre d’obtenir des résultats plus précis
et d’élargir cette gamme (voir la section 9.3.6 et OMM, 1992b).
Une variante dans le principe de mesure par transmissomètre consiste à utiliser deux récepteurs
ou rétroréflecteurs placés à des distances différentes afin d’élargir la gamme mesurée de la POM,
aussi bien vers le bas (courte base) que vers le haut de la gamme (longue base). Ces instruments
sont alors appelés transmissomètres à «double base».
On peut recourir à la technique du lidar (détection et localisation par la lumière), qui fonctionne
selon le principe décrit pour le célomètre à laser dans le chapitre 15 de la partie I, pour mesurer
la visibilité lorsque le faisceau est orienté sur le plan horizontal. Le profil de résolution en
portée du signal rétrodiffusé S dépend du signal de sortie S 0, de la distance x, du coefficient de
rétrodiffusion β et du facteur de transmission T, selon la formule suivante:
S ( x ) S0 ⋅ 1 x 2 ⋅ β ( x ) ⋅ T 2 où T = −σ ( x ) dx
∫ (9.15)
( )
ln S ( x ) ⋅ x 2 S0 ln β − 2 σ x (9.16)
Dans une atmosphère non homogène, les quantités β(x) et σ(x), liées à la portée, peuvent être
différenciées au moyen de l’algorithme de Klett (Klett, 1985).
Source
lumineuse Ligne de base aller et retour Rétroréflecteur
Émetteur/récepteur
Cellule
photoélectrique
Plus la POM approche les 2 000 m, plus l’exactitude de cette méthode laisse à désirer.
L’atténuation de la lumière dans l’atmosphère est due à la fois à sa diffusion et à son absorption.
La présence de polluants au voisinage des zones industrielles, de cristaux de glace (brouillard
givrant) ou de poussière peut faire de l’absorption un élément important. Toutefois, le facteur
d’absorption est le plus souvent négligeable et les phénomènes de diffusion par réflexion,
réfraction et diffraction sur les gouttelettes d’eau constituent le principal facteur de réduction
de la visibilité. Le coefficient d’extinction peut alors être considéré comme égal au coefficient de
diffusion, et un instrument de mesure de ce coefficient de diffusion peut donc être utilisé pour
estimer la POM.
La méthode la plus pratique pour effectuer cette mesure consiste à concentrer un faisceau
lumineux sur un petit volume d’air et à déterminer, par des moyens photométriques, la
proportion de lumière diffusée dans un angle solide suffisamment grand et dans des directions
qui ne sont pas privilégiées. À condition qu’il soit complètement protégé contre d’autres sources
de lumière, un tel instrument peut être utilisé de jour aussi bien que de nuit. Le coefficient de
diffusion b est une fonction qui peut se mettre sous la forme:
π
2π
b= I (φ ) sin (φ ) d φ
∫ (9.17)
Φv
0
où Φv est le flux émis dans le volume d’air V et I(Φ) est l’intensité lumineuse reçue dans la
direction Φ par rapport au faisceau incident.
Notons que pour déterminer b avec exactitude il est nécessaire de mesurer et d’intégrer la
lumière diffusée par le faisceau sur tous les angles. Les instruments utilisés dans la pratique
mesurent la lumière diffusée sur un angle limité et l’on part de l’hypothèse d’une corrélation
élevée entre l’intégrale limitée et l’intégrale complète.
Trois types de mesure sont utilisés dans ces instruments: la diffusion arrière, la diffusion avant et
la diffusion intégrée sur un grand angle.
a) Diffusion arrière: Dans ce type d’instruments (figure 9.4), un faisceau lumineux est concentré
sur un petit volume d’air situé en avant du projecteur; le récepteur, placé dans le même
habitacle et en dessous de l’émetteur, reçoit la lumière rétrodiffusée par le volume d’air
examiné. Plusieurs chercheurs ont essayé de trouver une relation entre la visibilité et le
coefficient de diffusion arrière, mais il est généralement admis que la corrélation n’est pas
satisfaisante.
Émetteur
Volume
d’échantillonnage
Récepteur
Émetteur Volume
d’échantillonnage
Récepteur
Volume
d’échantillonnage
Émetteur Récepteur
b) Diffusion avant: Le profil de la lumière diffusée par des particules de petite taille (aérosols,
gouttelettes) dépend de l’angle. Or, cette dépendance angulaire (c’est‑à‑dire le profil
de la lumière diffusée) est déterminée par la composition chimique (par exemple, la
concentration en sel), le type de noyau (sable, poussière) et la taille des particules. Il
faudrait par conséquent choisir un angle de diffusion permettant de réduire au minimum
cette dépendance angulaire. Plusieurs auteurs ont montré que l’angle le plus favorable
était compris entre 20° et 50° (Kneizys et al., 1983; Jia et Lü, 2014; Barteneva, 1960; Van
de Hulst, 1957). Les instruments sont donc constitués d’un émetteur et d’un récepteur
dont les faisceaux d’émission et de réception font entre eux un angle de 20 à 50 degrés.
Une autre disposition consiste, soit à placer un diaphragme à mi‑distance entre l’émetteur
et le récepteur, soit à placer deux diaphragmes situés réciproquement à peu de distance
de l’émetteur et du récepteur. La figure 9.5 est une illustration des deux configurations
utilisées.
c) Diffusion sous un grand angle: Ce type d’instrument (voir la figure 9.6), plus connu sous le
nom de néphélomètre intégrateur, est basé sur le principe de la mesure de la diffusion
sous un angle aussi large que possible, de 0° à 180° dans l’idéal, mais en pratique de 0° à
120°. Le récepteur est placé perpendiculairement à l’axe de la source lumineuse qui émet
une lumière sur un grand angle. Si en théorie ce type d’instrument devrait fournir une
meilleure estimation du coefficient de diffusion qu’un instrument opérant sur une gamme
réduite d’angle de diffusion, dans la pratique il est plus difficile d’éviter que la présence de
l’instrument ne modifie le coefficient d’extinction dans l’air mesuré. Les néphélomètres
intégrateurs ne sont pas très utilisés pour mesurer la POM et sont destinés avant tout aux
mesures de polluants.
Dans tous ces équipements, les récepteurs sont constitués, comme pour la plupart des
transmissomètres, de cellules photodétectrices ou photodiodes. On utilise un faisceau lumineux
pulsé (par exemple, décharge à forte intensité dans le xénon).
Ces types d’instruments ne requièrent qu’un espace limité (un à deux mètres en général).
Ils sont donc utiles lorsque l’on ne dispose pas de points de repère ou de sources lumineuses
(navires, bords de route, etc.). Comme la mesure ne porte que sur un très petit volume d’air, la
représentativité des mesures par rapport à l’état général de l’atmosphère sur le site peut être
mise en doute. Toutefois, une moyenne sur un certain nombre d’échantillons ou de mesures
peut améliorer cette représentativité. De plus, on peut parfois réaliser un lissage des résultats en
éliminant les cas extrêmes.
CHAPITRE 9. MESURE DE LA VISIBILITÉ 329
Source lumineuse
Récepteur Écrans
L’utilisation de ce type d’instrument a été souvent limitée à des applications particulières (par
exemple, mesure de la visibilité sur autoroute ou détection de la présence ou de l’absence de
brouillard) ou à des cas où l’on peut se contenter de mesurer la POM d’une manière moins
précise. La tendance actuelle serait de les utiliser de plus en plus dans les systèmes automatiques
d’observations météorologiques car ils permettent de mesurer la POM sur une gamme étendue
et sont peu affectés par la pollution par comparaison avec les transmissomètres.
Les emplacements des instruments de mesure devraient être choisis de façon à ce que les
mesures obtenues soient représentatives de l’usage auquel elles sont destinées. Ainsi, pour
les besoins synoptiques généraux, les appareils devraient être installés à des emplacements
abrités d’une pollution atmosphérique locale (par exemple, fumée, pollution industrielle, routes
poussiéreuses, etc.).
Le volume d’air à partir duquel le coefficient d’extinction ou de diffusion est mesuré devrait
normalement se trouver au niveau de l’œil d’un observateur, soit à environ 1,5 m au‑dessus du
sol.
Pour les besoins aéronautiques, les mesures seront représentatives des conditions régnant sur
l’aérodrome. Ces conditions, plus particulières à l’exploitation des aérodromes, sont décrites
dans le chapitre 2 de la partie II du présent guide.
Les instruments doivent être installés selon les directives données par les fabricants. On
accordera une attention particulière au bon alignement des émetteurs et des récepteurs des
transmissomètres et au réglage correct du faisceau lumineux. Les poteaux sur lesquels reposent
les émetteurs‑récepteurs devront avoir une rigidité mécanique (tout en étant frangibles dans
le cas des aérodromes) afin d’éviter tout désalignement dû à la mouvance du sol lors du gel
et surtout du dégel. De plus, les supports ne devraient pas se déformer sous les contraintes
thermiques auxquelles ils sont soumis.
Pour permettre des observations satisfaisantes et sûres, les instruments de mesure de la POM
devraient être utilisés et entretenus selon les conditions prescrites par les fabricants et maintenus
d’une façon permanente en bon état de fonctionnement. L’exécution régulière des opérations de
contrôle et d’étalonnage selon les recommandations du fabricant assurera un fonctionnement
optimal.
Des étalonnages par très bonne visibilité (supérieure à 10–15 km) devront être effectués
régulièrement. Cependant, il y a lieu d’éviter les conditions atmosphériques pouvant entraîner
330 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
des erreurs d’étalonnage. En effet, par exemple par temps de forte ascendance thermique
ou après de fortes pluies, on rencontre d’importantes variations du coefficient d’extinction
dans la couche d’air près du sol et si plusieurs transmissomètres sont en service sur le site (cas
des aérodromes) une dispersion de leurs mesures est constatée. Il conviendrait de ne pas
entreprendre d’étalonnage dans de telles conditions.
Il est à remarquer que dans le cas de la plupart des transmissomètres, les optiques doivent être
nettoyées régulièrement et que pour certains instruments, plus particulièrement des instruments
installés sur aérodromes, des entretiens journaliers devront être prévus. Les instruments
devraient être nettoyés lors et/ou après de fortes perturbations, la pluie ou les averses violentes
accompagnées de vent fort pouvant recouvrir les systèmes optiques de nombreuses gouttes
d’eau et particules solides occasionnant de grossières erreurs dans la mesure de la POM. Il en
sera de même pour les chutes de neige qui risquent d’obstruer les systèmes optiques. Des
dispositifs de chauffage sont souvent placés à l’avant des systèmes optiques pour améliorer les
performances de ces instruments lors de telles intempéries. Des dispositifs de soufflantes sont
parfois également installés devant les optiques dans le même but. Cependant, l’attention sera
attirée sur le fait que ces soufflantes et ces dispositifs chauffants peuvent provoquer des remous
d’air plus chaud que l’air environnant et perturber la mesure du coefficient d’extinction de la
masse d’air. Dans les zones arides, des tempêtes de sable ou des phénomènes de chasse‑sable
élevée peuvent nuire au système optique et même le détériorer.
Généralités
Tous les instruments utilisés dans la pratique pour mesurer la POM n’effectuent cette mesure
que sur une zone de l’atmosphère relativement restreinte par rapport à celle que balaie
l’œil d’un observateur humain. Les instruments ne peuvent donner de mesure exacte de la
POM que lorsque le volume d’air examiné est représentatif de l’atmosphère qui entoure le
point d’observation dans un rayon égal à la valeur de la POM. On peut aisément concevoir
une situation dans laquelle, du fait d’un banc de brouillard ou d’une averse isolée de pluie
ou de neige, l’instrument donnerait une mesure erronée. Toutefois, l’expérience montre
que de telles situations ne sont pas fréquentes et qu’une surveillance continue de la POM à
l’aide d’un instrument permet souvent de détecter des changements de ce paramètre avant
qu’un observateur travaillant sans aide mécanique ne s’en aperçoive. Néanmoins, il importe
d’interpréter les mesures instrumentales de la POM avec précaution.
Un autre facteur à prendre en compte lorsque l’on examine la représentativité des mesures est
l’homogénéité de l’atmosphère elle‑même. Pour toutes les valeurs de la POM, le coefficient
d’extinction d’un petit volume d’atmosphère fluctue rapidement et de manière irrégulière;
aussi, prises individuellement, les mesures de la POM effectuées à l’aide de diffusomètres et
de transmissomètres à base courte non pourvus de systèmes intégrés de lissage ou de calcul
de moyenne présentent une dispersion considérable. Il est donc nécessaire de réaliser de
nombreuses mesures et d’effectuer un lissage ou d’établir une moyenne si l’on souhaite obtenir
une valeur représentative de la POM. L’analyse des résultats de la première comparaison OMM
des mesures de la visibilité (OMM, 1990) montre qu’avec la plupart des instruments on ne retire
aucun bénéfice du calcul d’une moyenne sur plus d’une minute mais que pour les appareils les
plus «bruyants» il est préférable d’établir une moyenne sur deux minutes.
Les mesures visuelles basées sur le coefficient d’extinction sont difficiles à réaliser et la principale
source d’erreur est la variabilité et l’incertitude liées au fonctionnement de l’œil humain. Ces
erreurs ont été décrites dans les sections se rapportant aux méthodes d’estimation visuelle de la
POM.
CHAPITRE 9. MESURE DE LA VISIBILITÉ 331
Pour les mesures transmissométriques, les sources d’erreurs peuvent être résumées comme suit:
b) Rigidité et stabilité insuffisantes des supports des émetteurs‑récepteurs (gel et dégel du sol,
contrainte thermique);
d) Erreur d’étalonnage (visibilité trop faible ou étalonnage effectué par temps instable ayant
une incidence sur le coefficient d’extinction);
Cette valeur de 1 % de l’erreur sur la transmission peut être considérée comme correcte pour
beaucoup d’instruments anciens; toutefois, elle ne tient pas compte de la dérive de l’instrument,
de la saleté sur les composantes optiques, ni de la dispersion des mesures due au phénomène
lui‑même. Si l’exactitude tombe à 2 ou 3 % environ (en tenant compte de ces autres facteurs),
les valeurs de l’erreur relative figurant sur l’axe vertical du graphique doivent être multipliées
par ce même facteur de 2 ou 3. On notera également que l’erreur relative sur la mesure de la
POM augmente de manière exponentielle à chaque extrémité de la courbe, ce qui fixe donc des
limites supérieure et inférieure à la gamme de mesure de la POM. L’exemple donné montre les
limites de l’amplitude de mesure pour une erreur acceptée de 5, 10 et 20 % dans le cas où la ligne
de base est de 75 m. On peut également en déduire que pour des mesures de POM comprises
entre les limites de 1,25 et 10,7 fois la longueur de la base, l’erreur relative sur la POM devrait
être faible et de l’ordre de 5 % si l’on suppose que l’erreur sur T est de 1 %. Lorsque la POM est
inférieure à 0,87 fois la longueur de la base ou supérieure à 27 fois cette longueur, l’erreur relative
sur sa mesure dépasse 10 %. Si l’on élargit encore l’amplitude de la mesure, l’erreur s’accroît
332 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
60 %
50 %
30 %
20 % POM 55 m à 4 000 m
10 % POM 65 m à 2 000 m
POM 95 m à 800 m
0 10 20 30 40 50 60 70 80 90 100 %
Facteur de transmission
Figure 9.7. Erreur dans les mesures de la portée optique météorologique en fonction d’une
erreur de 1 % sur le facteur de transmission
rapidement pour devenir inacceptable. Cependant, comme l’erreur sur la transmission constatée
dans le cas des transmissomètres modernes est nettement inférieure à la valeur de référence de
1 %, il est possible d’élargir la gamme de mesures exploitables.
Les résultats de la première comparaison OMM de mesures de la visibilité (OMM, 1990) ont
montré que, lorsqu’ils sont bien étalonnés et bien entretenus, les meilleurs transmissomètres
peuvent fournir des mesures de la POM avec une erreur type d’environ 10 % lorsque la valeur de
la POM va jusqu’à 60 fois la longueur de leur base.
Avec ce type d’instrument, les principales sources d’erreurs dans les mesures de la POM sont les
suivantes:
a) Erreur d’étalonnage (visibilité trop faible ou étalonnage effectué dans des conditions
d’instabilité ayant des incidences sur le coefficient d’extinction);
f) Pollution atmosphérique salissant les systèmes optiques (ces instruments sont beaucoup
moins sensibles que les transmissomètres à la saleté sur leurs optiques mais les salissures
importantes exercent néanmoins un effet);
D’après les résultats de la première comparaison OMM des mesures de la visibilité (OMM, 1990),
les instruments de mesure de la diffusion donnent des résultats généralement moins exacts
que les transmissomètres pour les faibles valeurs de la POM et sont sujets à une plus grande
variabilité. Il est également apparu que ce type d’instrument était dans l’ensemble plus affecté
que les transmissomètres par les précipitations. Toutefois, les meilleurs diffusomètres se sont
révélés peu ou pas affectés par les précipitations et ont donné des estimations de la POM avec un
écart type d’environ 10 % sur une gamme de valeurs de la POM allant d’environ 100 m à 50 km.
Presque tous les diffusomètres soumis à cette comparaison ont présenté une erreur systématique
importante sur une partie de leur gamme de mesure. Ces appareils se sont montrés très peu
affectés par une contamination de leurs optiques.
Un aperçu des différences qui existent entre les diffusomètres et les transmissomètres est donné
dans la publication de l’OMM (1992b).
RÉFÉRENCES ET AUTRES LECTURES
Barteneva, O.D., 1960: Scattering functions of light in the atmospheric boundary layer. Izv. Akad. Nauk SSR,
Ser. Geofiz. [Bulletin de l'Académie des sciences de l'URSS, série géographique], 12, p. 1 237–1 244.
Commission électrotechnique internationale (CEI), 1987: Vocabulaire électrotechnique international:
Chapitre 845: Éclairage: CEI 60050‑845, Genève.
Jia S‑J. et D‑R. Lü, 2014: Optimal forward‑scattering angles of atmospheric aerosols in North China.
Atmospheric and Oceanic Science Letters, 7(3), p. 236–242.
Klett, J.D., 1985: Lidar Inversion with variable backscatter/extinction ratios. Applied Optics, 24(11),
p. 1 638–1 643.
Kneizys, F.X., E.P. Shettle, W.O. Gallery, J.H. Chetwynd, L.W. Abreu, J.E.A. Selby, S.A. Clough et R.W. Fenn,
1983: Atmospheric Transmittance/Radiance: Computer Code LOWTRAN 6, Appendix D.
AFGL‑TR‑83‑0187, Environmental Research Papers No. 846. Air Force Geophysics Laboratory,
Massachusetts.
Middleton, W. E. K., 1952: Vision Through the Atmosphere. University of Toronto Press, Toronto.
Organisation de l’aviation civile internationale (OACI), 2013: Assistance météorologique à la navigation
aérienne, Annexe 3 de la Convention relative à l’aviation civile internationale, Dix‑huitième
édition, Montréal.
Organisation internationale de normalisation, 2012: Qualité de l'air – Météorologie de l'environnement –
Partie 1: Télédétection de la portée visuelle par lidar basée sur le sol, ISO 28902‑1:2012, Genève.
Organisation météorologique mondiale, 1990: The First WMO Intercomparison of Visibility Measurements: Final
Report (D. J. Griggs, D. W. Jones, M. Ouldridge et W. R. Sparks). Instruments and Observing
Methods Report No. 41 (WMO/TD‑No. 401), Genève.
———, 1992a: Vocabulaire météorologique international (OMM‑N° 182), Genève.
———, 1992b: Visibility measuring instruments: Differences between scatterometers and transmissometers
(J.P. van der Meulen). Papers Presented at the WMO Technical Conference on Instruments and
Methods of Observation (TECO‑92) (Vienne, Autriche, 11–15 mai 1992), Instruments and
Observing Methods Report No. 49 (WMO/TD‑No. 462), Genève.
———, 2010a: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2010b: Guide du Système mondial d’observation (OMM‑N° 488), Genève.
———, 2014: Guide des systèmes d’observation et de diffusion de l’information pour l’assistance météorologique à la
navigation aérienne (OMM‑N° 731), Genève.
Sheppard, B.E., 1983: Adaptation to MOR. Preprints of the Fifth Symposium on Meteorological Observations and
Instrumentation (Toronto, 11–15 avril 1983), p. 226–269.
Van de Hulst, H.C., 1957: Light Scattering by Small Particles. Wiley & Sons, New York (repr. Dover Books on
Physics, 1981).
TABLE DES MATIÈRES DU CHAPITRE
Page
10.1 GÉNÉRALITÉS
10.1.1 Définitions
Évaporation réelle: quantité d’eau qui s’évapore d’une surface d’eau libre ou du sol.
Transpiration: processus par lequel l’eau des végétaux est transférée dans l’atmosphère sous
forme de vapeur.
Évapotranspiration réelle (ou évapotranspiration effective): quantité totale d’eau qui s’évapore du sol
et des plantes lorsque le sol est à son taux d’humidité naturel.
Évaporation potentielle (ou évaporativité): quantité de vapeur d’eau pouvant être émise par une
surface d’eau pure, par unité de surface et de temps, dans les conditions atmosphériques
existantes.
Évapotranspiration potentielle: quantité maximale d’eau susceptible d’être évaporée sous un climat
donné par un couvert végétal continu bien alimenté en eau. Elle comprend donc l’évaporation
du sol et la transpiration de la végétation d’une région donnée pendant le temps considéré. Elle
s’exprime en hauteur d’eau.
Si l’on emploie le terme évapotranspiration potentielle, il convient d’indiquer clairement les types
d’évaporation et de transpiration en cause. Pour obtenir de plus amples informations, se reporter
au Volume I de la publication OMM (2008).
Le taux d’évaporation est défini comme la quantité d’eau qui s’évapore d’une unité de surface
par unité de temps. Il peut être exprimé comme la masse ou le volume d’eau liquide ainsi
évaporé. Habituellement, il s’agit de la hauteur d’eau liquide qui retourne à l’atmosphère par
unité de temps en s’évaporant depuis l’ensemble de la surface considérée. L’unité de temps est
normalement le jour et l’unité de hauteur, le millimètre ou le centimètre (OMM, 2010). Selon le
degré de perfectionnement de l’instrument, l’exactitude des mesures varie généralement de
0,1 à 0,01 mm.
Les estimations de l’évaporation à partir des surfaces d’eau libre et du sol ainsi que de
l’évapotranspiration à partir des surfaces couvertes de végétation jouent un rôle d’une grande
importance dans la modélisation hydrologique et dans les études hydrométéorologiques et
agricoles, par exemple pour ce qui est de la conception et de l’exploitation des réservoirs et des
réseaux d’irrigation et de drainage.
Les exigences de qualité sont données au chapitre 1 de la partie I. Pour les totaux journaliers,
une marge extrême va de 0 à 100 mm, avec une résolution de 0,1 mm. L’incertitude, au niveau
de confiance de 95 %, devrait être de ±0,1 mm pour les quantités inférieures à 5 mm, et de ±2 %
pour les quantités supérieures. Le chiffre de un mm a été proposé comme exactitude réalisable.
En principe, les instruments habituels pourraient satisfaire ces exigences d’exactitude, mais
des difficultés d’exposition et de mise en œuvre pratique causent des erreurs beaucoup plus
importantes (OMM, 1976).
CHAPITRE 10. MESURE DE L’ÉVAPORATION 337
Le taux d’évaporation qui se produit à partir d’un corps ou d’une surface quelconque est
déterminé par différents facteurs, tous également susceptibles de l’influencer, que l’on peut
répartir en deux grandes catégories: les facteurs météorologiques et les facteurs propres à la
surface évaporante. Les facteurs météorologiques sont à leur tour subdivisibles en variables
énergétiques et en variables aérodynamiques. L’évaporation de l’eau liquide exige de l’énergie,
laquelle existe en abondance dans la nature sous la forme du rayonnement solaire et terrestre.
Les variables aérodynamiques, comme la vitesse du vent au niveau de la surface évaporante et le
gradient de tension de vapeur entre cette surface et la basse atmosphère, gouvernent le taux de
transfert de la vapeur d’eau évaporée.
Il convient de distinguer les situations où il existe de l’eau libre sur la surface évaporante de
celles où il n’y en a pas. Parmi les principaux facteurs entrant en jeu figurent la quantité et l’état
de l’eau ainsi que les caractéristiques de la surface qui influent sur le processus de transfert vers
l’atmosphère ou à travers la surface du corps considéré. La résistance au transfert d’humidité
vers l’atmosphère est par exemple fonction de la rugosité de la surface; dans les régions arides
et semi‑arides, l’étendue et la forme de la surface évaporante jouent aussi un rôle capital. La
transpiration végétale, outre qu’elle dépend des facteurs météorologiques et des particularités
de la surface évaporante mentionnés précédemment, est aussi dans une large mesure tributaire
des caractéristiques et des réactions des plantes, et notamment du nombre, de la taille et du
degré d’ouverture des stomates. La résistance des stomates au transfert d’humidité indique
une réaction diurne, mais est aussi fortement subordonnée à l’humidité du sol où poussent les
racines.
La quantité d’eau du sol dont peuvent disposer les racines et qui est amenée à s’évaporer des sols
nus dépend des apports capillaires, c’est‑à‑dire de la texture et de la composition du sol. Quant à
l’évaporation à partir des lacs et des réservoirs, elle est en partie fonction de la chaleur accumulée
dans la masse d’eau.
Les évaporomètres, parmi lesquels on distingue les atmomètres et les bacs et bassins
d’évaporation, servent à mesurer la perte en eau d’une surface saturée standard. Ces instruments
ne permettent de mesurer directement ni l’évaporation qui se produit à partir des plans d’eau
naturels, ni l’évapotranspiration réelle ou potentielle. Il importe donc, avant utilisation, de
corriger les valeurs obtenues afin d’obtenir des estimations fiables de l’évaporation des lacs et de
l’évapotranspiration réelle et potentielle à partir des surfaces naturelles.
Les évapotranspiromètres (ou lysimètres) sont des récipients que l’on place sous la surface du
sol et qu’on remplit de sol dans lequel des végétaux peuvent être cultivés. Il s’agit de dispositifs
polyvalents qui permettent d’étudier différentes phases du cycle hydrologique dans des
conditions naturelles. Il est possible de faire des estimations de l’évapotranspiration (ou de
l’évaporation en cas de sol nu) en mesurant et en équilibrant l’ensemble des autres éléments
du bilan hydrique intervenant dans le récipient, à savoir la précipitation, le drainage profond
et les variations de l’emmagasinement dans le volume de sol concerné. Le ruissellement est
habituellement éliminé. On utilise aussi les évapotranspiromètres pour mesurer l’évaporation ou
l’évapotranspiration potentielle à partir du sol (selon qu’il est ou non recouvert de végétation),
en faisant en sorte que l’humidité du sol corresponde à la capacité au champ.
338 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les estimations concernant des réservoirs ou des lacs, des parcelles ou de petits bassins versants
peuvent être obtenues par le biais d’un bilan hydrique, d’un bilan énergétique, d’une étude
aérodynamique et de moyens complémentaires. Ces dernières techniques sont examinées à la
section 10.5.
Il faudrait aussi souligner que les divers évaporomètres ou lysimètres fournissent des mesures
foncièrement différentes. Les facteurs d’ajustement qui permettent d’obtenir, à partir de
ces mesures, des estimations de l’évaporation des lacs ou de l’évapotranspiration réelle
ou potentielle diffèrent nécessairement. Il importe donc que ces instruments et leur mode
d’exposition soient toujours décrits avec beaucoup de soin et de précision, de sorte que
l’utilisateur saisisse au mieux les conditions de mesure.
Pour plus de précisions sur toutes ces méthodes, on se reportera aux Volumes I et II de la
publication OMM (2008).
10.2 ATMOMÈTRES
Un atmomètre est un instrument qui permet de mesurer la perte en eau d’une surface poreuse
mouillée. Les surfaces mouillées sont constituées soit par des sphères, des cylindres ou des
plaques en porcelaine poreuse, soit par des rondelles de papier filtre, tous saturés d’eau.
Dans le cas de l’atmomètre de Livingstone, l’élément évaporant est une sphère d’environ cinq
centimètres de diamètre, reliée à un réservoir par un tube de verre ou de métal; la pression
atmosphérique qui s’exerce sur la surface de l’eau contenue dans le réservoir maintient la sphère
saturée. L’atmomètre de Bellani se compose d’un disque en porcelaine poreuse fixé au sommet
d’un entonnoir en porcelaine vitrifiée, où arrive de l’eau provenant d’une éprouvette graduée qui
tient lieu à la fois de réservoir et de dispositif de mesure. Quant à l’évaporomètre de Piche, son
élément évaporant est une rondelle de papier filtre fixée au bas d’un tube gradué à l’envers et
fermé à son sommet, qui contient l’eau destinée à humidifier la rondelle; des mesures successives
du volume d’eau restant dans le tube indiquent la quantité d’eau perdue par évaporation à
n’importe quel instant donné.
Bien que fréquemment considérées comme une mesure relative de l’évaporation à partir de la
surface des plantes, les indications des atmomètres n’ont en réalité qu’un rapport lointain avec
l’évaporation effective qui s’effectue à partir des surfaces naturelles.
On a exploité avec un certain succès, après être parvenu à établir entre elles des corrélations
locales, les mesures effectuées au moyen d’évaporomètres de Piche, dont les expositions à
l’ombre avaient été soigneusement uniformisées, pour calculer le facteur aérodynamique
(résultant de la multiplication d’une fonction relative au vent et du déficit de tension de vapeur
saturante) nécessaire à l’estimation de l’évaporation, par exemple au moyen de la méthode
combinatoire de Penman.
S’il est envisageable d’établir empiriquement un rapport entre la perte en eau d’un atmomètre
et celle d’une surface naturelle, on peut s’attendre à obtenir une relation différente pour chaque
type de surface et pour des conditions climatiques dissemblables. Les atmomètres devraient
garder toute leur utilité pour les études à petite échelle, grâce en particulier à leur taille réduite, à
leur faible coût et à leur consommation d’eau minime. Il est ainsi possible d’installer des réseaux
denses d’atmomètres sur de faibles superficies aux fins d’études micrométéorologiques. Par
contre, il est déconseillé d’employer ces instruments pour évaluer les ressources en eau si l’on
dispose d’autres données.
CHAPITRE 10. MESURE DE L’ÉVAPORATION 339
Pour que les atmomètres puissent fonctionner convenablement, il est impératif que leurs surfaces
évaporantes restent propres. En effet, la présence de saleté sur ces surfaces influe grandement
sur le taux d’évaporation, à peu près au même titre qu’un réservoir de thermomètre mouillé en
psychrométrie.
De plus, les différences d’exposition exercent souvent un effet considérable sur les mesures de
l’évaporation. Cela concerne particulièrement l’exposition aux mouvements d’air autour de la
surface évaporante lorsque l’instrument est placé à l’ombre.
Le bac américain de classe A est constitué par un cylindre de 25,4 cm de profondeur et 120,7 cm
de diamètre. Il s’installe à une hauteur de trois à cinq centimètres au‑dessus du sol, sur un
caillebotis en bois. Ainsi, l’air peut circuler librement sous le bac, l’eau qui s’accumule sur le sol
en cas de pluie ne risque pas d’atteindre le fond du bac et ce dernier peut être inspecté sans
difficulté. Le bac proprement dit est en tôle galvanisée de 0,8 mm d’épaisseur, en cuivre ou en
monel, et n’est généralement pas peint. On le remplit d’eau jusqu’à cinq centimètres du bord (ce
qu’on appelle le niveau de référence).
Le niveau de l’eau se mesure à l’aide d’une jauge à crochet ou à point fixe. La jauge à crochet
est constituée d’une échelle mobile et d’un vernier muni d’un crochet, dont la pointe effleure
la surface de l’eau quand l’instrument est bien réglé. Un puits de mesure d’environ 10 cm
de diamètre et 30 cm de hauteur, comportant un petit trou à sa partie inférieure, amortit les
ondulations qui peuvent se former dans le bac et sert également de support à la jauge à crochet
pendant les observations. On remplit le bac lorsque la jauge indique que le niveau de l’eau a
baissé de plus de 2,5 cm par rapport au niveau de référence.
De forme cylindrique avec un fond en cône, le bac soviétique GGI‑3000 a une surface de
3 000 cm2 et une profondeur de 60 cm. On l’enterre en laissant son bord dépasser de 7,5 cm
la surface du sol. Au centre du bac se trouve un tube métallique repère sur lequel on fixe une
burette volumétrique pour procéder aux observations de l’évaporation. La burette est munie
d’un robinet qu’on ouvre jusqu’à ce que l’eau qu’elle contient soit au même niveau que l’eau
présente dans le bac. On ferme alors le robinet et on mesure avec exactitude le volume d’eau
contenu dans la burette. Connaissant les dimensions de la burette, on détermine alors la hauteur
de l’eau au‑dessus du tube métallique repère à partir de ce volume. Un pointeau fixé au tube
repère indique la hauteur à laquelle le niveau de l’eau du bac devrait être maintenu. Ce niveau
340 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
De forme cylindrique et à fond plat, ce bassin a une surface de 20 m2, un diamètre d’environ
5 m et une profondeur de 2 m. Construit en tôles soudées de 4 à 5 mm d’épaisseur, on l’enterre
en laissant son bord dépasser de 7,5 cm la surface du sol. L’intérieur du bassin et ses surfaces
externes exposées à l’air sont peints en blanc. Il est équipé d’un réservoir de remplissage et
d’un puits de mesure où se trouve un tube repère sur lequel on place la burette volumétrique
pour mesurer le niveau de l’eau contenue dans le bassin. À l’intérieur du puits de mesure, à côté
du tube, une petite tige à bout pointu indique la hauteur à laquelle le niveau de l’eau doit être
maintenu. Ce niveau ne devrait pas descendre à plus de 5 mm au‑dessous de la pointe de la
tige, ni s’élever à plus de 10 mm au‑dessus. Un tube latéral en verre gradué, fixé au réservoir de
remplissage, indique la quantité d’eau qui est ajoutée dans le bassin et permet ainsi de contrôler
grossièrement l’indication fournie par la burette.
On obtient le taux d’évaporation à partir d’un bac ou d’un bassin en mesurant la variation du
niveau de sa surface d’eau libre. Cela peut se faire à l’aide des dispositifs décrits ci‑dessus dans le
cas des bacs de classe A et des bacs GGI‑3000.
Il existe plusieurs types de bacs d’évaporation automatiques. L’eau y est maintenue à un niveau
constant par un dispositif qui déclenche soit un apport d’eau supplémentaire en provenance d’un
réservoir auxiliaire, soit une évacuation de l’eau excédentaire apportée par les précipitations. La
quantité d’eau ajoutée ou évacuée est enregistrée. Dans d’autres bacs et bassins, le niveau de
l’eau est mesuré en permanence par l’intermédiaire d’un flotteur placé dans le puits de mesure et
relié à un enregistreur.
Les bacs et bassins d’évaporation sont généralement exposés de trois manières différentes:
a) Enterrés dans le sol; la plus grande partie du bassin se trouve alors au‑dessous du niveau
du sol, mais la surface évaporante est au même niveau, ou à peu près, que la surface
environnante;
b) Au‑dessus du sol; le bac tout entier et la surface évaporante sont alors légèrement surélevés
par rapport au sol;
c) Installés sur des plates‑formes fixes flottant sur des lacs ou d’autres plans d’eau.
d’éventuels embruns ou par les effets de bordure découlant de la présence, au vent, d’une zone
cultivée ou se distinguant par toute autre particularité. Ces effets peuvent se faire sentir à plus de
100 mètres. Il convient en outre de clôturer le terrain pour assurer la protection des instruments
et empêcher les animaux de venir boire dans le bac. Toutefois, la clôture devrait être construite
de manière à ne pas affecter le régime du vent au‑dessus du bac.
Les différents modes d’exposition des bacs d’évaporation, s’ils présentent chacun des avantages,
sont également responsables de diverses erreurs de mesure.
Les bacs installés au‑dessus du sol sont peu coûteux et faciles à mettre en place et à entretenir.
L’eau qu’ils contiennent reste plus propre que celle des bassins enterrés, car elle risque beaucoup
moins d’être souillée par des éclaboussements ou de la terre apportée par le vent. Toute fuite
éventuelle se produisant après l’installation peut être facilement décelée et réparée. Toutefois,
l’eau s’évapore plus rapidement dans ces bacs que dans les bacs enterrés, principalement du
fait de l’énergie rayonnante supplémentaire qu’absorbent leurs parois latérales. Il est possible
d’éliminer en grande partie les effets parasites du rayonnement sur les parois en utilisant des bacs
recouverts de matière isolante, mais cela augmente sensiblement leur prix de revient, contrevient
aux instructions de construction standard et remet en cause la stabilité des relations évoquées à
la section 10.3.
Dans le cas des bacs enterrés, les effets de bordure parasites imputables, par exemple, au
rayonnement sur les parois latérales ou aux échanges thermiques entre le bac et l’atmosphère
sont considérablement atténués. Par contre:
c) La hauteur de la végétation autour du bac devient un facteur critique. En outre, entre le bac
enterré et le sol se produisent des échanges thermiques non négligeables dont l’ampleur
dépend d’un grand nombre de facteurs, et notamment de la nature du sol, de sa teneur en
eau et de la densité du couvert végétal.
Les bacs flottants donnent une approximation plus juste de l’évaporation qui intervient à la
surface d’un lac que des bacs, enterrés ou non, installés sur le rivage, même si ces bacs flottants
ont un pouvoir d’accumulation thermique différent des lacs. Ils subissent toutefois l’influence
du lac sur lequel ils se trouvent et ne constituent donc pas nécessairement un bon indicateur
de l’évaporation qui s’y produit. L’exécution des observations est extrêmement délicate et
l’éclaboussement, en particulier, fausse souvent les données. Enfin, l’installation et l’exploitation
de ces bacs s’avèrent coûteuses.
Quel que soit le mode d’exposition, il importe d’abord que le bac soit en matériau inoxydable et
qu’il soit assemblé de façon à réduire au minimum le risque de fuites.
Les fortes pluies et les vents violents ont tendance à faire rejaillir l’eau hors des bacs, ce qui peut
totalement fausser les mesures.
Le niveau de l’eau dans l’évaporomètre est un facteur important. S’il y a trop d’eau, 10 % (ou
plus) de la pluie qui y tombe peut rejaillir hors du bac, ce qui conduit à surestimer l’évaporation.
342 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Si le niveau est trop bas, le taux d’évaporation sera par contre sous‑estimé (d’environ 2,5 %
par centimètre au‑dessous du niveau de référence de 5 cm dans les régions tempérées), du fait
que le bord du bac projette trop d’ombre et protège trop bien l’eau qui s’y trouve. Quand on
laisse le niveau baisser considérablement, la surface de l’eau se réchauffe davantage et le taux
d’évaporation augmente.
Il est conseillé de limiter les fluctuations du niveau de l’eau, soit par des moyens automatiques,
soit en réajustant le niveau à chaque lecture, soit encore en enlevant de l’eau lorsque le niveau
atteint la limite supérieure fixée ou en en rajoutant.
Il convient d’effectuer des inspections au moins une fois par mois, en accordant une attention
particulière à la détection des fuites. Le bac devrait être nettoyé aussi souvent qu’il est nécessaire,
afin d’éviter l’accumulation de détritus, le dépôt de sédiments ainsi que la formation d’écume et
de pellicules d’huile. Il est recommandé de verser dans l’eau du bac une petite quantité de sulfate
de cuivre ou de tout autre produit susceptible de ralentir la croissance des algues.
En cas de gel, il faudrait entièrement détacher la glace qui adhère aux parois du bac et mesurer
le niveau de l’eau pendant que la glace flotte. Dans la mesure où l’on procède ainsi, le fait qu’une
partie de l’eau soit gelée n’a pas de répercussion notable sur le niveau d’eau. Si la glace est trop
épaisse pour être brisée, il convient d’ajourner le relevé jusqu’à ce qu’elle puisse l’être; il faudrait
alors déterminer l’évaporation en tenant compte de ce délai.
Il est souvent nécessaire de protéger le bac contre les oiseaux et les petits animaux, surtout dans
les régions arides et tropicales. À cet effet, on peut utiliser:
a) Des substances chimiques répulsives. Il faut alors veiller à ce que les produits utilisés
ne modifient pas de manière appréciable les caractéristiques de l’eau contenue dans
l’évaporomètre;
b) Un grillage fixé au‑dessus du bac. Des écrans standard de ce genre sont couramment
employés en divers endroits. Ils empêchent les oiseaux et les autres animaux de boire
l’eau du bac, mais ils réduisent aussi les pertes par évaporation en interceptant une partie
du rayonnement solaire et en atténuant le mouvement de l’air au‑dessus de la surface
de l’eau. Pour pouvoir évaluer l’erreur liée à l’effet du grillage sur le champ du vent ainsi
que les caractéristiques thermiques du bac, il est préférable de comparer les valeurs
obtenues au moyen d’un bac protégé avec celles obtenues à l’aide d’un bac ordinaire à des
emplacements exempts de toute interférence. Des essais portant sur un écran cylindrique
constitué d’un grillage en acier à maille hexagonale de 25 mm de largeur reposant sur
un châssis en tiges d’acier de 8 mm de diamètre ont mis en évidence une diminution
systématique de 10 % du taux d’évaporation en trois endroits différents sur une période de
deux ans.
Plusieurs types de lysimètres ont été décrits dans les ouvrages techniques spécialisés. Pour
plus de précisions sur certains des instruments utilisés dans différents pays, on se reportera aux
publications OMM (1966, 2008 (Volume I)).
leur profondeur, de 0,1 à 5 m. Selon la méthode de mesure, on peut les classer en lysimètres
pondérables ou non. Chacun de ces instruments offre des avantages et des inconvénients, et le
choix d’un type particulier de lysimètre dépend du problème à traiter.
Les lysimètres non pondérables (à percolation) ne permettent d’effectuer que des mesures à
long terme, à moins qu’il soit possible de mesurer la teneur en eau du sol par un autre moyen
indépendant et sûr. On utilise des lysimètres à percolation de grande superficie pour étudier
le bilan hydrique et l’évapotranspiration dans le cas d’un couvert végétal bien développé en
hauteur et profondément enraciné (arbres adultes, par exemple). Les modèles plus petits,
employés dans le cas d’un sol nu ou encore recouvert d’herbe ou de plantes cultivées, donnent
souvent d’excellents résultats pour des applications pratiques dans des conditions d’humidité
marquée; ils sont faciles à installer, d’un entretien peu coûteux et s’intègrent donc bien dans les
réseaux d’observation.
On a mis au point plusieurs techniques de pesée fondées sur divers principes de la mécanique
et de l’hydraulique. Les petits lysimètres les plus simples sont habituellement soulevés de leurs
socles et placés sur une balance mécanique au moyen de grues mobiles. Il arrive aussi que leur
récipient soit installé à titre permanent sur une balance mécanique aux fins d’enregistrement
continu. On simplifie considérablement le système de pesée et d’enregistrement en utilisant
des cellules dynamométriques équipées de jauges de contrainte d’une résistance électrique
variable. Les systèmes hydrauliques de pesée sont fondés sur le principe du déplacement des
fluides provoqué par la poussée d’un récipient flottant (on parle en ce cas de lysimètre flottant)
ou sur le principe des variations de la pression du liquide qui interviennent dans les cellules
dynamométriques hydrauliques.
S’agissant des lysimètres, le taux d’évapotranspiration peut être estimé à l’aide de l’équation
générale du bilan hydrique appliquée à leurs récipients. L’évapotranspiration est égale à la
somme des précipitations et de l’irrigation, diminuée de la percolation et de la variation de
l’emmagasinement.
Par conséquent, les programmes d’observation menés sur des parcelles où sont installés
des lysimètres portent sur les précipitations et l’irrigation, la percolation et la variation
de l’emmagasinement dans le sol. Il est judicieux de compléter ces programmes par des
observations de la croissance et du développement des plantes.
La méthode volumétrique donne de bons résultats lorsqu’il s’agit d’évaluer l’évolution à long
terme de l’évapotranspiration. Elle permet de mesurer l’intensité des précipitations et de la
344 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
percolation. On prend pour hypothèse que la variation de l’emmagasinement tend vers zéro
durant la période d’observation. Il est en outre possible de déterminer la variation de la teneur en
eau du sol en rapportant l’humidité présente dans le sol au pouvoir de rétention de ce dernier au
début et à la fin de cette période.
Pour que les taux d’évapotranspiration mesurés soient représentatifs, il importe que le sol et
le couvert végétal du lysimètre soient identiques à ceux de la zone environnante et que les
perturbations engendrées par la présence de l’instrument soient réduites au minimum (OMM,
2010). On trouvera ci‑après les principales exigences en matière d’exposition des lysimètres.
Pour simuler le drainage naturel, il faut veiller à ce que ce processus s’effectue librement dans le
fond du récipient. La texture du sol oblige parfois à recourir à une pompe à vide pour y assurer
artificiellement l’aspiration requise.
À l’exception des microlysimètres servant à mesurer l’évaporation à partir du sol, les lysimètres
devraient être suffisamment vastes et profonds, et leur bord suffisamment bas, pour que le
couvert végétal y pousse librement et de façon représentative.
En général, le choix de l’emplacement des lysimètres est tributaire des mêmes exigences
concernant le fetch que les bacs d’évaporation (les instruments devraient être installés en dehors
de la zone d’influence des bâtiments, des arbres isolés, des autres instruments météorologiques,
etc.). Pour réduire au minimum les effets de l’advection, il convient de placer les lysimètres à
une distance suffisante (c’est‑à‑dire à au moins 100 à 150 m) de la bordure au vent de la zone
environnante. L’atténuation des effets de l’advection est particulièrement cruciale lorsqu’il s’agit
d’effectuer des mesures à la surface de terres irriguées.
Les mesures effectuées au moyen de lysimètres sont sujettes à diverses erreurs liées aux
perturbations des conditions naturelles imputables aux instruments eux‑mêmes. Parmi les
principales sources d’erreur, on peut mentionner:
ii) Les effets thermiques de l’air ascendant ou descendant qui circule entre le récipient et
les parois de retenue;
Certaines dispositions permettent de réduire les erreurs dont sont entachées les mesures
obtenues au moyen de lysimètres, comme l’ajustement de la température sous le récipient ou
l’installation de colliers à bride en vue d’atténuer le suintement vertical au niveau des parois.
Outre qu’il faut apporter grand soin à la conception des lysimètres, il importe également de
s’assurer de la bonne représentativité des diverses plantes et du sol utilisés pour étudier une zone
donnée. De plus, le terrain où est installé le lysimètre doit être parfaitement représentatif du
milieu naturel environnant.
L’entretien des dispositifs techniques varie selon le type d’instrument et ne peut donc être décrit
ici.
Il est recommandé de s’assurer au moins une fois par an que les lysimètres ne fuient pas en
recouvrant leur surface pour empêcher l’évapotranspiration et en vérifiant sur une période de
quelques jours si la quantité d’eau drainée est égale à la quantité d’eau ajoutée en surface.
L’examen des facteurs qui influent sur l’évaporation (voir la section 10.1.3) révèle que le taux
d’évaporation à partir d’une surface naturelle diffère nécessairement du taux calculé au moyen
d’un évaporomètre exposé aux mêmes conditions atmosphériques du fait de la disparité des
propriétés physiques des deux surfaces évaporantes.
Les méthodes qui conviennent le mieux à l’estimation de l’évaporation des lacs ou des réservoirs
sont le bilan hydrique, le bilan énergétique, les approches aérodynamiques, la méthode
combinant équations aérodynamiques et équations du bilan énergétique ainsi que l’utilisation
d’une relation de complémentarité entre l’évaporation réelle et l’évaporation potentielle. On
346 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
dispose en outre des techniques d’évaporation à partir d’un bac, qui permettent de déterminer
un coefficient lac‑bac. Ce coefficient varie selon le type de bac et son mode d’exposition; il est en
outre fonction des conditions climatiques (voir OMM, 1985, 2008 (Volume I, chapitre 4)).
L’Institut météorologique royal des Pays‑Bas applique la procédure mise au point par
G.F. Makkink (Hooghart, 1971) pour calculer l’évaporation quotidienne (24 h) de référence de la
végétation à partir de la température quotidienne moyenne de l’air et de la valeur quotidienne
du rayonnement global, à savoir:
1 000 ⋅ 0, 65 ⋅ δ (T )
Er = ⋅Q mm
{δ (T ) + γ (T )}⋅ ρ ⋅ λ (T )
En établissant une relation entre le taux mesuré d’évapotranspiration réelle et des estimations
du taux d’évapotranspiration potentielle, puis en reliant la valeur normalisée ainsi obtenue à la
teneur en eau, au déficit hydrique ou au potentiel hydrique du sol dans la zone des racines, il est
possible d’obtenir des coefficients qui permettent de calculer le taux d’évapotranspiration réelle
pour un sol ayant une teneur en eau donnée.
1
La constante 1 000 sert à convertir les mètres en millimètres; la constante 0,65 est une constante empirique type.
CHAPITRE 10. MESURE DE L’ÉVAPORATION 347
méthodes sont beaucoup plus coûteuses et nécessitent des instruments et capteurs spéciaux
pour mesurer l’humidité, la vitesse du vent et la température. Les estimations obtenues, valables
pour les types de sol et de couvert forestier étudiés, peuvent être utilisées comme valeurs de
référence indépendantes en vue de l’élaboration de relations empiriques pour la modélisation de
l’évapotranspiration.
Les difficultés que soulève l’évaluation de l’évapotranspiration au niveau des bassins versants sont
dues à la disparité des caractéristiques de surface, qui occasionne un taux d’évapotranspiration
variable au sein de la zone étudiée. Lorsqu’on souhaite obtenir des valeurs à court terme, il est
indispensable de se fonder sur des relations empiriques pour estimer l’évapotranspiration. Si
l’on mène une étude sur une période de temps plus longue (de façon à réduire au minimum
les effets de l’emmagasinement), on peut employer la méthode du bilan hydrique pour évaluer
l’évapotranspiration au niveau des bassins (voir OMM, 1971). Une approche appropriée aux
estimations sur de vastes étendues est la méthode fondée sur le bilan hydrique de l’atmosphère,
qui permet de déduire le taux d’évapotranspiration surfacique de données de radiosondage.
Pour plus de précisions sur ces méthodes, les avantages qu’elles présentent et leurs limites
d’application, on se reportera à la publication OMM (2008, Volume I, chapitre 4).
Il est difficile de mesurer l’évaporation à partir d’une couche de neige, et les résultats ne sont
probablement pas plus exacts que ceux qu’on peut obtenir par le calcul de l’évaporation de l’eau.
Pour mesurer l’évaporation à partir d’une couche de neige, on utilise dans de nombreux pays des
évaporomètres en polyéthylène ou en plastique incolore, les observations n’étant faites qu’en
l’absence de chute de neige.
Hooghart, J.C. (dir.), 1971: Evaporation and Weather. TNO Committee of Hydrological Research, Technical
Meeting 44, Proceedings and Information No. 39, TNO, La Haye.
Organisation météorologique mondiale, 1966: Measurement and Estimation of Evaporation and
Evapotranspiration. Technical Note No. 83 (WMO‑No. 201, TP. 105), Genève.
———, 1971: Problems of Evaporation Assessment in the Water Balance (C.E. Hounam). WMO/IHD Report
No. 13 (WMO-No. 285), Genève.
———, 1973: Atmospheric Vapour Flux Computations for Hydrological Purposes (J.P. Peixoto). WMO/IHD Report
No. 20 (WMO-No. 357), Genève.
———, 1976: The CIMO International Evaporimeter Comparisons (WMO-No. 449), Genève.
———, 1977: Hydrological Application of Atmospheric Vapour-Flux Analyses (E.M. Rasmusson). Operational
Hydrology Report No. 11 (WMO-No. 476), Genève.
———, 1985: Casebook on Operational Assessment of Areal Evaporation. Operational Hydrology Report No. 22
(WMO‑No. 635), Genève.
———, 1992: Vocabulaire météorologique international (OMM‑N° 182), Genève.
———, 1997: Estimation of Areal Evapotranspiration. Technical Reports in Hydrology and Water Resources
No. 56 (WMO/TD‑No. 785), Genève.
———, 2008: Guide des pratiques hydrologiques (OMM‑N° 168), Volumes I et II, Genève.
———, 2010: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
Organisation météorologique mondiale/Organisation des Nations Unies pour l’éducation, la science et la
culture (UNESCO), 2012: Glossaire international d’hydrologie (OMM‑N° 385), Genève.
TABLE DES MATIÈRES DU CHAPITRE
Page
11.1 GÉNÉRALITÉS
L’humidité du sol est une variable primordiale du cycle de l’eau, à la fois à petite échelle
(exploitation agricole) et à grande échelle (modélisation des interactions entre les surfaces
continentales et l’atmosphère). Les végétaux et les cultures sont plus tributaires de l’humidité
disponible au niveau des racines que des précipitations. L’information sur l’humidité du sol à
l’échelle locale est essentielle pour établir un bilan hydrique ou un calendrier d’irrigation. Des
connaissances précises sur le degré d’humidité du sol aident à comprendre l’apparition de
phénomènes de convection et à prévoir les risques de crue éclair ou les épisodes de brouillard.
L’humidité du sol a toutefois rarement été observée de manière régulière aux stations
météorologiques. La documentation relative à l’humidité du sol se limitait généralement à la
description de l’«état du sol» dans les tables de code de l’OMM 0901 et 0975, et la réalisation des
mesures était laissée aux bons soins des hydrologues, agronomes et autres parties activement
concernées. Au tournant des années 1990, les météorologues ont commencé à montrer plus
d’intérêt vis‑à‑vis de cette activité. Ce nouvel engouement était en partie attribuable au fait
qu’après les travaux de précurseur effectués par Deardorff (1978), les modèles numériques de
l’atmosphère à diverses échelles nécessitaient de plus en plus de données sur les flux de chaleur
latente et sensible dans les couches superficielles du sol. Par ailleurs, les techniques de mesure
récemment mises au point sont plus faciles à appliquer aux stations météorologiques que la
plupart des méthodes classiques.
Afin de satisfaire les besoins croissants en ce qui a trait à l’établissement de l’état de l’humidité
du sol, on examinera ici les techniques et les instruments les plus couramment employés, avec
leurs avantages et leurs inconvénients. Certaines méthodes d’observation moins courantes
seront également mentionnées. Le présent chapitre examine la mesure de l’humidité du sol aussi
bien in situ que par télédétection. Il y est également question de la télédétection par satellite, un
complément d’information à ce sujet figurant dans la partie III du présent guide.
11.1.1 Définitions
Pour déterminer l’humidité du sol, on mesure généralement soit la teneur en eau du sol, soit le
potentiel hydrique du sol.
La teneur en eau du sol est une expression de la masse ou du volume de l’eau présente dans le
sol, alors que le potentiel hydrique du sol est une expression de l’état énergétique de l’eau du
sol. La relation existant entre ces deux mesures n’est pas universelle et est conditionnée par les
propriétés du sol à l’échelle locale, comme la masse volumique du sol et sa texture.
La teneur en eau du sol, sur la base de la masse, est exprimée en degré d’humidité gravimétrique
du sol, θg, par la formule:
θ g = M water M soil (11.1)
où Mwater est la masse d’eau dans l’échantillon de sol et Msoil est la masse de sol séché contenu
dans l’échantillon. En météorologie, les valeurs de θg sont habituellement exprimées en
pourcentage.
sont souvent plus utiles. L’humidité volumique d’un échantillon de sol, θv, est déterminée par la
formule:
θ v = Vwater Vsample (11.2)
où Vwater est le volume d’eau dans l’échantillon de sol et Vsample est le volume total de sol séché
+ d’air + d’eau dans l’échantillon. Encore une fois, le rapport est généralement exprimé en
pourcentage. Il est à noter cependant que de nombreux groupes de chercheurs adoptent à
présent la teneur en eau volumique (m3/m3) comme norme pour exprimer l’humidité du sol. La
relation entre l’humidité gravimétrique et l’humidité volumique se définit ainsi:
θ v = θg ( ρ b ρ w ) (11.3)
où ρb est la masse volumique apparente du sol sec et ρw la masse volumique de l’eau du sol.
Le potentiel hydrique du sol, qui décrit l’état énergétique de l’eau dans le sol, est une propriété
importante pour l’analyse de l’écoulement de l’eau, les estimations de stockage de l’eau et les
relations sol‑plante‑eau. Une différence de potentiel hydrique entre deux emplacements indique
la tendance de l’eau à s’écouler, du fort potentiel vers un potentiel moindre. Lorsque le sol
s’assèche, la valeur négative du potentiel hydrique s’accroît, ce qui rend plus difficile l’extraction
de l’eau par les plantes. Ce phénomène peut se traduire par un stress chez les végétaux et, dans
les cas extrêmes, par un flétrissement aigu.
Par définition, le potentiel hydrique représente la capacité qu’a l’eau du sol de fournir un travail
ou, dans le cas d’un potentiel négatif, le travail nécessaire pour extraire l’eau du sol. Le potentiel
hydrique total, ψt, (effet combiné de tous les champs de force) peut s’exprimer par la formule:
ψ t = ψ z +ψ m +ψ o +ψ p (11.4)
dans laquelle ψz est le potentiel gravitationnel, fondé sur l’altitude au‑dessus du niveau moyen de
la mer; ψm le potentiel matriciel, succion attribuable à l’attraction de l’eau par la matrice du sol;
ψo le potentiel osmotique, dû aux effets énergétiques des solutés dans l’eau; et ψp le potentiel de
pression, c’est‑à‑dire la pression hydrostatique sous une surface d’eau.
Parmi ces potentiels, ceux qui ne sont pas liés à la composition de l’eau ou du sol, forment ce que
l’on appelle le potentiel hydraulique, ψ h. Dans un sol saturé, ce dernier s’exprime comme suit
ψ h = ψz + ψp, et ainsi ψ h = ψz + ψm, dans un sol non saturé. Lorsque l’expression «potentiel hydrique»
est utilisée dans des études, parfois avec le symbole ψw , il convient de vérifier la définition qu’en
donne l’auteur car ce terme peut être employé pour désigner ψm + ψz ou ψm + ψo.
Les gradients des différents potentiels peuvent ne pas toujours être efficaces pour provoquer
l’écoulement. Par exemple, ψo nécessite une membrane semi‑perméable pour induire
l’écoulement, et ψp existera dans des conditions de saturation ou de submersion, mais la plupart
des applications pratiques ont lieu dans un sol non saturé.
11.1.2 Unités
Pour résoudre les équations de bilan massique ou de continuité appliquées à l’eau, il faut se
rappeler que les composantes des paramètres de teneur en eau ne sont pas adimensionnelles. La
teneur en eau gravimétrique indique la masse d’eau contenue dans une unité de masse de sol (kg
d’eau/kg de sol sec). De même, la teneur en eau volumique indique une fraction de volume (m3
d’eau/m3 de sol).
352 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
L’unité fondamentale utilisée pour exprimer le potentiel hydrique est l’énergie (en
joules = kg m2 s–2) par unité de masse, J kg–1. Ou bien, l’énergie par unité de volume (J m–3) est
équivalente à la pression, exprimée en pascals (Pa = kg m–1 s–2). Les unités couramment utilisées
dans les ouvrages anciens sont le bar (= 100 kPa), l’atmosphère (= 101,32 kPa) ou la livre par
pouce carré (= 6,895 kPa). Une troisième catégorie d’unités est la hauteur piézométrique en
(centi)mètres d’eau ou de mercure, énergie par unité de masse. La relation des trois catégories
d’unité est la suivante:
( )
ψ J kg-1 = γ ⋅ψ ( Pa ) = ψ ( m ) g (11.5)
Si une grande quantité d’eau est ajoutée à un bloc de sol «sec», une partie sera drainée
rapidement par effet de gravité en passant par des fissures et des passages de taille relativement
grande. Le reste aura tendance à déplacer une partie de l’air se trouvant dans les espaces entre
les particules, à commencer par les espaces poreux les plus étendus. De manière générale,
un «front d’humectation» bien défini s’infiltrera dans le sol en laissant une couche de plus en
plus épaisse de sol retenant toute l’eau qu’elle peut contenir contre l’effet de la gravité. On dit
alors que la couche de sol a atteint la «capacité au champ», état qui, pour la plupart des sols,
correspond à une valeur approximative de ψm ≈ –33 J/kg, la fourchette des valeurs allant de
–1 J/kg pour les sols organiques à –100 J/kg pour les sols composés d’argile lourde. Il est possible
d’attribuer une valeur de –10 J/kg (pF ≈ 2) aux sols composés de sable limoneux. Il ne faut pas
confondre cet état avec les conditions non souhaitées de sol «saturé», où tous les espaces poreux
sont occupés par de l’eau. Après un épisode de saturation, comme une forte pluie, le sol a
généralement besoin d’une période d’au moins 24 heures pour parvenir à la capacité au champ.
Lorsque la teneur en humidité est inférieure à la capacité au champ, l’écoulement d’eau restreint
dans le sol qui en résulte est sous forme en partie liquide et en partie gazeuse sous l’action des
processus d’évaporation et de condensation (qui dépendent des gradients de température dans
le sol), et parfois du transport dans les racines des végétaux.
Les racines se trouvant dans le bloc pourront extraire l’eau liquide des pellicules d’eau autour
des particules de sol avec lesquelles elles sont en contact. La vitesse d’extraction est fonction du
potentiel hydrique du sol. Le «point de flétrissement permanent» est atteint lorsque la capacité
de succion des racines ne peut venir à bout des forces qui retiennent l’humidité autour des
particules de sol, laissant les plantes en manque d’eau et en perte de turgescence; dans la plupart
des cas, ce point équivaut à un potentiel hydrique du sol de –1,5 MPa (pF = 4,2). En agriculture,
la quantité d’eau contenue dans le sol et disponible pour les plantes correspond généralement
à la différence entre la capacité au champ et le point de flétrissement permanent, et elle varie
fortement selon la texture du sol. Dans un sol sableux, elle peut être inférieure à 10 % en volume,
alors que dans un sol renfermant beaucoup de matière organique, elle peut dépasser les 40 %.
bassin, ainsi que la détermination des effets sur les propriétés du sol, comme la résistance
mécanique, et la conductivité et diffusivité thermiques, il faut disposer de données sur la
teneur en eau du sol en profondeur. L’exactitude nécessaire pour établir la teneur en eau et la
résolution spatio‑temporelle à atteindre varient selon l’application. Un problème fréquent est
l’hétérogénéité des sols qui fait que les données recueillies à un emplacement spécifique ne
peuvent fournir une connaissance absolue de l’humidité des sols de la région, mais seulement
une indication relative de son évolution.
Les méthodes et instruments employés pour évaluer l’état de l’eau dans le sol peuvent
être classés de trois manières. Premièrement, il convient de faire une distinction entre la
détermination de la teneur en eau et la détermination du potentiel hydrique. Deuxièmement,
la méthode de mesure directe nécessite la disponibilité d’une parcelle de terrain représentative
dans laquelle un grand nombre d’échantillons puisse être collecté pour des évaluations
destructives en laboratoire. Les mesures indirectes font appel à un instrument placé dans le
sol pour mesurer certaines propriétés associées à l’humidité du sol. Troisièmement, on peut
regrouper les méthodes selon leur applicabilité opérationnelle, en tenant compte du travail
régulier à accomplir, du degré de dépendance vis‑à‑vis du travail en laboratoire, de la complexité
d’utilisation et de la fiabilité des résultats. Il convient, par ailleurs, de comparer les coûts
préliminaires d’acquisition des instruments aux coûts ultérieurs liés aux observations régulières
sur le terrain et au traitement des données.
Les études, comme celles de l’OMM (1968, 1989, 2001) et de Schmugge et al. (1980), dressent un
panorama très utile des problèmes pratiques, mais comme les méthodes de mesure diélectriques
ont été mises au point bien après 1980, il ne faudrait pas donner beaucoup de poids aux études
trop anciennes pour le choix d’une méthode.
Pour mesurer le potentiel hydrique du sol, on peut faire appel à plusieurs méthodes indirectes,
en particulier les tensiomètres, les blocs à résistance électrique et les psychromètres. À l’heure
actuelle, aucun de ces instruments ne peut couvrir la plage complète des valeurs possibles du
potentiel hydrique. Pour une revue approfondie de toutes les méthodes de mesure de l’humidité
du sol, on se reportera aux guides actualisées de Klute (1986), Dirksen (1999), Gardner et al.
(2001) et Mullins (2001).
La teneur en eau gravimétrique, θg, est généralement déterminée directement. Des échantillons
de sol d’environ 50 g sont prélevés sur le terrain à l’aide des meilleurs outils possible (pelles,
tarières hélicoïdales à main, tarières à godet, éventuellement carottiers mécaniques), en prenant
soin de perturber au minimum la structure de l’échantillon (Dirksen, 1999). Chaque échantillon
devrait être placé immédiatement dans un conteneur étanche sans soudure, pré‑pesé et
identifié. Comme les échantillons sont mis dans un four, le conteneur devrait pouvoir résister à
des températures élevées sans fondre ni perdre beaucoup de masse. Les conteneurs pour sol
354 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
les plus couramment utilisés sont des boîtes d’aluminium, mais l’on devrait avoir recours à des
conteneurs non métalliques si les échantillons sont séchés à l’intérieur de fours à micro‑ondes
dans le laboratoire. Si les échantillons doivent être transportés sur une grande distance, il
convient de les sceller à l’aide de ruban pour éviter la perte d’humidité par évaporation.
Si les échantillons de sol contiennent une quantité importante de matière organique, une
oxydation excessive peut se produire à 105 °C avec perte d’une partie de la matière organique.
Bien qu’il soit difficile de préciser la température spécifique à laquelle a lieu cette oxydation,
il semblerait que le fait d’abaisser la température de l’étuve de 105 à 70 °C suffit pour éviter
une perte importante de matière organique, mais les valeurs de teneur en eau risquent d’être
trop faibles. Les températures d’étuve et les temps de dessiccation devraient être vérifiés et
enregistrés.
Les mesures gravimétriques de l’eau d’un sol minéral séché à l’air (25 °C) sont d’ordinaire
inférieures à 2 %, mais à mesure que le sol approche de la saturation, la teneur en eau peut
augmenter jusqu’à des valeurs comprises entre 25 et 60 %, selon le type de sol. La teneur en eau
volumique du sol, θv, peut aller de moins de 10 % pour un sol séché à l’air, jusqu’à 40 à 50 % pour
un sol minéral approchant de la saturation. Pour déterminer cette dernière teneur, il faut mesurer
la masse volumique du sol, par exemple en recouvrant une motte de terre de paraffine et en la
pesant dans l’air et l’eau, ou en ayant recours à d’autres méthodes (Campbell et Henshall, 2001).
La présence de pierres ou de graviers affecte la mesure de la teneur en eau des sols. Quand les
pierres occupent un volume appréciable du sol, elles modifient la mesure directe de la masse du
sol, mais ne modifient pas la porosité du sol dans la même proportion. Supposons, par exemple,
que l’on obtienne une teneur en eau gravimétrique de 10 % pour un échantillon de sol ayant une
masse volumique apparente de 2 000 kg m–3; dans ce même échantillon, la fraction fine du sol
(sans pierres ni gravier), dont la masse volumique serait de 1 620 kg m–3, aurait une teneur en eau
égale à 20 %.
Bien que la teneur en eau gravimétrique de la fraction fine du sol, θg,fines, soit la valeur
normalement utilisée pour les comparaisons spatiales et temporelles, il peut y avoir aussi
nécessité de déterminer la teneur en eau volumique d’un sol graveleux. Cette dernière valeur
peut être importante pour calculer le volume d’eau dans la zone racinaire. La relation entre la
teneur en eau volumique de la fraction fine du sol et la teneur en eau volumique apparente est
donnée par la formule:
θ v,stony = θ g,fines ( ρ b ρ w ) (1 + M stones M fines ) (11.6)
dans laquelle θv,stony est la teneur en eau volumique apparente d’un sol contenant des pierres ou
des graviers et Mstones et Mfines sont respectivement la masse des pierres et celle de la fraction fine
du sol (Klute, 1986).
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 355
La capacité du sol à retenir l’eau est fonction, entre autres variables, de la texture et de la
structure du sol. En prélevant un échantillon du sol, on le perturbe et on altère sa capacité
de rétention de l’eau. Les méthodes indirectes de mesure de l’eau du sol présentent des
avantages: elles permettent notamment de recueillir de l’information au même endroit à chaque
observation, sans perturber le système sol‑eau. De plus, la plupart des méthodes indirectes
déterminent la teneur volumique en eau sans qu’il soit nécessaire de déterminer la masse
volumique du sol.
Pour mesurer la teneur en eau du sol, on a largement recours à deux méthodes radiologiques.
L’une d’elles est la méthode de diffusion des neutrons, qui est fondée sur l’interaction des
neutrons haute énergie (rapides) et des noyaux d’atomes d’hydrogène contenus dans le sol.
L’autre consiste à mesurer l’atténuation des rayons gamma lorsqu’ils traversent le sol. Les deux
font appel à de l’équipement portatif à utiliser sur des sites d’observation permanents, qui doit
être soigneusement étalonné, de préférence avec le sol dans lequel il va être utilisé.
Il est nécessaire de prendre certaines précautions lorsque l’on utilise des dispositifs à source
radioactive. Le fabricant fournit un écran qu’il faut utiliser à tout moment. La sonde ne doit
quitter l’écran que lorsqu’on la descend dans le tube d’accès. Quand on respecte les lignes
directrices et consignes données par les fabricants et les autorités sanitaires, il n’y a pas lieu
de craindre d’être exposé à une irradiation excessive, quelle que soit la fréquence d’utilisation
des appareils. L’opérateur devrait néanmoins porter un dosimètre photographique personnel
permettant d’évaluer et d’enregistrer mensuellement les niveaux d’exposition.
Pour la détection neutronique de l’humidité du sol (Visvalingam et Tandy, 1972; Greacen, 1981),
on a recours à une sonde qui émet des neutrons haute énergie (rapides) et à un détecteur de
neutrons ralentis, qui sont introduits dans le sol. Les noyaux d’hydrogène ayant à peu près la
même masse que les neutrons sont au moins dix fois plus efficaces que la plupart des autres
noyaux dans le sol pour ralentir les neutrons par collision. Comme la plus grande partie de
l’hydrogène contenu dans le sol se trouve dans les molécules d’eau, la concentration des
neutrons lents «thermalisés» au voisinage de la sonde est quasi proportionnelle à la teneur en
eau volumique du sol.
Après un certain nombre de collisions, une fraction des neutrons ralentis retourne à la sonde
et au détecteur. Lorsque la teneur en eau est importante, peu de neutrons sont capables de
franchir une grande distance avant d’être thermalisés et rendus sans effet; alors, 95 % des
neutrons détectés proviennent d’un volume de sol relativement petit. Dans un sol humide, le
«rayon d’influence» peut n’être que de 15 cm, alors que dans un sol sec, il peut atteindre les
50 cm. Comme le volume de sol mesuré varie en fonction de la teneur en eau, il est impossible de
résoudre des couches minces. Cette méthode n’est par conséquent pas idéale pour localiser les
discontinuités de la teneur en eau et ne peut donner de bons résultats dans la couche supérieure
de 20 cm du sol, à cause de la discontinuité sol‑air.
Plusieurs dispositifs source‑détecteur sont possibles avec une sonde à neutrons, mais la meilleure
solution consiste à avoir recours à une sonde dotée d’un détecteur double et d’une source
centrale, habituellement dans un conteneur cylindrique. Un tel dispositif permet d’obtenir une
zone d’influence quasi sphérique et autorise une relation plus linéaire entre le dénombrement
des neutrons et la teneur en eau du sol.
La sonde est reliée par un câble aux circuits électroniques centraux, de façon à pouvoir
descendre dans un tube d’accès préalablement installé. Le tube d’accès devrait être sans soudure
et présenter une épaisseur de paroi suffisante (au moins 1,25 mm) pour être rigide, mais pas
au point de contribuer significativement au ralentissement des neutrons. Ce tube doit être en
356 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Pour améliorer la reproductibilité expérimentale, la teneur en eau du sol n’est pas directement
comparée au nombre de neutrons lents détectés, mais à un rapport de comptage (CR), défini par
la formule suivante:
CR = Csoil Cbackground (11.7)
où Csoil est le compte de neutrons thermalisés détectés dans le sol et Cbackground le compte de
neutrons thermalisés détectés sur une plate‑forme de référence. Toutes les sondes neutroniques
sont livrées maintenant avec une plate‑forme de référence aux fins d’étalonnage, généralement
en fonction de l’eau. Cette plate‑forme, sur laquelle est placée la sonde, devrait avoir un diamètre
minimum de 0,5 m, de manière à représenter un milieu «infini». L’étalonnage pour déterminer
Cbackground peut être effectué par une série de dix lectures d’une minute, dont on peut faire la
moyenne, ou par une seule lecture d’une heure. Csoil est établi à partir de la moyenne de plusieurs
lectures de sol à une profondeur/emplacement donné. Pour l’étalonnage, il vaut mieux prélever
trois échantillons autour du tube d’accès et faire la moyenne des teneurs en eau correspondant
au CR moyen calculé pour la profondeur visée. Il faudrait faire un minimum de cinq mesures de
teneur en eau pour chaque profondeur. Bien que certaines courbes d’étalonnage puissent se
ressembler, il est préférable de procéder à un étalonnage pour chaque profondeur de relevé. La
durée de vie de la plupart des sondes est de plus de dix ans.
Alors que la méthode neutronique permet de mesurer la teneur en eau volumique à l’intérieur
d’une grande sphère, la méthode d’absorption du rayonnement gamma est capable d’explorer
une couche mince. Le dispositif à double sonde est maintenant surtout utilisé au laboratoire
depuis que l’on a recours aux méthodes diélectriques sur le terrain. Cela s’explique également
par le fait que les appareils à rayonnement gamma sont plus dangereux à utiliser que les
équipements à diffusion de neutrons, et que les coûts d’exploitation associés sont relativement
élevés.
Les variations d’atténuation des rayons gamma pour un coefficient d’absorption massique donné
peuvent être mises en rapport avec les variations de la masse volumique totale du sol. Comme
l’atténuation des rayons gamma est due à la masse, il est impossible de déterminer la teneur en
eau à moins de connaître l’atténuation qui correspond à la masse volumique du sol sec local. En
outre, la masse volumique du sol sec doit demeurer inchangée quand la teneur en eau varie. Il
n’est donc pas aisé de déterminer avec exactitude la teneur en eau du sol à partir de la différence
entre les valeurs d’atténuation pour la masse volumique totale et la masse volumique du sol sec.
Quand un substrat est placé dans le champ électrique d’un condensateur ou d’un guide d’ondes,
son influence sur les forces électriques présentes dans ce champ est exprimée sous la forme du
rapport entre les forces dans ce substrat et les forces qui existeraient dans le vide. Ce rapport,
appelé permittivité ou «constante diélectrique», est 20 fois plus grand pour l’eau liquide que
pour le sol sec moyen, car les molécules d’eau constituent des dipôles permanents. Les propriétés
diélectriques de la glace et de l’eau fixée à la matrice de sol sont comparables à celles d’un
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 357
sol sec. On peut donc déterminer la teneur volumétrique de l’eau libre dans le sol à partir des
caractéristiques diélectriques du sol humide au moyen de méthodes de mesure fiables, rapides
et non destructives, sans les risques potentiels associés aux dispositifs à source radioactive. Par
ailleurs, ces méthodes diélectriques peuvent être entièrement automatisées pour l’acquisition
des données. Pour le moment, deux méthodes d’évaluation des propriétés diélectriques de l’eau
dans le sol sont disponibles et fréquemment utilisées, à savoir la réflectométrie dans le domaine
temporel et les mesures dans le domaine fréquentiel.
La réflectométrie dans le domaine temporel est une méthode qui détermine la constante
diélectrique du sol en suivant le déplacement d’une impulsion électromagnétique, transmise
le long d’un guide d’ondes formé par une paire de tiges parallèles enfouies dans le sol.
Cette impulsion est réfléchie à l’extrémité du guide d’ondes et sa vitesse de propagation,
qui est inversement proportionnelle à la racine carrée de la constante diélectrique, peut être
correctement mesurée grâce aux dispositifs électroniques modernes.
La relation la plus couramment utilisée entre les propriétés diélectriques du sol et la teneur en
eau du sol a été exprimée expérimentalement par Topp et al. (1980) de la façon suivante:
où ε est la constante diélectrique du système sol‑eau. Cette relation empirique s’est avérée
applicable à de nombreux types de sols, quelles que soient, dans la plupart des cas, leur texture
et leur teneur en gravier (Drungil et al., 1989). Il est toutefois souhaitable de procéder à un
étalonnage lorsque le sol présente une masse volumique faible ou une teneur élevée en matières
organiques. Pour les mélanges complexes de sol, l’équation De Loor s’est révélée utile (Dirksen et
Dasberg, 1993).
Généralement, les tiges parallèles sont séparées de 5 cm et leur longueur varie de 10 à 50 cm;
elles peuvent être faites d’un métal quelconque. Le volume d’échantillonnage correspond
essentiellement à un cylindre de quelques centimètres de rayon autour des tiges parallèles
(Knight, 1992). La longueur du câble coaxial qui relie la sonde au dispositif de traitement des
signaux ne devrait pas dépasser les 30 m. On peut obtenir des profils de l’eau dans le sol à partir
d’un ensemble de sondes enfouies horizontalement à différentes profondeurs et reliées à un
enregistreur de données de terrain à travers un multiplexeur.
Alors que la réflectométrie dans le domaine temporel a recours aux hyperfréquences dans la
plage des gigahertz, les sondes dans le domaine fréquentiel mesurent la constante diélectrique
à une seule fréquence située dans la plage des mégahertz. Celles‑ci comportent un câble coaxial
ouvert et un seul réflectomètre à l’extrémité pour mesurer l’amplitude et la phase sur une
fréquence particulière. Les mesures dans le sol sont faites par référence à l’air et généralement
étalonnées avec des blocs diélectriques ou des liquides de propriétés diélectriques connues ou
les deux. L’avantage d’utiliser des liquides pour l’étalonnage est que l’on est assuré d’un contact
diélectrique constant entre l’extrémité de la sonde et le matériau (Jackson, 1990).
Du fait qu’on emploie l’extrémité d’une seule petite sonde, on ne peut analyser qu’un volume
réduit de sol et le contact avec le sol est primordial. Il en résulte que cette méthode est excellente
pour les mesures en laboratoire ou les mesures ponctuelles, mais elle est vraisemblablement
sujette à des problèmes de variabilité spatiale lorsqu’on l’utilise sur le terrain (Dirksen, 1999).
Les instruments capables de mesurer le potentiel matriciel sont suffisamment fiables et peu
coûteux pour être utilisés dans les programmes de surveillance sur le terrain. Dans chaque cas,
358 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
cependant, l’instrument ne fonctionne correctement que sur une plage limitée de potentiels
hydriques. Par exemple, les tensiomètres ne sont efficaces que dans des sols humides, alors que
les blocs à résistance électrique conviennent mieux aux sols modérément secs.
11.4.1 Tensiomètres
De tous les appareils de mesure du potentiel hydrique, le tensiomètre est le plus largement utilisé
et le moins cher. C’est un dispositif simple, qui se compose généralement d’une capsule poreuse
en céramique et d’un tube en plastique scellé la reliant à un appareil d’enregistrement de la
pression qui ferme le haut du tube. Il peut mesurer le potentiel matriciel du fait que les solutés
peuvent circuler librement à travers la capsule poreuse.
Si le potentiel hydrique du sol augmente, l’eau se déplace du sol vers le tensiomètre, ce qui se
traduit par la lecture d’un potentiel en eau moins négatif. Cet échange d’eau entre le sol et le
tensiomètre et l’exposition du tensiomètre à des potentiels négatifs vont forcer les gaz dissous
à s’échapper de la solution sous forme de bulles. La formation de ces bulles dans le tube du
tensiomètre entraîne des lectures de pression erronées. Il faut aussi noter comme restriction que,
dans la pratique, ψ ≈ –85 kPa est la limite inférieure de fonctionnement du tensiomètre. Au‑delà
de –100 kPa (≈ 1 atm), l’eau bout à la température ambiante et des bulles se forment qui vont
détruire le vide à l’intérieur du tube du tensiomètre. En conséquence, il faut de temps en temps
désaérer le tube avec une pompe à vide manuelle et le remplir à nouveau.
En cas de sécheresse, une quantité d’eau importante peut passer du tensiomètre dans le sol. Les
tensiomètres risquent donc d’altérer la condition même qu’ils sont censés mesurer. Une autre
preuve de ce processus est la forte densité racinaire souvent observée au voisinage immédiat des
capsules en céramique après avoir retiré l’instrument enfoui dans le sol. Dans ces conditions où
l’instrument «irrigue» le sol, une telle quantité d’eau est perdue par la capsule en céramique que
le vide dans le cylindre ne peut pas être maintenu, ce qui cause l’arrêt des mesures.
Avant la mise en place, mais une fois seulement que le tensiomètre a été rempli d’eau et
désaéré, la capsule de céramique doit rester humide. Pendant son transport du laboratoire à son
emplacement sur le terrain, il faut la maintenir dans cet état en l’entourant de chiffons mouillés
ou en la plaçant dans un récipient d’eau. Sur le terrain, on prépare un trou du diamètre voulu
pour bien épouser la forme du tube et d’une profondeur permettant au tensiomètre de dépasser
suffisamment du sol pour pouvoir le désaérer et le remplir au besoin. Étant donné que la capsule
de céramique doit rester en contact avec le sol, il convient, dans des sols pierreux, de préparer
une boue liquide avec la terre du trou et de l’y verser avant d’y introduire le tensiomètre. Une
fois le tensiomètre en place, il faudrait veiller aussi à ce que le trou soit rempli correctement,
en éliminant toute poche qui pourrait entraîner l’accumulation d’eau autour de l’appareil.
Cette dernière précaution permet de minimiser la descente de l’eau le long de la paroi du tube,
déplacement qui pourrait provoquer des conditions sol‑eau non représentatives.
Bien qu’une faible portion de l’instrument soit soumise aux conditions ambiantes, l’interception
des rayons solaires peut provoquer la dilatation thermique du tube dans sa partie supérieure.
En outre, les gradients de température de la surface du sol à la capsule de céramique peuvent
amener une dilatation ou un retrait thermique de sa partie inférieure qui fausse les lectures de
potentiel hydrique. Pour réduire au minimum ces effets, le tube devrait être mis à l’ombre et
fabriqué en matériau non conducteur, et des lectures devraient être faites chaque jour à la même
heure, de préférence tôt le matin.
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 359
Soulignons l’apparition du tensiomètre osmotique, dont le tube est rempli d’une solution de
polymère afin de mieux fonctionner dans des sols secs. Pour de plus amples indications sur les
tensiomètres, on se reportera à Dirksen (1999) et Mullins (2001).
Bien que les blocs à résistance électrique soient insensibles aux potentiels hydriques dans la
partie humide de la plage de mesure, ce sont d’excellents compléments du tensiomètre. Ces
blocs se composent d’électrodes placées dans un type quelconque de matériau poreux qui finit
par atteindre un quasi‑équilibre hygrométrique avec le sol environnant après environ deux jours.
Les matériaux les plus couramment utilisés sont l’étoffe de nylon, la fibre de verre et le gypse,
avec une plage de fonctionnement allant d’environ –50 kPa (pour le nylon) ou –100 kPa (pour le
gypse) jusqu’à –1 500 kPa. Généralement, la taille des blocs est de 4 cm x 4 cm x 1 cm. Les blocs
en gypse durent quelques années, mais se détériorent plus rapidement dans des conditions de
sol très humide ou salin (Perrier et Marsh, 1958).
Comme les blocs à résistance électrique ne dépassent pas de la surface du sol, ils conviennent
parfaitement aux réseaux agricoles semi‑permanents destinés à fournir des profils de potentiel
hydrique, lorsque les installations sont réalisées avec soin et de manière systématique (OMM,
2001). Avant de faire le trou pour enfouir les blocs, il vaut mieux creuser une petite tranchée
pour y placer les fils de connexion, afin de réduire au minimum l’écoulement de l’eau le long
de ces fils vers le bloc. Un problème peut aussi se poser lorsque le sol se contracte ou se gonfle,
car le contact avec le bloc risque d’être rompu. En revanche, ces dispositifs n’influent pas sur la
distribution des racines de végétaux.
Les blocs à résistance électrique sont relativement peu coûteux, mais il convient de les étalonner
individuellement. On le fait généralement en les saturant d’eau distillée et en les soumettant
à une pression déterminée dans un appareil à plaque de pression (Wellings et al., 1985). Cette
procédure devrait être reprise à au moins cinq pressions différentes avant la mise en place.
Malheureusement, la résistance est moindre sur une courbe de dessiccation que sur une courbe
d’humidification, provoquant ainsi des erreurs d’hystérésis sur le terrain, car les blocs sont longs
à atteindre l’équilibre avec des sols d’humidité différente (Tanner et Hanks, 1952). Les courbes
d’étalonnage ayant tendance à se modifier à l’usage, il faut reprendre l’étalonnage avant chaque
installation et procéder à des vérifications régulières après coup, en laboratoire ou sur le terrain.
11.4.3 Psychromètres
Les psychromètres sont employés pour la recherche en laboratoire portant sur des échantillons
de sol et servent de référence pour d’autres techniques (Mullins, 2001). Une version de terrain est
également disponible, appelée psychromètre à thermocouple de Spanner (Rawlins et Campbell,
1986). Cet instrument se compose d’un thermocouple miniature, placé dans une petite chambre
à paroi poreuse et refroidi par effet Peltier, qui condense l’eau à la jonction de deux fils. À mesure
que l’eau s’évapore, la température de cette jonction décroît, ce qui produit un courant que l’on
mesure. Ces appareils répondent rapidement aux variations de potentiel hydrique du sol, mais
sont très sensibles à la température et à la salinité (Merrill et Rawlins, 1972).
Le potentiel hydrique le plus bas généralement associé à l’absorption active d’eau par les plantes
correspond à une humidité relative d’environ 98 à 100 %. Cela signifie que si l’on veut mesurer
le potentiel hydrique à 10 kPa près, il faut contrôler la température à au moins 0,001 K près.
L’utilisation des psychromètres de terrain convient donc surtout aux potentiels matriciels bas,
360 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
c’est‑à‑dire moins de ‑300 kPa. En outre, comme les composants de l’instrument ont une capacité
thermique différente, les variations de la température diurne peuvent provoquer des gradients
de température dans le psychromètre (Brunini et Thurtell, 1982). Il faudrait donc éviter de se
servir de psychromètres à thermocouple de Spanner à des profondeurs inférieures à 0,3 m et
il vaudrait mieux faire des lectures chaque jour à la même heure, de préférence tôt le matin.
En conclusion, la psychrométrie du sol est une méthode difficile et exigeante, même pour les
spécialistes.
(
n = 4 σ 2 L2 ) (11.9)
fonde sur des unités de paysage présentant un comportement hydrologique interne cohérent.
Cette méthode garantit une validation fiable du point de vue statistique par une réduction de la
variance sur l’empreinte et diminue les risques d’erreur systématique dans l’échantillonnage.
Il a été souligné précédemment dans ce chapitre qu’un emplacement unique ne peut donner une
connaissance absolue de l’humidité du sol à l’échelle régionale. L’humidité du sol présente une
grande variabilité tant dans l’espace que dans le temps; ce paramètre est donc difficile à mesurer
à une échelle continentale ou mondiale utile pour les chercheurs (Seneviratne et al., 2010). La
télédétection par satellite répond à ce besoin en fournissant des observations de l’humidité du
sol en surface, à l’échelle mondiale, selon une fréquence se situant entre un et deux jours et sous
diverses conditions.
Au cours des dernières décennies, de nombreux jeux de données sur l’humidité du sol ont été
établis à partir des mesures effectuées par différents instruments embarqués sur des satellites
et traitées à l’aide d’algorithmes différents (Owe et al., 2001; Njoku et al., 2003; Naeimi et al.,
2009). Pour un certain nombre, ces jeux de données, provenant d’observations réalisées par des
instruments à hyperfréquences aussi bien actifs que passifs, ont été récemment assemblés (Liu
et al., 2011) pour constituer un ensemble de données mondial sur l’humidité du sol couvrant les
30 années écoulées (Liu et al., 2012).
Les observations par télédétection se sont révélées particulièrement utiles pour recueillir des
données sur l’humidité du sol à l’échelle mondiale, mais les mesures réalisées in situ demeurent
indispensables pour étalonner et valider les valeurs de ce paramètre extraites des données
fournies par les satellites. L’ISMN, qui fournit une base de données mondiale sur les observations
in situ de l’humidité du sol, a été constitué principalement pour valider les produits des satellites.
De nombreux travaux de validation ont été conduits pour évaluer la qualité des produits de la
télédétection à l’aide de mesures in situ (Albergel et al., 2012; Matgen et al., 2012; Pathe et al.,
2009; Su et al., 2013; Wagner et al., 2008). Les caractéristiques des erreurs associées aux différents
produits portant sur l’humidité du sol ont en outre fait l’objet de nombreuses études (Dorigo et
al., 2010; Draper et al., 2013). Les résultats obtenus montrent que la plupart des produits établis à
partir des observations de la télédétection décrivent relativement bien les variations saisonnières
ou à court terme. Toutefois, à comparer aux données in situ et à celles issues de la modélisation,
les erreurs systématiques touchant la valeur absolue et l’intervalle de mesure peuvent être
importantes.
Le lecteur trouvera dans les paragraphes qui suivent un aperçu des fondements théoriques sur
lesquels reposent les différentes techniques de télédétection, le fonctionnement des instruments
équipant les satellites et les algorithmes utilisés.
362 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
11.6.1.1 Introduction
Les hyperfréquences sont des ondes électromagnétiques d’une longueur d’onde allant de 1 m
à 1 cm, ce qui correspond à des fréquences allant de 0,3 à 300 GHz. Cela confère à ces ondes
des propriétés particulières, notamment celle de pouvoir traverser l’atmosphère terrestre sans
problème, indépendamment de la couche nuageuse, ce qui offre la possibilité d’observer la
surface par tous les temps. En outre, ces ondes n’étant pas liées à l’éclairement par le soleil, les
mesures peuvent être effectuées de jour comme de nuit.
Le rayonnement en hyperfréquences peut interagir avec les cibles dans leur volume et ce,
compte tenu de sa longueur d’onde relativement grande et du fait qu’il n’est pas immédiatement
réfléchi par la surface. Il est ainsi possible de recueillir des informations relatives aux conditions
internes de la végétation ou des sols par exemple. En règle générale, plus la longueur d’onde est
grande, plus le rayonnement peut pénétrer dans les volumes. Par contre, dans le domaine visible,
les ondes n’interagissent qu’en surface pour nous donner des indications sur la couleur et la
luminosité visibles.
25 ɛ’
Limon
20
Constante diélectrique
15
10
ɛ
5
0
0,0 0,1 0,2 0,3 0,4 0,5
Humidité volumique du sol
Figure 11.1. Relation entre la constante diélectrique complexe (ε’ et ε’’ étant respectivement
les quantités correspondant aux composantes réelles et imaginaires du signal) et l’humidité
volumique d’un sol limoneux à une fréquence de 5 GHz (selon Hallikainen et al., 1985)
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 363
Dans le cas d’une observation à partir d’un emplacement situé au‑dessus de la canopée, la
végétation a une double influence sur les émissions d’hyperfréquences: premièrement, la
végétation absorbe ou diffuse le rayonnement émis par le sol; deuxièmement, la végétation
émet elle‑même son propre rayonnement. Lorsque la canopée est suffisamment dense, le
rayonnement émis par le sol est totalement masqué. Dans ce cas, le rayonnement observé sera
principalement celui de la végétation. En général, toutes les bandes de fréquences utilisées à
des fins de télédétection par hyperfréquences de l’humidité du sol sont sensibles aux effets de la
végétation; il convient alors d’apporter des corrections aux données. Les bandes de fréquences
les plus élevées sont les plus sensibles aux effets de la végétation.
Les systèmes passifs, tels les radiomètres, enregistrent la température de luminance de la surface
terrestre. Il existe une relation entre la température de luminance et la quantité de rayonnement
émis (et donc de la réflexion) décrite par l’approximation de Rayleigh‑Jeans de la loi de Planck.
Cette loi stipule que la température de luminance est une fonction de la température physique
et de l’émissivité. La quantité de rayonnement émis est fonction de la constante diélectrique du
corps source du rayonnement, ce que décrivent les formules de Fresnel sur la réflexion.
Depuis 1978, plusieurs instruments passifs ont été mis en orbite pour fournir des données
mondiales de la surface terrestre et océanique (figure 11.2). Ce fut tout d’abord le radiomètre
en hyperfréquences à balayage multibande (SMMR, 1978–1987), puis l’imageur en
hyperfréquences spécialisé (SSM/I, depuis 1987) ou l’imageur TRMM (mission pour la mesure
des pluies tropicales, depuis 1997) et, plus récemment, les radiomètres hyperfréquences
perfectionnés (AMSR‑E, 2002–2011 et AMSR‑2, depuis 2012), le radiomètre WindSat sur Coriolis
(depuis 2003) ou encore les instruments embarqués sur la série des satellites chinois Fengyun‑3
(depuis 2010). Initialement, ces instruments n’ont pas été conçus pour observer l’humidité
du sol mais pour mesurer les précipitations, l’évaporation, la température de surface de la
mer et des paramètres cryosphériques. Cependant, dès les années 70, des études mirent en
évidence la possibilité d’extraire l’humidité du sol des mesures de la température de luminance
effectuées dans cette bande spectrale. Le gros avantage que présentent les radiomètres, c’est
qu’ils fournissent des données multispectrales dans les hyperfréquences depuis 1978, ce qui a
permis de constituer de longues séries de données dont on peut extraire des tendances et des
anomalies.
Les instruments utilisés pour la télédétection de l’humidité du sol fonctionnent à des fréquences
allant de 6,6 à 10,7 GHz. Il faut tenir compte du fait que, dans cette bande spectrale, une
fréquence relativement élevée est synonyme d’une moindre exactitude des estimations de
l’humidité du sol étant donné que l’atténuation attribuée à la végétation augmente et que le
facteur de pénétration diminue. Il en résulte que les valeurs obtenues à partir des instruments
suivants: SMMR (6,6 GHz), AMSR‑E (6,9 GHz), WindSat (6,8 GHz) et AMSR‑2 (6,9 GHz), tendent
à fournir le meilleur degré d’exactitude. Ces capteurs présentent aussi un autre avantage: la
résolution spatiale et l’exactitude radiométrique se trouvent grandement améliorées. L’AMSR‑E
offre une résolution spatiale de 56 km pour des produits présentant l’humidité du sol suivant une
grille de résolution de 0,25°.
11.6.1.3 Diffusiomètres
Le diffusiomètre est un instrument actif qui émet en continu un signal en hyperfréquences sous
la forme de courtes impulsions directionnelles d’énergie vers la surface terrestre et détecte
l’énergie rétrodiffusée. La quantité d’énergie rétrodiffusée varie en fonction des propriétés
géométriques et diélectriques de la surface; elle est généralement appelée surface équivalente
radar normalisée ou coefficient de rétrodiffusion (sigma zéro, σ 0). Au détriment de la portée
et de la résolution spatiale, les diffusiomètres surpassent d’autres types de radars en matière
d’exactitude et de stabilité de la mesure de la surface équivalente radar d’une cible. Initialement,
les diffusiomètres radar avaient été mis au point et conçus pour la télédétection spatiale de la
vitesse et de la direction du vent au‑dessus des océans. Plusieurs études ont mis en lumière
cependant les capacités des diffusiomètres s’agissant d’applications terrestres telle la surveillance
364 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Metop-A/B ASCAT
Mode actif
AMSR-2
Mode passif
Figure 11.2. Capteurs hyperfréquences actifs et passifs permettant d’obtenir
des données sur l’humidité du sol
de l’humidité du sol (Magagi et Kerr, 1997; Pulliainen et al., 1998; Wagner et al., 1999). Les
diffusiomètres européens, qui fonctionnent sur des longueurs d’onde plus grandes (5,3 GHz)
que les diffusiomètres étasuniens (14 GHz), sont mieux adaptés à la restitution de données sur
l’humidité du sol.
Compte tenu de leur conception particulière, les diffusiomètres européens embarqués à bord
des satellites européens de télédétection (ERS) et des satellites météorologiques opérationnels
(Metop) permettent l’extraction de données sur l’humidité du sol à l’échelle mondiale suivant
une couverture presque quotidienne. Les deux types de diffusiomètres, à savoir l’instrument
hyperfréquences actif (AMI) en mode vent installé à bord des satellites ERS (Attema, 1991) et
le diffusiomètre perfectionné (ASCAT) à bord des satellites Metop (Figa‑Saldaña et al., 2002),
fonctionnent dans la bande C (5,3 GHz) avec une longueur d’onde d’environ 5,6 cm. Ils se
différencient principalement par leur nombre d’antennes à visée latérale et par la portée des
angles d’incidence observés. L’AMI fournit une résolution spatiale d’environ 50 km tandis que les
produits de l’ASCAT offrent des résolutions spatiales de 25 km et de 50 km.
Les radars à synthèse d’ouverture ou à ouverture synthétique (RSO ou ROS), utilisés à bord
d’aéronefs ou de satellites, sont des systèmes de détection hyperfréquences actifs offrant une
meilleure résolution spatiale que les diffusiomètres grâce à un traitement du signal évolué. Ce
sont des radars imageurs à balayage latéral qui fonctionnent comme les diffusiomètres et dans le
même domaine spectral. Outre leurs applications en hydrologie, les systèmes RSO peuvent servir
à extraire avec précision des géométries tridimensionnelles, compte tenu de leurs propriétés
interférométriques.
En se déplaçant, le radar imageur à balayage latéral recueille des données latéralement par
rapport à la trajectoire qu’il décrit au sol. La résolution spatiale des radars est fonction de la
taille réelle (restreinte) de son antenne, soit l’ouverture. En tirant parti du déplacement de la
plate‑forme dans le sens de la trace au sol, un système RSO simule la résolution d’une grande
antenne au fur et à mesure qu’il enregistre en continu l’amplitude et la phase des cibles au sol
tant qu’elles lui sont visibles. La même cible est ainsi balayée de nombreuses fois, le traitement
opérant une somme cohérente du signal ce qui permet d’imager les petits objets se trouvant
dans la cellule de résolution sondée au sol. Toutefois, une consommation d’énergie importante
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 365
et une empreinte de faisceau relativement petite se traduisent par une fréquence de passage
relativement grande au‑dessus d’un même emplacement et donc par une résolution temporelle
inférieure actuellement aux autres systèmes hyperfréquences.
Comme cela a déjà été précisé, plus les fréquences sont basses, moins elles sont sensibles aux
interactions de la végétation, si bien qu’on estime qu’elles conviennent mieux à la restitution de
l’humidité du sol. C’est pourquoi les deux premières missions spatiales spécialement conçues
pour fournir des données sur l’humidité du sol reposent sur des instruments fonctionnant en
bande L (1,4 GHz). Les missions SMOS (humidité du sol et salinité de l’océan) et SMAP (mesure
active et passive de l'humidité du sol) ont pour objectif de fournir la valeur absolue de l’humidité
du sol avec une erreur quadratique moyenne inférieure ou égale à 0,04 m3/m3.
La mission SMOS a été lancée avec succès par l’ESA le 2 novembre 2009. À bord du satellite
SMOS, l’instrument de conception originale offre une résolution spatiale permettant de mesurer
l’humidité du sol. Appelé MIRAS, ce radiomètre interférométrique à synthèse d’ouverture simule,
à l’aide de 69 petites antennes, l’antenne plus grande qu’il faudrait déployer pour obtenir la
résolution spatiale utile pour les mesures. MIRAS mesure la température de luminance avec une
résolution spatiale de 30 à 50 km en produisant tous les deux à trois jours une carte complète de
la surface terrestre.
Il est prévu que la NASA (Administration américaine pour l'aéronautique et l'espace) lance
la mission SMAP le 31 janvier 2015. Comme dans le cas de la mission SMOS, le satellite est
équipé d’un instrument hyperfréquences passif fonctionnant dans la bande L pour améliorer
sa sensibilité à l’humidité du sol. De conception, ce radiomètre est cependant très différent du
MIRAS, puisqu’il est doté d’une antenne à ouverture réelle ayant la forme d’un grand réflecteur
parabolique rotatif de 6 m de diamètre. Les mesures fournissent une résolution spatiale de
40 km. Le satellite embarque en outre un radar actif qui effectue les mêmes mesures, mais avec
une résolution spatiale de 1 à 3 km. En combinant les mesures actives et passives, le système
SMAP fournit des produits sur l’humidité du sol offrant une résolution spatiale de 10 km.
Pour obtenir des données sur l’humidité du sol, il faut disposer de modèles pouvant tenir compte
des effets de la végétation et de la rugosité de surface quand ils convertissent l’intensité du signal
hyperfréquences reçu en valeurs du paramètre en question. Il y a lieu de noter encore une fois
qu’une longueur d’onde relativement courte produit des performances relativement médiocres
en raison de la diffusion due à la végétation et à une moindre profondeur de pénétration.
L’extraction de données sur l’humidité du sol se révèle impossible dans les zones de végétation
dense, notamment les forêts tropicales humides, car les ondes en bande L et en bande C ne
peuvent traverser la canopée. Par ailleurs, une telle extraction n’est acceptable que pour des sols
libres de neige et de gel.
Les systèmes passifs mesurent la température de luminance dans les hyperfréquences pour en
déduire indirectement les valeurs de l’émissivité qui alimentent ensuite le modèle de transfert
radiatif. Il faut aussi disposer d’autres données auxiliaires portant sur la température, la rugosité
ou la texture du sol et sur d’autres paramètres encore dans la zone observée. Du système
366 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
AMSR‑E, on tire des données découlant d’observations passives par hyperfréquences grâce à
l’algorithme d’extraction VUA‑NASA mis au point par l’Université libre d’Amsterdam (VUA) et
la NASA pour le modèle d’extraction de paramètres terrestres (LPRM) que décrivent Owe et al.
(2001), grâce aux produits officiels de la NASA basés sur le système AMSR‑E (Njoku et al., 2003;
Njoku, 2004) ou grâce à l’algorithme d’extraction de l’Université du Montana (Jones et al., 2009;
Jones et Kimball, 2010). Tous ces algorithmes d’extraction reposent sur les équations du transfert
radiatif. Ils présentent cependant de nettes différences et ne produisent pas les mêmes valeurs de
l’humidité du sol. L’algorithme d’extraction VUA‑NASA fournit simultanément l’épaisseur optique
de la végétation et la constante diélectrique du sol. L’humidité du sol est calculée à l’aide du
modèle de mélange de Wang–Schmugge (Wang et Schmugge, 1980).
L’instrument de la mission SMOS propose un produit opérationnel pour l’humidité du sol (Kerr
et al., 2012). L’algorithme d’extraction utilisé repose sur une approche itérative qui recherche le
meilleur compromis entre les températures de luminance modélisées et les mesures directes pour
trouver le meilleur jeu de paramètres, y compris l’humidité du sol et la végétation. Il est possible
de télécharger les données SMOS de niveau 2 de l’humidité du sol sur le site ESA Earthnet Online
(https://earth.esa.int/web/guest/-/how-to-obtain-data-7329).
Les instruments actifs mesurent l’intensité de l’énergie rétrodiffusée, qui est fonction de la
rugosité et des propriétés diélectriques de la surface, ainsi que de l’angle d’incidence du
faisceau. Notons encore que divers effets, et notamment celui de la végétation, influent sur le
signal qui sert à déterminer le coefficient de rétrodiffusion. L’extraction de l’humidité du sol
se fonde sur une méthode semi‑empirique de détection de changements, que ce soit à partir
des données du diffusiomètre ASCAT pour fournir un produit opérationnel ou de celles de
l’instrument AMI en mode vent pour fournir un produit scientifique. Cette méthode, à savoir
l’algorithme de détection de changement de l’Université de technologie de Vienne, est adaptée
à la conception originale de l’instrument. En se basant sur l’hypothèse d’une relation linéaire
entre la rétrodiffusion radar et l’humidité du sol, exprimée en décibels, il est possible d’obtenir
une mesure relative de l’humidité dans les premiers centimètres du sol, représentant le degré de
saturation (de 0 à 100 %). Dans les régions arides, en particulier dans les déserts de sable, cette
technique d’extraction est inapplicable, apparemment en raison d’un mécanisme complexe de
rétrodiffusion de surface, de volume et du sol sous la surface. Il est donné libre accès aux données
sur l’humidité du sol obtenue grâce à l’algorithme de détection de changement de l’Université
de technologie de Vienne sur le site de cette université (http://rs.geo.tuwien.ac.at/products/)
ainsi que sur celui de l’Organisation européenne pour l’exploitation de satellites météorologiques
(EUMETSAT) (http://www.eumetsat.int/website/home/Data/Products/L and/index.html).
Le tableau qui suit donne un aperçu des produits opérationnels sur l’humidité du sol.
Fréquence 1,4 GHz 6,9, 10,7, 18,7, 23,8, 36,5 5,3 GHz
et 89 GHz
Polarisation H et V (mode H et V VV
polarimétrique en
option)
Extraction
Produit
Actualisation des quelques jours après irrégulière dans les 130 minutes
données détection après détection
Notes:
a Centre national d’études spatiales (France)
b Centro para el Desarrollo Tecnológico Industrial (Espagne)
Tout corps dont la température se situe au‑dessus du zéro absolu émet de l’énergie
électromagnétique dans le domaine de l’infrarouge thermique. Grâce à la détection des
propriétés thermiques de la surface terrestre, il est possible de déduire l’humidité du sol à partir
des différences distinctes que présentent les propriétés thermiques du sol et de l’eau (Idso et
al., 1975; Van de Griend et al., 1985). Un nombre croissant d’études font appel à la télédétection
infrarouge thermique pour en déduire l’humidité du sol. Cette technique a pour intérêt qu’elle
fournit des données sur l’humidité du sol avec une résolution spatiale allant jusqu’à quelques
mètres. Elle permet en outre de détecter l’humidité du sol dans des zones à forte densité de
végétation, là où la télédétection par hyperfréquences montre ses limites. La télédétection
dans l’infrarouge thermique ne permet cependant pas de mesurer l’humidité du sol en cas de
couverture nuageuse et les phénomènes atmosphériques ont un effet considérable sur cette
technique. Il est donc nécessaire d’élaborer dans la plupart des cas des schémas de traitement
complexes pour éliminer le bruit qui encombre les mesures. De surcroît, le processus n’est pas
aussi direct qu’avec la télédétection par hyperfréquences, puisqu’il n’existe pas de lien direct
entre les données de température et l’humidité du sol. Il existe toutefois plusieurs méthodes
permettant d’extraire indirectement des données sur l’humidité du sol à partir des observations
dans l’infrarouge thermique réalisées par différents matériels: le satellite GOES (satellite
géostationnaire d’exploitation pour l’étude de l’environnement), le radiomètre perfectionné à
très haute résolution (AVHRR), le spectroradiomètre imageur à moyenne résolution (MODIS),
Landsat, etc.
La première méthode, dite du triangle, repose sur une relation empirique entre l’humidité
du sol, la température du sol et le couvert végétal partiel. C’est Price (1990) qui en a fait la
démonstration et qui a proposé une représentation triangulaire des températures de la surface et
de l’indice de végétation par différence normalisée. Cette méthode du triangle a été utilisée par
la suite dans plusieurs études pour l’estimation de l’humidité du sol, notamment par Sandholt et
al. (2002) et Carlson et al. (1994).
La deuxième méthode repose sur les différences entre les propriétés thermiques de l’eau et des
sols. L’eau se différencie de nombreux autres corps par une capacité et une inertie thermiques
relativement grandes. L’inertie thermique est par définition la résistance que présente un objet
à un échauffement de 1 K. L’eau ayant une inertie thermique relativement élevée, elle résiste
fortement à tout changement de température. Il a été montré que l’évolution de la température
de la surface terrestre le matin est en grande partie fonction de l’humidité que contient le sol,
étant donné que l’eau se réchauffe relativement lentement. Le calcul de l’inertie thermique
apparente (ATI) est l’une des méthodes faisant appel à ce type de comportement. Ce calcul peut
s’appliquer à la mesure de la différence entre les températures maximale et minimale sur une
journée; il s’exprime sous la forme:
ATI = (1 − A) / ∆T (11.10)
où A désigne l’albédo du pixel dans la bande du visible et ΔT désigne la différence entre les
températures minimale et maximale. De nombreuses études ont évalué le potentiel que
présente l’ATI pour décrire l’humidité du sol et sa variabilité spatiale et temporelle (par exemple:
Verstraeten et al., 2006; Van doninck et al., 2011).
L’intégration des données dans des modèles de surface terrestre représente aussi une méthode
permettant d’extraire, de la télédétection dans l’infrarouge thermique, des données sur
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 369
l’humidité du sol. Les flux de chaleur latente sont fonction de l’humidité du sol qui influe sur
l’évaporation et la transpiration; quand le sol est humide, l’évaporation et la transpiration
augmentent. Le modèle d’inversion d’échange atmosphère‑surface terrestre recourt à la relation
entre l’évaporation, la transpiration et l’humidité du sol pour fournir des données sur l’humidité
du sol. Toutes les grandes composantes du bilan énergétique, y compris le flux de chaleur latente,
sont estimées à partir de paramètres fournis par l’AVHRR et le satellite GOES au sujet du bilan
radiatif et de la végétation. Ainsi est‑il possible, en partant des flux de chaleur latente, de déduire
l’humidité du sol à l’aide d’une fonction du stress hydrique (Anderson et al., 1997; Anderson et
al., 2007; Hain et al., 2011). Une comparaison de valeurs de l’humidité du sol extraites de données
obtenues par télédétection par hyperfréquences et provenant du modèle ALEXI a montré la
complémentarité des deux jeux de données: le modèle ALEXI fournit de meilleurs résultats en
cas de forte densité de végétation, tandis que la télédétection par hyperfréquences se révèle plus
fiable en cas de densité faible à modérée de la végétation (Hain et al., 2011).
RÉFÉRENCES ET AUTRES LECTURES
Aggelides, S.M. et P.A. Londra, 1998: Comparison of empirical equations for temperature correction of
gypsum sensors. Agronomy Journal, 90:441–443.
Albergel, C., P. de Rosnay, C. Gruhier, J. Muñoz‑Sabater, S. Hasenauer, L. Isaksen, Y. Kerr et W. Wagner,
2012: Evaluation of remotely sensed and modelled soil moisture products using global
ground‑based in situ observations. Remote Sensing of Environment, 118:215–226.
Anderson, M.C., J.M. Norman, G.R. Diak, W.P. Kustas et J.R. Mecikalski, 1997: A two‑source time‑integrated
model for estimating surface fluxes using thermal infrared remote sensing. Remote Sensing of
Environment, 60:195–216.
Anderson, M.C., J.M. Norman, J.R. Mecikalski, J.A. Otkin et W.P. Kustas, 2007: A climatological study of
evapotranspiration and moisture stress across the continental United States based on thermal
remote sensing: 1. Model formulation. Journal of Geophysical Research: Atmospheres,
112(D10117).
Attema, E.P.W., 1991: The Active Microwave Instrument on‑board the ERS‑1 satellite. Proceedings of the IEEE,
79(6):791–799.
Attema, E., P. Bargellini, P. Edwards, G. Levrini, S. Lokas, L. Moeller, B. Rosich‑Tell, P. Secchi, R. Torres,
M. Davidson et P. Snoeij, 2007: Sentinel‑1: The radar mission for GMES operational land and
sea services. ESA Bulletin, 131:10–17.
Bircher, S., N. Skou, K.H. Jensen, J.P. Walker et L. Rasmussen, 2011: A soil moisture and temperature network
for SMOS validation in Western Denmark. Hydrol. Earth Syst. Sci. Discuss., 8:9961–10006.
Brocca, L., R. Morbidelli, F. Melone et T. Moramarco, 2007: Soil moisture spatial variability in experimental
areas of central Italy. Journal of Hydrology, 333(2–4):356–373.
Brunini, O. et G.W. Thurtell, 1982: An improved thermocouple hygrometer for in situ measurements of soil
water potential. Soil Science Society of America Journal, 46:900–904.
Campbell, D.J. et J.K. Henshall, 2001: Bulk density. Dans: Soil and Environmental Analysis: Physical Methods
(dir.: K.A. Smith et C.E. Mullins), Marcel Dekker, New York, p. 315–348.
Carlson, T.N., R.R. Gillies et E.M. Perry, 1994: A method to make use of thermal infrared temperature and
NDVI measurements to infer surface soil water content and fractional vegetation cover. Remote
Sensing Reviews, 9:161–173.
Deardorff, J.W., 1978: Efficient prediction of ground surface temperature and moisture, with inclusion of a
layer of vegetation. Journal of Geophysical Research, 83:1889–1904.
De Jeu, R.A.M., 2003: Retrieval of land surface parameters using passive microwave remote sensing. Thèse
de doctorat, VU Amsterdam.
Dirksen, C., 1999: Soil Physics Measurements. Catena Verlag, Reiskirchen, Allemagne.
Dirksen, C. et S. Dasberg, 1993: Improved calibration of time domain reflectometry soil water content
measurements. Soil Science Society of America Journal, 57:660–667.
Dorigo, W.A., K. Scipal, R.M. Parinussa, Y.Y. Liu, W. Wagner, R.A.M. de Jeu et V. Naeimi, 2010: Error
characterisation of global active and passive microwave soil moisture datasets. Hydrology and
Earth System Sciences, 14:2605–2616.
Dorigo, W.A., W. Wagner, R. Hohensinn, S. Hahn, C. Paulik, A. Xaver, A. Gruber, M. Drusch,
S. Mecklenburg, P. van Oevelen, A. Robock et T. Jackson, 2011: The International Soil Moisture
Network: a data hosting facility for global in situ soil moisture measurements. Hydrology and
Earth System Sciences, 15:1675–1698.
Doubkova, M., A. Bartsch, C. Pathe, D. Sabel et W. Wagner, 2009: The medium resolution soil moisture
dataset: Overview of the SHARE ESA DUE TIGER project. 2009 IEEE International Geoscience and
Remote Sensing Symposium: Proceedings, I:116–119.
Draper, C., R. Reichle, R. de Jeu, V. Naeimi, R. Parinussa et W. Wagner, 2013: Estimating root mean square
errors in remotely sensed soil moisture over continental scale domains. Remote Sensing of
Environment, 137:288–298.
Drungil, C.E.C., K. Abt et T.J. Gish, T.J., 1989: Soil moisture determination in gravelly soils with time domain
reflectometry. Transactions of the American Society of Agricultural Engineering, 32:177–180.
Famiglietti, J.S., D. Ryu, A.A. Berg, M. Rodell et T.J. Jackson, 2008: Field observations of soil moisture
variability across scales. Water Resources Research, 44(1).
Figa‑Saldaña, J., J.J.W. Wilson, E. Attema, R. Gelsthorpe, M.R. Drinkwater et A. Stoffelen, 2002: The
advanced scatterometer (ASCAT) on the meteorological operational (MetOp) platform: A
follow on for European wind scatterometers. Journal canadien de télédétection,
28(3):404–412.
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 371
Friesen, J., C. Rodgers, P.G. Oguntunde, J.M.H. Hendrickx et N. Van de Giesen, 2008: Hydrotope‑based
protocol to determine average soil moisture over large areas for satellite calibration and
validation – with results from an observation campaign in the Volta Basin, West Africa. IEEE
Transactions on Geoscience and Remote Sensing, 46(7):1995–2004.
Gardner, C.M.K., D.A. Robinson, K. Blyth et J.D. Cooper, 2001: Soil water content. Dans: Soil and
Environmental Analysis: Physical Methods, (dir.: K.A. Smith et C.E. Mullins), Marcel Dekker,
New York, p. 1–64.
Gardner, W.H. et C. Calissendorff, 1967: Gamma‑ray and neutron attenuation measurement of soil bulk
density and water content. Proceedings of the Symposium on the Use of Isotope and Radiation
Techniques dans Soil Physics and Irrigation Studies (Istanbul, 12–16 juin 1967). Agence
internationale de l’énergie atomique, Vienne, p. 101–112.
Gee, G.W. et M.E. Dodson, 1981: Soil water content by microwave drying: A routine procedure. Soil Science
Society of America Journal, 45:1234–1237.
Greacen, E.L., 1981: Soil Water Assessment by the Neutron Method. CSIRO, Australie.
Hain, C.R., W.T. Crow, J.R. Mecikalski, M.C. Anderson et T. Holmes, 2011: An intercomparison of available
soil moisture estimates from thermal infrared and passive microwave remote sensing and land
surface modeling. Journal of Geophysical Research: Atmospheres, 116(D15107).
Hallikainen, M., F. Ulaby, M. Dobson, M. El‑Rayes et L.K. Wu, 1985: Microwave dielectric behavior of wet
soil – Part 1: Empirical models and experimental observations. IEEE Transactions on Geoscience
and Remote Sensing, 23:25–34.
Hasenauer, S., W. Wagner, K. Scipal, V. Naeimi et Z. Bartalis, 2006: Implementation of near real‑time soil
moisture products in the SAF network based on MetOp ASCAT data. EUMETSAT Meteorological
Satellite Conference, 12–16 juin 2006, Helsinki.
Hornacek, M., W. Wagner, D. Sabel, H.‑L. Truong, P. Snoeij, T. Hahmann, E. Diedrich et M. Doubkova, 2012:
Potential for high resolution systematic global surface soil moisture retrieval via change
detection using Sentinel‑1. IEEE Journal of Selected Topics in Applied Earth Observation and Remote
Sensing, 5(4):1303–1311.
Idso, S.B., R.D. Jackson, R.J. Reginato et T.J. Schmugge, 1975: The utility of surface temperature
measurements for the remote sensing of sun for soil water status. Journal of Geophysical
Research, 80:3044–3049.
Jackson, T.J., 1990: Laboratory evaluation of a field‑portable dielectric/soil moisture probe. IEEE Transactions
on Geoscience and Remote Sensing, 28:241–245.
Jackson, T.J. et T.J. Schmugge, 1989: Passive microwave remote sensing system for soil moisture: Some
supporting research. IEEE Transactions on Geoscience and Remote Sensing, 27:225–235.
Jones, L.A. et J.S. Kimball, 2010: Daily Global Land Surface Parameters Derived from AMSR‑E. Boulder, Colorado:
NASA National Snow and Ice Data Center Distributed Active Archive Center (consultable à
l’adresse http://nsidc.org/data/nsidc‑0451.html).
Jones, L.A., J.S. Kimball, E. Podest, K.C. McDonald, S.K. Chan et E.G. Njoku, 2009: A method for deriving
land surface moisture, vegetation optical depth, and open water fraction from AMSR‑E. 2009
IEEE International Geoscience and Remote Sensing Symposium: Proceedings, III:916–919.
Kerr, Y.H., P. Waldteufel, P. Richaume, J.P. Wigneron, P. Ferrazzoli, A. Mahmoodi, A. Al Bitar, F. Cabot,
C. Gruhier, S.E. Juglea, D. Leroux, A. Mialon et S. Delwart, 2012: The SMOS soil moisture
retrieval algorithm. IEEE Transactions on Geoscience and Remote Sensing, 50(5):1384–1403.
Klute, A. (dir.), 1986: Methods of Soil Analysis, Part 1: Physical and Mineralogical Methods. American Society of
Agronomy, Madison, Wisconsin, États-Unis d’Amérique.
Knight, J.H., 1992: Sensitivity of time domain reflectometry measurements to lateral variations in soil water
content. Water Resources Research, 28:2345–2352.
Liu, Y.Y., R.M. Parinussa, W.A. Dorigo, R.A.M. De Jeu, W. Wagner, A.I.J.M van Dijk, M.F. McCabe et
J.P. Evans, 2011: Developing an improved soil moisture dataset by blending passive and active
microwave satellite‑based retrievals. Hydrology and Earth System Sciences, 15:425–436.
Liu, Y.Y., W.A. Dorigo, R.M. Parinussa, R.A.M. De Jeu, W. Wagner, M.F. McCabe, J.P. Evans et
A.I.J.M van Dijk, 2012: Trend‑preserving blending of passive and active microwave soil
moisture retrievals. Remote Sensing of Environment, 123:280–297.
Magagi, R.D. et Y.H. Kerr, 1997: Retrieval of soil moisture and vegetation characteristics by use of ERS‑1
wind scatterometer over arid and semi‑arid areas. Journal of Hydrology, 188–189:361–384.
Marthaler, H.P., W. Vogelsanger, F. Richard et J.P. Wierenga, 1983: A pressure transducer for field
tensiometers. Soil Science Society of America Journal, 47: 624–627.
372 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Matgen, P., S. Heitz, S. Hasenauer, C. Hissler, L. Brocca, L. Hoffmann, W. Wagner et H.H.G. Savenije, 2012:
On the potential of MetOp ASCAT‑derived soil wetness indices as a new aperture for
hydrological monitoring and prediction: a field evaluation over Luxembourg. Hydrological
Processes, 26(15):2346–2359.
Merrill, S.D. et S.L. Rawlins, 1972: Field measurement of soil water potential with thermocouple
psychrometers. Soil Science, 113:102–109.
Mullins, C.E., 2001: Matric potential, Soil and Environmental Analysis: Physical Methods (dir.: K.A. Smith et
C.E. Mullins), Marcel Dekker, New York, p. 65–93.
Naeimi, V., K. Scipal, Z. Bartalis, S. Hasenauer et W. Wagner, 2009: An improved soil moisture retrieval
algorithm for ERS and MetOp scatterometer observations. IEEE Transactions on Geoscience and
Remote Sensing, 47(7):1999–2013.
Njoku, E.G., 2004: AMSR‑E/Aqua L2B Surface Soil Moisture, Ancillary Parms, & QC EASE‑Grids, Version 2. Boulder,
Colorado: NASA National Snow and Ice Data Center Distributed Active Archive Center
(consultable à l’adresse http://nsidc.org/data/ae_land.html).
Njoku, E.G., T.J. Jackson, V. Lakshmi, T.K. Chan et S.V. Nghiem, 2003: Soil moisture retrieval from AMSR‑E.
IEEE Transactions on Geoscience and Remote Sensing, 41(2):215–229.
Organisation météorologique mondiale, 1968: Practical Soil Moisture Problems in Agriculture, Technical
Note No. 97 (WMO‑No. 235, TP.128), Genève.
———, 1989: Gestion des terres dans les régions arides et semi‑arides, Note technique N° 186 (OMM‑N° 662),
Genève.
———, 2001: Lecture Notes for Training Agricultural Meteorological Personnel (J. Wieringa et J. Lomas),
(WMO‑No. 551), Genève.
Owe, M., R. de Jeu et J. Walker, 2001: A methodology for surface soil moisture and vegetation optical depth
retrieval using the microwave polarization difference index. IEEE Transactions on Geoscience and
Remote Sensing, 39(8):1643–1654.
Owe, M., R. de Jeu et T. Holmes, 2008: Multisensor historical climatology of satellite‑derived global land
surface moisture. Journal of Geophysical Research, 113 (F01002).
Pathe, C., W. Wagner, D. Sabel, M. Doubkova et J. B. Basara, 2009: Using ENVISAT ASAR global mode data
for surface soil moisture retrieval over Oklahoma, USA. IEEE Transactions on Geoscience and
Remote Sensing, 47(2):468–480.
Perrier, E.R. et A.W. Marsh, 1958: Performance characteristics of various electrical resistance units and
gypsum materials. Soil Science, 86:140–147.
Price, J.C., 1990: Using spatial context in satellite data to infer regional scale evapotranspiration. IEEE
Transactions on Geoscience and Remote Sensing, 28(5):940–948.
Pulliainen, J.T., T. Manninen et M.T. Hallikainen, 1998: Application of ERS‑1 wind scatterometer data to soil
frost and soil moisture monitoring in boreal forest zone. IEEE Transactions on Geoscience and
Remote Sensing, 36(3):849–863.
Rawlins, S.L. et G.S. Campbell, 1986: Water potential: Thermocouple psychrometry. Dans: Methods of Soil
Analysis – Part 1: Physical and Mineralogical Methods (dir.: A. Klute), American Society of
Agronomy, Madison, Wisconsin, États-Unis d’Amérique, p. 597–618.
Sandholt, I., K. Rasmussen et J. Andersen, 2002: A simple interpretation of the surface temperature/
vegetation index space for assessment of surface moisture status. Remote Sensing of Environment,
79(2–3):213–224.
Schmugge, T.J., 1976: Remote Sensing of Soil Moisture. Doc. X‑913‑76‑118, NASA Goddard Space Flight Center,
Greenbelt, Maryland.
Schmugge, T.J., T.J. Jackson et H.L. McKim, 1980: Survey of methods for soil moisture determination. Water
Resources Research, 16:961–979.
Seneviratne, S.I., T. Corti, E.L. Davin, M. Hirschi, E.B. Jaeger, I. Lehner, B. Orlowsky et A.J. Teuling, 2010:
Investigating soil moisture–climate interactions in a changing climate: A review. Earth‑Science
Reviews, 99(3–4):125–161.
Su, C.‑H., D. Ryu, R.I. Young, A.W. Western et W. Wagner, 2013: Inter‑comparison of microwave satellite soil
moisture retrievals over the Murrumbidgee Basin, southeast Australia. Remote Sensing of
Environment, 134:1–11.
Tanner, C.B. et R.J. Hanks, 1952: Moisture hysteresis in gypsum moisture blocks. Soil Science Society of
America Proceedings, 16: 48–51.
Topp, G.C., J.L. Davis et A.P. Annan, 1980: Electromagnetic determination of soil water content:
Measurement in coaxial transmission lines. Water Resources Research, 16:574–582.
Ulaby, F.T., R.K. Moore et A.K. Fung, 1986: Microwave Remote Sensing: Active and Passive, Volume III. Artech
House, Norwood, Massachusetts.
CHAPITRE 11. MESURE DE L’HUMIDITÉ DU SOL 373
Vachaud, G., A. Passerat De Silans, P. Balabanis et M. Vauclin, 1985: Temporal stability of spatially measured
soil water probability density function. Soil Science Society of America Journal, 49(4):822–828.
Van de Griend, A.A., P.J. Camillo et R.J. Gurney, 1985: Discrimination of soil physical parameters, thermal
inertia and soil moisture from diurnal surface temperature fluctuations. Water Resources
Research, 21:997–1009.
Van doninck, J., J. Peters, B. De Baets, E. De Clercq, E. Ducheyne et N. Verhoest, 2011: The potential of
multitemporal Aqua and Terra MODIS apparent thermal inertia as a soil moisture indicator.
International Journal of Applied Earth Observation and Geoinformation, 13(6):934–941.
Verstraeten, W.W., F. Veroustraete, C.J. van der Sande, I. Grootaers et J. Feyen, 2006: Soil moisture retrieval
using thermal inertia, determined with visible and thermal spaceborne data, validated for
European forests. Remote Sensing of Environment, 101(3):299–314.
Visvalingam, M. et J.D. Tandy, 1972: The neutron method for measuring soil moisture content: A review.
European Journal of Soil Science, 23: 499–511.
Wagner, W., G. Lemoine et H. Rott, 1999: A method for estimating soil moisture from ERS scatterometer
and soil data. Remote Sensing of Environment, 70(2):191–207.
Wagner, W., C. Pathe, M. Doubkova, D. Sabel, A. Bartsch, S. Hasenauer, G. Blöschl, K. Scipal,
J. Martínez‑Fernández et A. Löw, 2008: Temporal stability of soil moisture and radar
backscatter observed by the Advanced Synthetic Aperture Radar (ASAR). Sensors,
8(2):1174–1197.
Wang, J.R. et T.J. Schmugge, 1980: An empirical model for the complex dielectric permittivity of soils as a
function of water content. IEEE Transactions on Geoscience and Remote Sensing, GE‑18(4):
288–295.
Wellings, S.R., J.P. Bell et R.J. Raynor, 1985: The Use of Gypsum Resistance Blocks for Measuring Soil Water
Potential in the Field. Report No. 92, Institute of Hydrology, Wallingford, Royaume‑Uni.
TABLE DES MATIÈRES DU CHAPITRE
Page
Page
12.5.2
Condensateurs à film mince. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
12.5.3
Hygristors au carbone. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
12.5.4
Capteurs à peau de batteur d’or. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
12.5.5
Instruments de sondage scientifique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
12.5.6
Exposition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
12.5.7
Erreurs de mesure de l’humidité relative. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
12.5.7.1 Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
12.5.7.2 Humidité relative nocturne pour les températures
supérieures à –20 °C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
12.5.7.3 Humidité relative diurne pour les températures supérieure à –20 °C. 418
12.5.7.4 Humidité relative nocturne pour les températures situées
entre –20 °C et –50 °C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
12.5.7.5 Humidité relative diurne pour les températures situées entre
–20 °C et –50 °C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
12.5.7.6 Humidité relative nocturne pour les températures situées
entre –50 °C et –70 °C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
12.5.7.7 Humidité relative diurne pour les températures situées entre
–50 °C et –70 °C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
12.5.7.8 Effet de l’eau et de la glace dans les nuages . . . . . . . . . . . . . . . . . . . . . 424
12.5.7.9 Problèmes de représentativité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
12.6 Équipement des stations terrestres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
12.6.1 Caractéristiques générales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
12.6.2 Logiciels de traitement des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
12.7 Opérations de radiosondage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
12.7.1 Corrections immédiatement avant l’utilisation. . . . . . . . . . . . . . . . . . . . . . . . . . . 426
12.7.2 Méthodes de déploiement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
12.7.3 Procédures de lancement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
12.7.4 Suspension pendant le vol. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
12.7.5 Sécurité du public. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
12.8 Comparaison, étalonnage et maintenance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
12.8.1 Comparaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
12.8.1.1 Évaluation de la qualité au moyen de prévisions à court terme . . . . . 429
12.8.1.2 Évaluation de la qualité à l’aide de séries chronologiques de
données atmosphériques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430
12.8.1.3 Comparaison des mesures de vapeur d’eau par télédétection. . . . . . 430
12.8.1.4 Essais comparatifs de radiosondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
12.8.2 Étalonnage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
12.8.3 Maintenance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
12.9 Calcul et transmission des observations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
12.9.1 Calcul des données de radiosondage et procédures de transmission
des observations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
12.9.2 Corrections. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
12.10 Questions relatives aux achats. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
12.10.1 Utilisation et mise à jour des résultats de la comparaison OMM de
systèmes de radiosondage haut de gamme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
12.10.2 Éléments à prendre en compte pour l’acquisition d’instruments. . . . . . . . . . . . 436
12.1 GÉNÉRALITÉS
12.1.1 Définitions
Les définitions ci‑après, fondées sur les documents OMM (1992, 2010a), se rapportent aux
mesures en altitude effectuées à l’aide d’une radiosonde:
Radiosonde: instrument destiné à être emporté par ballon dans l’atmosphère, muni de dispositifs
pour mesurer une ou plusieurs variables météorologiques (pression, température, humidité,
etc.) et pourvu d’un émetteur radioélectrique qui transmet ces renseignements à la station
d’observation.
Note: La radiosonde peut soit être fixée sous un ballon (ou sous un autre type d'aéronef sans pilote qui se déplace
lentement) soit être conçue pour être lâchée depuis un aéronef ou une fusée (on parle alors de catasonde).
Station de radiosondage: station où l’on procède, par des moyens électroniques, à des
observations en altitude de la pression atmosphérique, de la température, de l’humidité et, en
général, du vent horizontal.
Station d’observation en altitude, station synoptique d’observation en altitude, station aérologique: site
en surface à partir duquel sont effectuées des observations en altitude.
Le présent chapitre porte sur les systèmes de radiosondage. Les mesures effectuées à l’aide de
plates‑formes spéciales, d’équipements spécialisés et d’aéronefs ou réalisées indirectement au
moyen d’instruments de télédétection, tels que des radiomètres hyperfréquences et des lidars
Raman de mesure de la vapeur d’eau dans la couche limite et la troposphère, sont examinées
dans différents chapitres de la partie II du présent guide. Les systèmes de radiosondage servent
généralement à mesurer la pression, la température et l’humidité relative. On les emploie
aussi, dans la plupart des stations d’observation, pour déterminer les vents en altitude (voir le
chapitre 13 de la partie I). Certaines radiosondes comportent en plus des systèmes de détection
de paramètres atmosphériques, comme la concentration de l’ozone et la radioactivité. Ces
mesures supplémentaires ne seront pas décrites en détail dans le présent chapitre.
Les unités de mesure des éléments météorologiques observés par radiosondage sont
l’hectopascal pour la pression, le degré Celsius pour la température et le pourcentage pour
l’humidité relative. Cette dernière est exprimée par rapport à la tension de vapeur saturante
au‑dessus d’une surface d’eau, même à des températures inférieures à 0 °C.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 377
L’unité d’altitude géopotentielle employée dans les observations en altitude est le mètre
géopotentiel standard (gpm), qui correspond à 0,980 665 mètre dynamique. La relation
entre l’altitude géopotentielle et l’altitude géométrique est présentée à la section 12.3.6.2. Les
différences restent faibles dans la basse troposphère, mais augmentent avec l’altitude.
Il est recommandé d’utiliser les valeurs des constantes et fonctions physiques adoptées par
l’OMM (OMM, 2011a) quand on effectue des calculs de radiosondage.
Les mesures en altitude de la température, de l’humidité relative et du vent sont trois des
paramètres fondamentaux utilisés dans le cadre des analyses effectuées à l’aide des modèles
de prévision numérique du temps (PNT) pour les besoins de la prévision météorologique
opérationnelle. Les radiosondes fournissent la plupart des mesures in situ de la température et de
l’humidité relative au‑dessus des terres. Des mesures très limitées (mais néanmoins importantes)
de ces variables au‑dessus des océans sont également fournies par des radiosondes lancées à
partir d’îles ou de navires éloignés des côtes. Il est possible d’observer les températures à partir
d’un aéronef, avec une résolution verticale identique à celle des radiosondes, pendant la montée
et la descente ainsi qu’aux altitudes de croisière. Les observations d’aéronefs pendant la montée
et la descente sont utilisées pour compléter les observations de radiosondage au‑dessus des
terres et peuvent parfois les remplacer en certains emplacements. Aux altitudes de croisière, elles
fournissent des mesures au‑dessus des terres comme des mers. Les observations satellitaires
à visée verticale de la distribution de la vapeur d’eau et de la température ont une résolution
verticale plus faible que les mesures effectuées à l’aide de radiosondes ou depuis un aéronef,
mais elles jouent un rôle prépondérant dans les analyses de la prévision numérique du temps
dans les zones océaniques et dans d’autres régions du globe où les données fournies par les
radiosondes et les aéronefs sont insuffisantes ou absentes.
Il est capital de disposer de mesures exactes de la structure verticale des champs de température
et de vapeur d’eau dans la troposphère pour tous les types de prévisions, en particulier les
prévisions à l’échelle régionale ou locale et les prévisions immédiates. Les profils verticaux
de température atmosphérique présentent des discontinuités, qui entraînent souvent des
modifications de l’humidité relative très prononcées (voir la figure 12.1). Les mesures indiquent
la structure verticale type des couches de nuages ou de brouillard. Cette structure verticale
des champs de température et de vapeur d’eau détermine la stabilité de l’atmosphère et, par
conséquent, la nébulosité et le type de nuage qui seront prévus. Les mesures de la structure
verticale obtenues par radiosondage sont en général suffisamment exactes pour répondre aux
besoins de la plupart des utilisateurs.
Les études sur la pollution atmosphérique exigent des mesures à haute résolution du profil
vertical de la température et de l’humidité relative (pour déterminer par exemple l’épaisseur
de la couche limite atmosphérique). Ces mesures à haute résolution dans le plan vertical sont
également nécessaires pour calculer les effets de la réfraction atmosphérique sur la propagation
du rayonnement électromagnétique ou des ondes sonores. La résolution temporelle devrait être
aussi haute que possible, par exemple 1 s, et ne pas dépasser 5 s. De plus, des informations sur la
situation spatiale et temporelle de la radiosonde à chaque altitude sont nécessaire pour obtenir
une bonne description de l’atmosphère.
Les diverses applications, notamment en aviation civile, en artillerie et dans d’autres applications
de la balistique (comme le lancement de véhicules spatiaux) requièrent des mesures détaillées
de la masse volumique de l’air à certaines pressions (déduites de données sur la température et
l’humidité relative fournies par des radiosondes).
Les observations de radiosondage sont également importantes pour les études de l’évolution du
climat en altitude. Il est donc nécessaire d’archiver les informations relatives aux systèmes utilisés,
y compris la version du logiciel, les corrections apportées, les produits consomptibles utilisés
pour les mesures, et les méthodes d’observation (par exemple la longueur de suspension du
378 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
ballon). Les climatologues préfèrent que les données brutes soient archivées en sus des données
traitées et qu’elles soient mises à disposition pour les études climatologiques ultérieures. Il
est crucial de consigner toute modification des méthodes d’observation au fur et à mesure.
À cet égard, il est essentiel de déterminer les changements d’instruments et de méthodes de
radiosondage depuis que l’on a commencé à utiliser régulièrement les radiosondes (voir par
exemple OMM, 1993a). Les études sur l’évolution du climat reposant sur des mesures effectuées
à l’aide de radiosondes exigent des erreurs systématiques d’une extrême stabilité. À l’époque
où l’on a commencé à se servir de radiosondes pour observer des éléments météorologiques
tels que l’humidité relative et la pression, les erreurs étaient trop grandes et trop complexes
pour qu'il soit possible d’apporter des corrections pertinentes aux données recueillies à toutes
les altitudes significatives pour les études sur le changement climatique. Il a donc fallu modifier
Température Humidité
6
Altitude (km)
Température Humidité
5
Altitude (km)
la conception des radiosondes pour les améliorer. En raison des réductions budgétaires qui
frappent les activités météorologiques, les produits consomptibles doivent par ailleurs demeurer
peu coûteux si l’on ne veut pas restreindre l’utilisation des radiosondes.
Les utilisateurs doivent accepter certains compromis sur le plan de l’exactitude des mesures étant
donné que les fabricants doivent produire des systèmes capables de fonctionner dans un très
large éventail de conditions atmosphériques:
Les systèmes doivent aussi fonctionner de manière constante et fiable en cas de fortes pluies,
d’orages avoisinants et de conditions extrêmes de givrage.
Les températures les plus froides se rencontrent le plus souvent près de la tropopause tropicale
ou subtropicale, même si, en hiver, des températures très basses s’observent aussi dans le
tourbillon circumpolaire stratosphérique. La figure 12.2 présente des exemples de profils de
températures dans les régions subtropicales: le graphique a) correspond à la situation en été
à Yangjiang (Chine, 22º N) et le graphique b) à 50º N en été et en hiver au Royaume‑Uni. Les
températures plus basses à proximité de la tropopause aux tropiques constituent un grand défi
pour les capteurs d’humidité relative, car peu d’entre eux réagissent aujourd’hui rapidement
à des températures inférieures à –70 °C (voir les sections 12.5.7.6 et 12.5.7.7). Ainsi, des
radiosondes qui fonctionnent bien dans toute la troposphère aux latitudes moyennes peuvent
être moins fiables pour les mesures d’humidité relative dans la haute troposphère tropicale.
Une mesure à l’aide d’une radiosonde ressemble à un échantillon instantané d’une couche
donnée de l’atmosphère (une radiosonde monte en général de 300 m par minute). Lorsque les
fluctuations à court terme de la température atmosphérique liées à des ondes gravitationnelles
et des turbulences sont faibles, les mesures par radiosondage peuvent refléter très précisément
la situation au‑dessus d’un emplacement donné pendant un grand nombre d’heures. En
revanche, lorsque l’atmosphère est très variable (par exemple, dans une couche limite de
l’atmosphère convective), l’échantillon instantané peut ne pas être valable plus d’une minute et
ne pas correspondre à la valeur moyenne au‑dessus de l’emplacement, même sur une heure. Les
températures mesurées par radiosonde de la figure 12.2a) sont davantage reproductibles dans
le temps dans la troposphère que dans la stratosphère en raison de la plus grande influence des
ondes gravitationnelle dans cette dernière. Les différences plus marquées dans les strates plus
élevées ne sont pas liées à des imprécisions des instruments. De même, l’écart de températures
sur la verticale dans la stratosphère qui apparaît à la figure 12.2b) n’a pas été causé par des
erreurs d’instruments, car la même structure a été mesurée par deux types de radiosondes
différents sur des vols d’essai.
12.1.3.2 Relations entre les mesures en altitude par satellite et par radiosonde
Les systèmes d’observation satellitaire à visée verticale n’offrent pas la même exactitude ni le
même niveau de confiance que les radiosondes ou les systèmes d’aéronefs dans les mesures
de la structure verticale. Les systèmes actuels de sondage par satellite de la température et
380 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Température
34
32
30
28
26
24
22
Altitude (km)
20
18
16
14
12
10
8
6
4
2
0
–70 –60 –50 –40 –30 –20 –10 0 10 20 °C
Température
34
32
30
28
26
24
22
Altitude (km)
20
18
16
14
12
10
8
6
4
2
0
–70 –60 –50 –40 –30 –20 –10 0 10 20 °C
Les techniques mises au point pour intégrer les données de sondage satellite dans les modèles
de prévision numérique du temps incorporent donc des informations fournies par d’autres
systèmes d’observation, principalement les radiosondes et les systèmes d’aéronefs, ou issues
des champs de modèles de prévision numérique du temps. Ces informations peuvent provenir
d’une évaluation initiale de la structure verticale à un emplacement donné, évaluation déduite
de champs de modèles de prévision ou tirée de catalogues de structures verticales possibles
reposant sur les mesures par radiosonde propres à l’emplacement géographique ou au type
de masse d’air. On se sert aussi des mesures de radiosondage pour vérifier les observations
effectuées par différents satellites ou par un canal donné à des angles divers. Les comparaisons
peuvent se faire directement avec les observations de radiosondage, ou indirectement par l’effet
de ces observations sur le profil vertical des champs de prévision numérique.
On a recours régulièrement au radiosondage pour obtenir des mesures jusqu’à des altitudes
d’environ 35 km (voir par exemple la figure 12.2). Toutefois, beaucoup de radiosondages dans
le monde n’atteignent pas plus de 25 km d’altitude environ, en raison du coût élevé des ballons
et des gaz utilisés pour faire monter l’équipement au niveau des pressions les plus basses. Les
erreurs de température tendent à s’accroître avec l’altitude, mais cet accroissement reste limité
dans les systèmes de radiosondage modernes, qui fournissent des mesures utiles jusqu’à 35 km,
en particulier la nuit.
Lors de la planification de mesures par radiosondage aux fins de la surveillance du climat, il faut
veiller à ce que suffisamment de ballons soient déployés pour obtenir régulièrement des mesures
jusqu’à une altitude de 30 km dans chaque région.
382 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
La contamination des capteurs en cours de vol et leurs constantes de temps très longues dans des
conditions de basses températures et pressions limitent actuellement à la troposphère l’utilité de
l’observation de l’humidité relative au moyen de radiosondes de qualité.
La présente section récapitule les exigences en matière de précision (toujours exprimées sous
la forme de k = 2; voir à ce sujet le chapitre 1 de la partie I) pour les variables météorologiques
mesurées par radiosondage et établit des comparaisons entre celles‑ci et des performances
courantes. Les performances et les sources d’erreurs sont analysées de manière plus approfondie
dans les sections consacrées aux différentes variables météorologiques (voir les sections 12.3.5,
12.3.7, 12.4.7 et 12.5.7 au sujet, respectivement, de la pression, de l’altitude, de la température
et de l’humidité relative). L’incertitude, l’erreur systématique et d’autres termes connexes sont
définis au chapitre 1 de la partie I.
L’annexe 12.B récapitule les limites établies par l’OMM en matière d’incertitude et de résolution
verticale pour les observations par radiosondage. Les tableaux qui y sont présentés comprennent
des données provenant de la base de données de l’OMM sur les besoins en matière
d’observation (OSCAR/Besoins; voir OMM, 2014), les objectifs en matière d’observation publiées
par l’OMM (2009) pour le Réseau aérologique de référence (GRUAN) du Système mondial
d’observation du climat (SMOC), et quelques informations provenant d’études sur la variabilité
atmosphérique extraites de la publication OMM (1970).
Ladite base de données établit trois niveaux pour la plupart des variables météorologiques:
b) Le seuil – le niveau minimal à atteindre pour que les données soient utiles;
c) L’avancée décisive – un niveau intermédiaire entre les deux premiers qui, s’il est atteint,
permettra une nette amélioration de l’application visée.
Les tableaux 12.B.1, 12.B.2 et 12.B.3 de l’annexe 12.B se fondent essentiellement sur les exigences
définies dans le domaine d’application de la prévision numérique du temps à haute résolution.
Des informations sur les objectifs fixés à la suite d’études sur la viabilité atmosphérique sont
toutefois également communiquées lorsque les objectifs diffèrent de ceux qui ont été établis
dans la base de données de l’OMM sur les besoins en matière d’observation. Les besoins des
climatologues reposent sur les exigences du GRUAN et celles de la section portant sur les activités
des projets AOPC ou SPARC de la base de données sur les besoins en matière d’observation.
Lorsque les objectifs des deux bases de données présentent des différences sensibles, ces
dernières figurent dans les tableaux. Les exigences pour l’altitude géopotentielle présentées au
tableau 12.B.4 ont été déduites comme décrit à l’annexe 12.B.
Une radiosonde répondant aux exigences moins strictes des avancées décisives, comme résumé
à l’annexe 12.A, devrait fournir des mesures rentables pour une utilisation ciblée au plan national.
Toutefois, certains utilisateurs ne pourront pas se contenter de ces exigences moins strictes
en matière d’exactitude, notamment aux sites principaux où sont observés les changements
climatiques. Ainsi, il est nécessaire de déterminer la qualité des observations requises pour le
réseau national, en tenant compte du fait que l’utilisation de ces données pour les prévisions
améliorera la qualité des prévisions dans tout le pays si les observations atteignent le niveau des
avancées décisives.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 383
Les intervalles entre les observations sur le plan horizontal indiqués dans la base de données
de l’OMM sur les besoins en matière d’observation n’ont pas été présentés ici, mais il apparaît
clairement que les observations par radiosondage ne permettent pas à elles seules de répondre
aux exigences minimales du Système mondial intégré des systèmes d'observation de l'OMM
(WIGOS) et qu’il faut les compléter par des mesures de la température, de l’humidité relative et
du vent, obtenues à l’aide d’autres systèmes d’observation.
Ainsi, la plupart des radiosondes comprenant un capteur de pression allant jusqu’à 100 hPa
permettent d’atteindre l’objectif d’incertitude pour les mesures d’altitude en vue de la prévision
numérique du temps. Toutefois, seules les radiosondes dotées de la technologie GPS peuvent
mesurer les altitudes jusqu’à 30 km avec une erreur aléatoire ne dépassant pas 20 m, ce qui
correspond à une erreur aléatoire de pression inférieure ou égale à 0,05 hPa, en fonction de
l’incertitude qui s’associe à la mesure de température de la radiosonde.
L’objectif d’incertitude pour la hauteur de la base des nuages dans la basse troposphère présenté
au tableau 12.B.4 de l’annexe 12.B correspond à une incertitude (k = 2) de seulement 3 hPa à la
hauteur de la base des nuages. La plupart des radiosondes modernes sont près de satisfaire à
cette exigence.
Les concentrations d’ozone stratosphérique ayant de forts gradients verticaux, les erreurs de
calcul de l’altitude dérivant d’erreurs de capteurs de pression, même si celles‑ci sont relativement
minimes, entraînent d’importantes inexactitudes dans les profils établis par les sondes d’ozone
à toutes les latitudes. C’est l’un des facteurs limitatifs des mesures reposant sur l’utilisation des
anciennes radiosondes, qui présentent de plus grandes erreurs de pression dans la stratosphère.
La plupart des systèmes modernes de radiosondage (mis en place depuis 2000) mesurent la
température dans la troposphère et la stratosphère jusqu’à une altitude d’environ 31 km avec une
incertitude (k = 2) de 0,4 à 1 K. Leurs performances sont généralement proches du rendement
optimal établi au tableau 12.B.2 de l’annexe 12.B. Toutefois, on constate encore des incertitudes
bien supérieures à 2 K dans certains réseaux nationaux des régions tropicales. Si des mesures
présentant des erreurs aussi importantes sont utilisées, elles nuisent aux prévisions numériques
du temps.
Dans la stratosphère, les incertitudes de la température mesurée par radiosondage peuvent être
proches de la valeur idéale pour la prévision numérique du temps, mais doivent être un peu
améliorées dans les conditions diurnes pour répondre aux exigences climatologiques.
Les objectifs de précision des températures étant plus contraignants pour la climatologie
que pour la prévision numérique du temps, le Centre de coordination du GRUAN continue
de travailler avec des fabricants et des opérateurs pour réduire l’incertitude des mesures
opérationnelles actuelles dans la troposphère et la stratosphère. En l’occurrence, il est décisif que
les erreurs systématiques restent aussi constantes que possible dans le temps, ce qui exige de
fixer des limites plus strictes sur les méthodes d’observation qu’aux sites d’observation standard.
Pour optimiser les performances, les opérateurs doivent veiller à préparer et à exploiter les
radiosondes en appliquant les instructions du présent guide ou du fabricant, ou, pour les stations
384 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
du GRUAN, les procédures convenues avec le Centre de coordination du GRUAN. Dans le cas du
GRUAN, les détails de la préparation des radiosondes doivent être consignés et archivés parmi les
métadonnées liées aux mesures (Immler et al., 2010).
Les incertitudes liées aux mesures des capteurs modernes d’humidité relative aux températures
supérieures à ‑50 °C sont le plus souvent de l’ordre de 5 % à 14 % d’humidité relative (HR).
Ainsi, ces mesures atteignent généralement le niveau correspondant à l’avancée décisive pour
la prévision numérique du temps, mais beaucoup nécessitent des améliorations pour atteindre
le niveau d’avancée décisive pour les mesures climatologiques (voir le tableau 12.B.3 de
l’annexe 12.B).
Aux températures inférieures à –50 °C, les incertitudes augmentent, les meilleures capteurs de
radiosonde opérationnels ayant une incertitude d’environ 16 % d’humidité relative à –70 °C,
c’est‑à‑dire proche du niveau de l’avancée décisive pour la prévision numérique du temps, mais
au‑dessous de celui‑ci pour les exigences en climatologie. Toutefois, la plupart des capteurs
récents présentent des incertitudes d’environ 24 % d’humidité relative aux températures les
plus basses. Plusieurs problèmes ont été décelés lors de la comparaison OMM de systèmes de
radiosondage haut de gamme organisée à Yangjiang (Chine) (OMM, 2011b). Les incertitudes
d’humidité relative dans la haute troposphère devraient s’améliorer avec le temps à mesures que
ces problèmes seront résolus.
Cette section traite de manière générale des méthodes de radiosondage. Des renseignements
plus précis sur les instruments et les procédures employés sont donnés dans d’autres parties.
b) Presque tous les capteurs d’humidité relative doivent être protégés contre la pluie. Le
recours à une plaque ou à un tube de protection réduit la ventilation du capteur et, par
conséquent, la vitesse de réponse de l’ensemble du système de détection. Ces dispositifs
de protection constituent par ailleurs une source de contamination après la traversée de
nuages. Toutefois, il demeure généralement plus intéressant d’assurer une protection contre
la pluie ou la glace que de les exposer directement à l’air ambiant. Des plaques ou des tubes
de protection sont donc le plus souvent utilisés pour les capteurs d’humidité relative. Une
autre possibilité est de disposer de deux capteurs, utilisés tour à tour: l’un est chauffé pour
prévenir toute contamination, tandis que l’autre transmet des données d’humidité relative;
puis le second est chauffé tandis que le premier fournit des mesures, et ainsi de suite.
Les capteurs d’humidité sont souvent placés près du capteur de température car, jusqu’à
relativement récemment, on considérait que les deux types de capteurs se trouvaient
à la même température. Toutefois, de nombreuses radiosondes mesurent maintenant
directement la température du capteur d’humidité, car celle‑ci est rarement tout à fait la
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 385
Le choix des radiofréquences pour les transmissions de radiosondes dans un lieu donné repose
sur de nombreux facteurs. Dans les régions où les vents en altitude sont forts, la distance oblique
des radiosondes est généralement importante et l’altitude des ballons souvent très basse. Il
est alors recommandé d’opter pour la bande de 400 MHz, qui assure une meilleure liaison
radiosonde‑système terrestre que la bande de 1 680 MHz. Quand les vents en altitude sont plus
faibles, les fréquences sont généralement choisies selon la méthode de mesure des vents en
altitude utilisée (voir le chapitre 13 de la partie I), soit 400 MHz quand la mesure du vent repose
sur un système d’aide à la navigation et 1 680 MHz quand la poursuite de la radiosonde est
assurée par un radiothéodolite ou un radar.
Tableau 12.1. Fréquences primaires utilisées par les radiosondes dans les bandes
des auxiliaires de la météorologie
Les fréquences radioélectriques du tableau 12.1 sont partagées avec d’autres services. Dans
certains cas, l’organisme national chargé des radiocommunications a attribué une partie des
bandes disponibles à d’autres utilisateurs et les bandes des radiosondes ne sont pas entièrement
réservées à cet usage. Dans les pays dotés d’un réseau de radiosondage dense, il existe des
spécifications rigoureuses concernant la dérive des radiofréquences et la largeur de bande
occupée par un vol.
Une organisation qui a l’intention de lancer des radiosondes devrait vérifier si les fréquences
voulues sont disponibles et s’il n’y a pas de risque d’interférence avec les activités de
radiosondage du Service météorologique national.
Les Services météorologiques nationaux doivent demeurer en contact avec les autorités
nationales chargées des radiocommunications dans le but de conserver les attributions de
fréquences radioélectriques nécessaires et de veiller à protéger leurs activités d’éventuelles
interférences. Il faut en outre éviter les interférences avec les plates‑formes de collecte de
données transmettant des informations vers les satellites météorologiques à des fréquences
situées entre 401 et 403 MHz, avec les liaisons descendantes de satellites météorologiques
entre 1 690 et 1 700 MHz et avec les opérations de télécommande et d’acquisition de données
associées à des satellites météorologiques à un nombre limité de sites entre 1 670 et 1 690 MHz.
Cette section décrit en détail les erreurs qui s’associent aux capteurs des radiosondes.
Trois types d’erreurs peuvent être distingués dans le domaine des mesures par radiosondage
(OMM, 1975):
a) Les erreurs systématiques propres au type de radiosonde d’un point de vue général;
b) Les erreurs de sondage représentant les variations des erreurs qui persistent, d’un vol à
l’autre, dans les couches épaisses verticales pour un type particulier de radiosonde;
c) Les erreurs aléatoires dans les observations, qui s’ajoutent aux erreurs de sondage au cours
d’une ascension donnée.
Toutefois, pour de nombreux utilisateurs, il est également utile de noter l’importance des
erreurs de représentativité associées à une mesure (voir Kitchen, 1989; et le chapitre 1 de la
partie I du présent guide). Par exemple, les systèmes d’assimilation de données attribuent aux
observations de température par radiosondage une erreur, qui est davantage liée à une erreur
de représentativité qu’aux faibles erreurs d’instrumentation définies à la section 12.4.7. Ce type
d’erreurs varie en fonction de la situation atmosphérique et de l’utilisation de la mesure. Par
exemple, plus les échelles de mouvements comprises dans un modèle de prévision numérique
du temps augmentent, plus les erreurs de représentativité de la radiosonde devraient diminuer,
car le modèle reflète mieux ce que mesure la radiosonde. En revanche, les climatologues
souhaitent obtenir des mesures proches d’une moyenne à long terme correspondant à une zone
importante autour du site de lancement. La structure établie sur la base de petites fluctuations
locales mesurées par la radiosonde est pour eux indésirable.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 387
Les mesures d’altitude effectuées au moyen d’un radar de poursuite haute précision ou d’un
GPS permettent de quantifier les erreurs systématiques dans les observations de l’altitude
géopotentielle. On peut se servir de ces résultats pour connaître les erreurs systématiques
touchant les mesures réalisées par les capteurs de pression, à condition que les erreurs de
température soient relativement faibles.
Comme la plupart des radiosondes de conception récente mesurent les températures nocturnes
avec une incertitude de ±0,2 K à une altitude de 30 km (OMM, 2006a, 2011b), il est possible de
déceler les erreurs systématiques entachant les mesures exécutées la nuit de sorte que celles‑ci
s’éloignent de ce degré d’incertitude.
Il reste toutefois impossible de comparer les températures diurnes avec la même incertitude.
À titre d’exemple, les valeurs moyennes de la température relevées au cours d’un seul et
même essai font apparaître une incertitude de ±0,5 K à une altitude de 30 km. Les instruments
scientifiques de sondage utilisés dans le cadre d’importants essais internationaux n’ont pas
encore atteint, le jour, le niveau de performances requis pour pouvoir établir des mesures
correctes avec la même incertitude que la nuit.
On peut vérifier les mesures de l’humidité relative dans des conditions d’humidité élevée, lorsque
les radiosondes traversent des nuages. Les célomètres laser et les radars de détection des nuages
peuvent fournir des mesures fiables plus précises du nuage observé à l’aide de la radiosonde
durant sa montée. La structure verticale de l’humidité relative déterminée par radiosonde,
y compris la présence de couches très sèches, peut être validée par rapprochement avec les
mesures effectuées à l’aide d’un lidar Raman.
Dans la plupart des essais comparatifs de radiosondes, on compare les résultats obtenus
avec un modèle de radiosonde à ceux produits par un autre, afin d’évaluer leurs différences
systématiques. Pour estimer la valeur des erreurs de sondage et celle des erreurs aléatoires, on
calcule les écarts types des différences entre les deux modèles de radiosonde. Les séries les plus
complètes d’essais comparatifs réalisés depuis 1984 sont les comparaisons internationales de
radiosondes organisées par l’OMM (OMM, 1987, 1991, 1996a, 2006b), de même que les essais
effectués au Brésil (OMM, 2006c), à Maurice (OMM, 2006a) et à Yangjiang (Chine) (OMM,
2011b). Les résultats correspondants et ceux d’autres essais effectués selon les mêmes normes au
Royaume‑Uni (voir les résultats du Service météorologique de Camborne (OMM, 2010b)), aux
États‑Unis d’Amérique ou en Suisse, sont parfois cités dans les sections ci‑après.
Il est extrêmement important de vérifier très soigneusement les radiosondes avant le vol, car les
erreurs commises en mesurant les valeurs de contrôle servant à ajuster les étalonnages peuvent
produire des erreurs de mesure importantes pendant la montée. Il faut également éviter les
erreurs d’observation des données de surface obtenues à partir d’un abri standard, puis incluses
dans le message de radiosondage. Une erreur dans l’évaluation de la pression de surface aura
un effet sur le calcul de toutes les valeurs de l’altitude géopotentielle. Pour la même raison,
l’observation de la pression de surface devrait correspondre à l’altitude officielle de la station.
Avec les radiosondes modernes, les erreurs aléatoires sont généralement minimes. En effet,
l’amélioration de l’électronique des radiosondes et du multiplexage a permis de renforcer la
fiabilité des liaisons de télémesure avec la station terrestre et du traitement automatisé des
données au sol. Ainsi, les erreurs aléatoires sont habituellement moins importantes que les
388 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
erreurs systématiques des radiosondes ou que les variations, d’un vol à l’autre, des performances
et de l’étalonnage des capteurs (erreurs de sondage). Les erreurs aléatoires peuvent toutefois
devenir significatives lorsque survient une panne partielle de la radiosonde en vol, lorsqu’une
interférence est provoquée par une autre radiosonde utilisant une fréquence de transmission
similaire ou quand la radiosonde se trouve à une distance oblique trop grande et à une altitude
trop basse pour les spécifications du récepteur et des antennes au sol.
Les erreurs de mesure découlent donc non seulement de la conception des capteurs et des
difficultés d’étalonnage en usine, mais également des problèmes de réception au sol des
signaux de télémesure et de leurs effets sur le traitement des données qui s’ensuit. Lorsque la
réception est mauvaise, le logiciel de traitement des données interpole souvent les valeurs des
quelques mesures jugées valides. Il est alors essentiel que l’opérateur connaisse l’ampleur de
l’interpolation touchant les observations. La piètre qualité des données peut forcer l’abandon du
vol et la réalisation d’un nouveau lancement.
Dans les systèmes automatisés, les erreurs de logiciel se produisent fréquemment dans des
circonstances particulières difficiles à déterminer sans procéder à une série d’essais. Elles sont
habituellement attribuables à l’omission involontaire d’une procédure visant à faire face à une
situation spéciale ou à une combinaison d’événements, procédure qui serait lancée intuitivement
par un opérateur humain d’expérience.
c) Un émetteur radioélectrique.
Les sondes de radiovent (voir le chapitre 13 de la partie I) renferment aussi des dispositifs
électroniques servant à la réception et à la retransmission des signaux de radionavigation, ou
bien un transpondeur radar.
Les piles utilisées devraient normalement pouvoir alimenter les radiosondes pendant toute
la durée d’un vol, quelles que soient les conditions atmosphériques. En cas d’ascensions
pouvant atteindre 5 hPa, elles devraient être d’une capacité suffisante pour pouvoir fournir le
courant requis pendant près de trois heures, si l’on tient compte du fait que les lâchers sont
souvent retardés et que les vols peuvent durer jusqu’à deux heures. Il faut en outre prévoir une
alimentation adéquate pendant trois heures si les radiosondes transmettent aussi des données
au cours de la descente. Il est souhaitable que les piles soient aussi légères que possible, qu’elles
puissent être stockées pendant longtemps et qu’elles soient sans danger pour l’environnement
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 389
Les piles sèches s’utilisent de plus en plus, car elles se trouvent partout, à très faible coût (en
raison de leur important volume de production à l’échelle mondiale), et présentent moins de
risques pour la santé et la sécurité au travail (elles ont aussi moins d’impact sur l’environnement).
En revanche, elles n’ont qu’une durée de stockage limitée et, en service, la tension fournie peut
varier davantage que celle des piles amorçables.
Il faut prendre soin de veiller à ce que les piles employées ne constituent pas un danger pour
l’environnement quand la radiosonde retombe au sol, après que le ballon a explosé.
Les radiosondes sont équipées de modèles d’émetteurs très divers. Pour émettre à des
fréquences atteignant 400 MHz, on fait principalement appel à des circuits à semi‑conducteurs,
tandis que pour émettre à 1 680 MHz, il est possible d’employer des oscillateurs à tube (à
cavités). Les émetteurs actuels sont pilotés par quartz, ce qui assure une bonne stabilité
des fréquences pendant le sondage. Cette stabilité pendant la manipulation au sol avant
le lancement et pendant le vol est un facteur important. Les émetteurs de radiosondes qui
fonctionnent à 400 MHz disposent en général d’une puissance de sortie inférieure à 250 mW,
contre 330 mW environ pour le modèle le plus courant fonctionnant à 1 680 MHz. La modulation
de l’émetteur varie d’un modèle de radiosonde à l’autre. Il serait préférable à l’avenir que les
fabricants de radiosondes conviennent d’utiliser une méthode et un format normalisés pour la
transmission des données depuis la radiosonde jusqu’à la station au sol. Cela permettrait une
interopérabilité entre les divers types de radiosondes pour l’utilisateur et éviterait de devoir
modifier chaque fois le matériel et le logiciel de réception au sol. Quoi qu’il en soit, dans de
nombreuses régions du monde, les autorités chargées des radiocommunications exigeront à
l’avenir le respect de certaines spécifications s’appliquant aux émetteurs de radiosondes, afin
de réduire autant que possible l’utilisation du spectre radioélectrique pour que les bandes de
fréquences radioélectriques attribuées aux aides météorologiques puissent être partagées avec
d’autres utilisateurs (voir la section 12.1.5.2).
12.3.1 Généralités
On exige des capteurs de pression qu’ils conservent leur exactitude sur une plage de mesure
dynamique très étendue, soit de 3 à 1 000 hPa, avec une incertitude de 0,1 hPa sur la presque
totalité de cette plage et de 0,01 hPa à une pression inférieure à 100 hPa. Les variations de
pression sont ordinairement décelées par une légère fluctuation électrique ou mécanique. Par
exemple, la déformation maximale type d’une capsule anéroïde atteignant environ 5 mm, le
transducteur utilisé doit traduire un déplacement approximatif de 0,5 µm. Il est par ailleurs
nécessaire de compenser les modifications de l’étalonnage causées par les variations de
température de la sonde pendant l’ascension. Ces variations peuvent être de l’ordre de plusieurs
dizaines de degrés, à moins que le capteur de pression ne soit monté dans un milieu stable.
390 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Par le passé, à l’époque où des capteurs de pression fiables pour les faibles pressions étaient
fabriqués, on remplaçait les données fournies par les capteurs peu satisfaisants par des valeurs
déduites des mesures de l’altitude établies par radar, comme au Royaume‑Uni avant 1978. Dans
certains pays de la Communauté d'États indépendants, des radars secondaires très précis sont
utilisés pour mesurer l’altitude géométrique au lieu d’installer un capteur de pression sur la
radiosonde.
Les capsules anéroïdes servent depuis longtemps de capteurs de pression dans la majorité des
radiosondes. Les anciens modèles de radiosondes renfermaient généralement des capsules de
50 à 60 mm de diamètre. Le coefficient d’élasticité du métal employé n’était pas fonction de la
température. La déformation de la capsule est mesurée soit à l’aide d’un dispositif externe, ce qui
exige une liaison mécanique entre celle‑ci et le transducteur, soit par un dispositif interne (voir la
section 12.3.3).
− ∈⋅S / e2 ⋅ de / dp (12.2)
La sensibilité est maximale lorsque e est faible et que la pression est la plus faible. Le capteur
capacitif décrit ici est plus compliqué à fabriquer, mais il convient mieux aux mesures en altitude,
la sensibilité pouvant être 10 fois supérieure à 10 hPa qu’à 1 000 hPa. La capacité a généralement
une valeur proche de 6 pF.
Grâce à l’évolution rapide des techniques associées au silicium, il est maintenant possible de
fabriquer des capteurs de pression fiables dans ce matériau. On forme une petite cavité à partir
d’un orifice pratiqué dans une couche semi‑conductrice épaisse. Cet orifice est recouvert d’une
très mince couche de silicium pendant que la cavité est maintenue à très basse pression. La
cavité fait ensuite office de capteur de pression, la pression atmosphérique étant mesurée par la
déformation de la couche de silicium.
Cette déformation de la couche de silicium peut être détectée à l’aide d’un condensateur. La
couche de silicium est recouverte d’une mince pellicule métallique, accompagnée d’une seconde
couche métallique utilisée comme référence. On mesure la déformation par les variations de
la capacité entre ces deux couches métalliques. Ce type de détecteur étant beaucoup moins
sensible à la température que le capteur à jauges extensométriques, il est largement utilisé. La
très petite taille de ces sondes permet d’éviter les erreurs d’étalonnage des capteurs anéroïdes
capacitifs, causées par les fluctuations des gradients de température touchant les détecteurs et
les dispositifs électroniques associés lors de la montée.
392 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les erreurs systématiques et les erreurs de radiosondage (variations d’un vol à l’autre, avec
k = 2) ont été évaluées à partir des valeurs obtenues lors des comparaisons internationales de
radiosondes organisées par l’OMM pour des types d’appareils déterminés. Les résultats figurent
au tableau 12.2. L’éventail des erreurs systématiques couvre la plupart du temps l’étendue des
résultats obtenus sur plusieurs essais.
Le système MRZ doté de radars secondaires a été mis en place en Fédération de Russie au milieu
des années 1980, avec les résultats indiqués en 1989. Ce système ne comprend aucun capteur de
pression. La pression est calculée à partir des mesures d’altitude géométrique, qui sont ensuite
converties en altitude géopotentielle, comme indiqué à la section 12.3.6. La qualité des mesures
dépendait de la performance de chacun des radars secondaires.
Les radiosondes VIZ MKII, et Meisei RS2‑91 étaient dotées de capteurs anéroïdes capacitifs, mais
de modèles différents. Les incertitudes générales (k = 2) de ces capteurs anéroïdes avaient le
plus souvent des valeurs inférieures à 2 hPa à la plupart des pressions. Les capsules anéroïdes
capacitives pouvaient produire toutefois des erreurs systématiques importantes, en particulier
lorsque la température interne de la radiosonde variait et que des gradients de température
apparaissaient au niveau du capteur et des composants électroniques qui lui étaient associés.
L’erreur systématique était en général inférieure ou égale à ±1 hPa pour les anéroïdes capacitifs,
mais elle pouvait être plus importante si les capteurs de pression subissaient un très gros choc
thermique lors du lancement.
La radiosonde Vaisala RS92 est équipée d’un capteur au silicium. Les performances de ce type
de capteurs n’ont pas été compromises par des chocs thermiques, avec des incertitudes même
meilleures que celles des anéroïdes capacitifs.
Pour avoir une idée de l’effet des erreurs figurant dans le tableau 12.2 sur les températures
transmises, il suffit de considérer qu’une erreur de 1 hPa produit, en moyenne, une erreur de
–01 K à 900 hPa, de –0,3 K dans la haute troposphère (à 200 hPa sous les tropiques), de ±0,5 K
à 30 hPa (variable suivant que les conditions sont estivales ou hivernales à environ 55° N) et
jusqu’à au moins 1 K dans la plupart des situations à 10 hPa.
L’erreur d’altitude géopotentielle en un temps du vol donné, εz (t1), s’exprime comme suit:
p1 p1 +ε p ( p1 )
R δT dp R δT dp
ε z ( t1 ) = ∫ ε T ( p ) − δ p ε p ( p ) p + g ∫ Tv ( p ) + ε T ( p ) − δ p ε p ( p ) p (12.3)
g
p0 p1
où p0 est la pression de surface; p1 est la pression réelle au temps t1; p1 + εp (p1) est la pression
indiquée par la radiosonde au temps t1; εT (p) et εp (p) sont, respectivement, les erreurs de
mesure de la température et de la pression (liées à la sonde) en fonction de la pression; Tv(p)
est la température virtuelle à la pression p; et R et g sont les constantes, respectivement, des gaz
parfaits et de la gravitation définies dans OMM (2011a).
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 393
Tableau 12.2. Plage d’erreur systématique et d’erreur de radiosondage (d’un vol à l’autre,
k = 2) et incertitude globale constatées à l’issue des mesures de la pression exécutées lors des
comparaisons internationales de radiosondes organisées par l’OMM et d’essais connexes
Type de
Erreur systématique Erreur de radiosondage Incertitude
radiosonde
Niveau de
850 100 10 850 100 10 850 100 10
pression (hPa)
MRZa
(Fédération de –1,5 à –0,5 –1,2 à –0,8 0 à 0,2 7 3,5 0,5 8 4 0,7
Russie)
Meisei RS2‑91 0,2 – 1 –0,1 à – 0,5 –0,2 à 0,2 1 0,6 0,6 2 1,1 0,8
VIZ MKII 0–1 0,7 à 1,1 0,3 à 0,7 1,6 0,6 0,4 2,5 1,6 1
Vaisala RS92,
capteur au < 0,5 < 0,3 < 0,2 0,8 0,4 0,2 1 0,6 0,4
silicium
MODEM
–0,8 à –0,4 < 0,1 < 0,05 1,2 0,4 0,03 1,6 0,4 0,05
M2K2a
Vaisala RS92a < 0,5 < 0,1 < 0,05 1,2 0,4 0,03 1,6 0,4 0,05
Lockheed
Martin
Sippican < 0,5 < 0,1 < 0,05 1,2 0,4 0,03 1,2 0,4 0,05
(LMS),a
LMG‑6
Note:
a Valeurs obtenues sans utilisation de capteur de pression, mais en calculant la pression selon les mesures d’altitude
géopotentielle; voir la section 12.3.6.
Tableau 12.3. Erreurs systématiques dans les observations de l’altitude géopotentielle (gpm)
découlant d’erreurs de pression et de température données
Pour un niveau de pression standard établi, ps, le deuxième terme de l’équation 12.3 disparaît,
car ps ne comporte pas d’erreur de mesure. L’erreur d’altitude géopotentielle correspondant aux
niveaux de pression standard est donc plus faible:
ps
R δT dp
ε z ( ps ) = ∫ εT ( p ) − δ p ε p ( p ) (12.4)
g p
p0
Le tableau 12.3 présente les erreurs d’altitude géopotentielle causées par des erreurs de capteurs
de radiosonde dans des atmosphères types. Les géopotentiels de niveaux de pression déterminés
présentent de petites erreurs, qui peuvent provenir des erreurs de température ou de pression
de la radiosonde. L’erreur de pression a un effet légèrement différent selon la latitude, car la
structure des profils de température type varie avec la latitude. Toutefois, une même erreur
de capteur de pression se traduit par des erreurs beaucoup plus importantes aux altitudes de
certaines structures, notamment des inversions de température, y compris à la tropopause et au
sommet ou à la base des nuages.
Les équations 12.4 et 12.5 font apparaître que les erreurs de géopotentiels à des niveaux
de pression standard sont essentiellement liées aux erreurs de température. Ainsi, si les
altitudes géopotentielles mesurées sont comparées avec les champs de prévision de première
approximation correspondants pour la PNT, l’écart d’altitude donne une idée du différentiel de
performance des mesures de température entre les deux sites (voir OMM, 2003).
12.3.6.1 Généralités
Actuellement, il est possible d’obtenir des données sur l’altitude géométrique à l’aide de
radiosondes GPS assurant le décodage des signaux des satellites de positionnement global,
une fonction que ne possédaient pas les premières radiosondes GPS. Ces données sur l’altitude
géométrique sont suffisamment précises (précision de 10 à 20 m) pour qu’il soit possible de
calculer la pression à un moment ou à un autre du vol, à partir de la pression en surface, de la
température et de l’humidité relative (voir les équations 12.12 et 12.13). Les valeurs de la pression
ainsi calculées dans la stratosphère sont plus précises que les mesures fournies par les meilleurs
capteurs de pression à bord de radiosondes (voir le tableau 12.2).
L’élimination des capteurs de pression sur les radiosondes GPS permet une réduction
considérable du coût de certaines radiosondes. Il est cependant également nécessaire de
vérifier quelles sont les exigences des utilisateurs en ce qui concerne les nouveaux modèles de
prévision météorologique numérique non hydrostatique, car les mesures directes de la pression
et de l’altitude géopotentielle dans la troposphère peuvent présenter un certain intérêt quand
l’équilibre hydrostatique n’est pas représentatif des conditions atmosphériques.
où γ(z, φ) est la gravité normale au‑dessus du géoïde. Le résultat est fonction de l’altitude
géométrique, z, et de l’altitude du géoïde, φ.
On divise ce géopotentiel par la gravité normale à 45º de latitude pour obtenir l’altitude
géopotentielle utilisée par l’OMM:
Z1 = Φ1 / γ 45° (12.7)
où γ45º est tiré de la définition comme étant 9,806 65 m s . La gravité à la surface est maximale –2
où RSMT(φ) est le rayon effectif de la Terre à la latitude (φ), établi selon les tables de la Smithsonian
Institution à la valeur choisie pour rendre compte des changements effectifs de l’altitude
géométrique dus à l’effet conjugué des forces gravitationnelle et centrifuge. Il ne s’agit pas du
rayon réel de la Terre à une latitude donnée. La figure 12.3 montre que le rayon défini selon les
tables de la Smithsonian Institution augmente depuis l’équateur jusqu’aux latitudes élevées, alors
que le rayon réel de l’ellipsoïde de la Terre est maximal à l’équateur et minimum aux pôles.
Comme les valeurs de RSMT(φ), sur les tables de la Smithsonian Institution, ont été obtenues aux
alentours de 1949, l’ellipsoïde de référence international de 1935 a été utilisé dans les calculs
plutôt que le Système géodésique mondial de 1984 (WGS‑84), utilisé de nos jours dans les
récepteurs GPS. Les tables de la Smithsonian Institution utilisaient la valeur de γSMT(φ) suivante:
(
γ SMT (ϕ ) = 9, 806 16 ⋅ 1 − 0, 002 637 3 ⋅ cos ( 2ϕ ) + 0, 000 005 9 ⋅ cos ( 2ϕ )
2
) m s −2
(12.9)
6 390
6 380
6 370
Rayon de la Terre (km)
6 360
6 350
Cette formule n’a pas été clairement établie dans des publications scientifiques, mais
l’Association internationale de géodésie a recommandé en 1949 de l’utiliser dans le domaine de
la météorologie.
Une autre manière de formuler la relation exprimée par l’équation 12.8 a été proposée par
Mahoney (communication personnelle), sur la base du géoïde WGS‑84. L’altitude géopotentielle
pour l’altitude géométrique, z1, devient alors:
(
Z1 ( z1 , ϕ ) = (γ s (ϕ ) γ 45° ) ⋅ ( R (ϕ ) ⋅ z1 ) ( R (ϕ ) + z1 ) ) (12.10)
où γs(φ) est la gravité normale sur la surface d’un ellipsoïde de révolution, et où:
(
γ s (ϕ ) = 9, 780 325 ⋅ 1 + 0, 001 931 85 ⋅ sin (ϕ )
2
) (1 − 0, 006 694 35 ⋅ sin (ϕ ) )
2 0,5
(12.11)
Le rayon R(φ) = 6 378,137/(1,006 803 – 0,006 706 · sin(φ)2), ce qui donne pour R des résultats
similaires aux valeurs des tables de la Smithsonian Institution.
Si l’altitude géopotentielle est calculée pour une altitude géométrique de 30 km, elle se situe
entre 29,7785 km à l’équateur et 29,932 km à 80° N, qu’on utilise les équations 12.8 et 12.9
ou 12.10 et 12.11. Les différences entre les valeurs d’altitude géopotentielle calculées selon
les deux méthodes sont inférieures à 1 m, et ne posent de ce fait pas de problème pour les
météorologues.
Tableau 12.4. Différences entre les altitudes géopotentielle et géométrique mesurées lors de
la comparaison OMM de radiosondes organisée à Yangjiang (Chine), à 22° N
16 000 70
24 000 135
32 000 220
où p est la pression en hPa; R* est la constante des gaz parfaits pour l’air sec; Tv est la température
virtuelle moyenne pour la couche en degrés Kelvin; dZ est l’épaisseur de la couche en altitude
géopotentielle, et i correspond à la limite inférieure de cette couche.
(
Tv = T 1 − (U 100 ) ⋅ ( es (T ) p ) ⋅ (1 − ε a ) ) (12.13)
où U est l’humidité relative de l’air, es est la tension de vapeur saturante pour la vapeur d’eau et εa
le rapport de la masse moléculaire de l’air humide et de l’air sec, avec εa = 0,622.
Tant qu’il n’y a pas d’interférence locale aux fréquences des signaux de navigation GPS, la plupart
des systèmes de radiosondes modernes peuvent indiquer avec une bonne exactitude l’altitude
par rapport à la hauteur où le verrouillage GPS a lieu pendant le vol. Toutefois, le logiciel doit
pouvoir interpoler les valeurs de manière fiable jusqu’à la surface (en prenant en compte les
changements de vitesse d’élévation du ballon immédiatement après le lancer) afin de garantir
des mesures GPS optimales. Au cours de la comparaison OMM de systèmes de radiosondages
haut de gamme organisée à Yangjiang (Chine) (OMM, 2011b), certains modules de logiciels
d’interpolation se sont avérés plus efficaces que d’autres et, dans les cas les moins satisfaisants,
les erreurs systématiques ont dépassé 10 m tout au long du vol d’un certain type de radiosonde.
Il est essentiel de vérifier l’altitude des antennes locales GPS par rapport aux capteurs de pression
de surface et de veiller à ce qu’elle soit correctement prise en compte dans les calculs du logiciel
du système de radiosondage. Il convient de se rappeler qu’un décalage (ou une erreur de
pression) de 1 hPa dans la pression à l’antenne par rapport au capteur de pression de surface à la
station de la radiosonde se traduit par une erreur d’altitude de 10 m tout au long du vol.
Le traitement des données au cours du vol ne doit pas être influencé par les variations sensibles
(positives comme négatives) de la vitesse ascensionnelle des ballons transportant la radiosonde.
Des erreurs de température et d’humidité relative n’ont d’incidence que sur le calcul de la
pression à partir de l’altitude géopotentielle (voir les équations 12.12 et 12.13). L’effet des erreurs
de température sur le calcul de la pression peut être évalué à partir des valeurs des erreurs
d’altitude au tableau 12.3, provenant d’une erreur de température de 0,25 K sur tout le profil.
Cette erreur de température conduirait à des erreurs de pression de 0,4, 0,3, 0,13 et 0,05 hPa à
des pressions nominales de respectivement 300, 100, 30 et 10 hPa.
Ainsi, dans la stratosphère, les altitudes géométriques mesurées par GPS peuvent fournir des
mesures de l’altitude beaucoup plus fiables que tout autre système de mesure de l’altitude
opérationnel. Près de la surface, les mesures d’altitude par GPS exigent le plus grand soin pour
offrir une qualité similaire à celle des meilleurs capteurs de pression. Les exigences correspondant
à l’avancée décisive pour la pression présentées dans l’annexe 12.A peuvent être remplies par
des radiosondes GPS à toutes les pressions. Toutefois, il n’est pas certain que tous les systèmes
de radiosondage GPS puissent satisfaire aux exigences optimales des capteurs de pression aux
niveaux peu élevés, tandis que, aux pressions inférieures à 100 hPa, les exigences les plus strictes
peuvent être remplies pour autant que les erreurs de température soient faibles.
L’effet des erreurs d’observation radar sur la mesure du vent est étudié au chapitre 13 de la
partie I. Les erreurs d’observation radar (aléatoires comme systématiques) sont toutefois
beaucoup plus importantes pour la détermination du site que pour le vent. L’erreur systématique
liée à la distance oblique pose également plus de problèmes pour les mesures de l’altitude que
398 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
pour celles du vent. Des radars fournissant des mesures satisfaisantes du vent présentent donc
souvent des erreurs de site et de distance oblique trop importantes pour offrir des mesures
d’altitude (et donc de pression) de la meilleure qualité.
Des erreurs systématiques de site faibles, mais non négligeables, peuvent provenir de sources
diverses:
c) Écarts entre les axes électriques et mécaniques des antennes de poursuite, susceptibles
d’apparaître lors de la réparation ou du remplacement d’une composante électrique du
radar.
Des erreurs peuvent provenir du système de transducteur qui mesure l’angle de site (la hauteur
angulaire) du radar à partir de la position mécanique de l’antenne de poursuite.
Les erreurs systématiques de distance oblique peuvent être imputables aux facteurs suivants:
Les meilleurs capteurs de température actuels réagissent suffisamment vite aux variations
de température pour garantir que, dans une couche d’un kilomètre d’épaisseur, l’erreur
systématique due au décalage thermique pendant la montée (la vitesse ascensionnelle est en
général de l’ordre de 5 à 6 m s‑1) demeure inférieure à 0,1 K dans la troposphère et inférieure
à 0,2 K dans la stratosphère. Cette faible erreur systématique s’observe en général lorsque la
constante de temps des capteurs est inférieure à une seconde dans la première partie du vol.
Il faudrait également que les capteurs de température soient conçus de manière à être aussi
peu exposés que possible aux erreurs entraînées par le rayonnement solaire, qu’il soit direct ou
rétrodiffusé. La zone de la section efficace exposée au rayonnement solaire devrait subir aussi
peu de variation que possible lorsque les capteurs décrivent une rotation par rapport au Soleil
pendant la montée. Pour éviter les échanges de chaleur dans l’infrarouge, on enduit les capteurs
d’un revêtement à faible émissivité dans cette partie du spectre.
Les capteurs de température doivent être suffisamment robustes pour résister aux secousses
qui se produisent au moment du lancement et assez stables pour demeurer étalonnés pendant
plusieurs années. Les principaux types de capteurs de température d’utilisation courante sont
les capteurs résistifs (notamment les thermistances constituées de semi‑conducteurs résistifs en
céramique ou les résistances à couche métallique).
La rapidité des capteurs s’exprime en général sous la forme d’une constante de temps τ, selon la
formule suivante (voir la section 1.6.3 du chapitre 1 de la partie I):
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 399
Ainsi, la constante de temps est le temps nécessaire pour réagir à 63 % à une variation brusque
de la température. La constante de temps du capteur de température est proportionnelle
à la capacité thermique et inversement proportionnelle au taux de transfert thermique
par convection ou diffusion du capteur. La capacité thermique dépend du volume et de la
composition du capteur, alors que le transfert thermique du capteur est lié à sa surface, au
coefficient de transfert thermique et à la vitesse de la masse d’air circulant sur celui‑ci. Le
coefficient de transfert thermique ayant un faible lien avec le diamètre du capteur, les constantes
de temps de capteurs de température constitués d’un matériau donné sont à peu près
proportionnelles au rapport volume/surface du capteur. Pour obtenir une réponse rapide, il faut
donc des capteurs minces de grande surface. La variation de la constante de temps en fonction
de la vitesse massique de l’écoulement de l’air peut s’exprimer ainsi:
−n
τ = τ0 ⋅(ρ ⋅ v) (12.15)
où ρ est la masse volumique de l’air, v la vitesse de l’air sur le capteur et n une constante.
La valeur de n varie de 0,4 à 0,8 selon la forme du capteur et la nature de l’écoulement de l’air
(laminaire ou turbulent). Le tableau 12.5 présente les constantes de temps de divers types de
capteurs de température, anciens comme modernes, à une vitesse ascensionnelle de 5 m s‑1,
pour des pressions de 1 000, 100 et 10 hPa. Ces valeurs proviennent tout à la fois d’essais en
laboratoire et de comparaisons en phase ascensionnelle entre radiosondes portant des capteurs à
très faible temps de réponse.
Le document OMM (2011b) présente des exemples où les temps de réponse de la plupart
des thermistances perles utilisées par des radiosondes lors de l’essai étaient les mêmes ou
légèrement plus rapides que ceux des thermistances pavés figurant au tableau 12.5.
Tableau 12.5. Constantes de temps types des capteurs de température sur radiosonde
12.4.2 Thermistances
où A et B sont des constantes. La sensibilité aux variations de la température est très élevée, mais
la réponse à ces variations n’est pas du tout linéaire, car la sensibilité décroît approximativement
en fonction du carré de la température absolue. Comme la résistance de la thermistance est
très grande, de l’ordre des dizaines de milliers d’ohms, l’échauffement spontané dû à la tension
appliquée au capteur est négligeable. Il est possible de fabriquer de très petites thermistances,
ce qui permet d’obtenir des temps de réponse très courts. L’effet du rayonnement solaire sur une
thermistance pavé moderne est d’environ 1 K à 10 hPa.
12.4.3 Thermocondensateurs
12.4.4 Thermocouples
Deux capteurs de température spécialement conçus ont été déployés dans le cadre de la
comparaison OMM de systèmes de radiosondage haut de gamme organisée à Yangjiang (Chine)
(OMM, 2011b):
a) Le capteur de température MTR utilise un fil de tungstène ultrafin comme capteur. Le fil,
qui a 0,01 mm de diamètre et 44 cm de longueur, est enroulé sur une bobine hélicoïdale de
0,2 mm de diamètre, avec un pas de 0,1 mm. Le fil est revêtu d’aluminium pour améliorer
sa réflectivité et, ainsi, réduire le réchauffement solaire (voir Shimizu et Hasebe, 2010).
Les capteurs de ce type ont de plus faibles constantes de temps que les thermocouples
cuivre‑constantan.
constantes de temps étaient les mêmes que celles des thermistances perles modernes.
Grâce aux mesures des cinq capteurs et à la connaissance précise des propriétés optiques
de leurs différents revêtements, on établit une température de référence ainsi que des
estimations du rayonnement solaire et infrarouge environnant. Cette température
estimative ne repose pas sur des hypothèses concernant la rétrodiffusion provenant de
la surface et des nuages, contrairement à ce qu’on observe avec d’autres systèmes de
correction des températures mesurées par radiosondes.
12.4.6 Exposition
Pour obtenir la meilleure exposition possible, les capteurs de température doivent être placés
au‑dessus du corps principal de la radiosonde (mais sous le corps d’une catasonde). Ainsi, l’air
chauffé ou refroidi au contact du corps de la radiosonde ou des supports du détecteur ne peut
ensuite atteindre ce dernier. On monte généralement le capteur sur un bras ou un mât qui le
maintient à la position voulue pendant le vol. Pour que la stabilité à long terme des mesures soit
garantie, il importe que cette position puisse être reproduite sans variation d’un vol à l’autre. Afin
d’obtenir une bonne exposition à faible pression, il faudrait que les supports et les connexions
électriques du capteur soient assez minces pour rendre négligeables les erreurs de réchauffement
ou de refroidissement imputables à la conduction thermique le long des connexions.
Quand on procède ainsi, les sondes de température sont exposées directement au rayonnement
solaire et au rayonnement infrarouge atmosphérique. Les détecteurs captent le rayonnement
solaire pendant les sondages diurnes et échangent en permanence le rayonnement de grande
longueur d’onde avec le sol et le ciel. La grandeur des erreurs de rayonnement ne dépend que
faiblement de la taille et de la forme des capteurs, puisque la taille des sondes a peu d’effet
sur les coefficients de transfert thermique par convection. On peut donc réduire les erreurs de
rayonnement avec de petits capteurs, à condition d’enduire ceux‑ci d’un revêtement qui limite
l’absorption des rayonnements solaire et de grande longueur d’onde, par exemple une couche
mince de métal. De nombreuses peintures blanches ayant un taux d’absorption élevé dans
l’infrarouge ne sont pas recommandées pour les capteurs de radiosonde.
Les erreurs propres aux anciens types de radiosondes, utilisées au cours de la période
1980–2000, sont présentées plus en détail dans le document OMM (2015).
12.4.7.1 Étalonnage
a) Des erreurs d’étalonnage en usine, qui surviennent de temps en temps et sont l’une des
raisons pour lesquelles les performances de la radiosonde en matière de mesures devraient
être vérifiées au sol avant le lancement;
402 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Thermocouple
cuivre-
constantan, 0,1±0,1 0±0,1 –0,1±0,2 –0,1±0,2 0,3 0,4 0,3–0,4 0,3–0,6 0,4–0,7
Meteolabor
(Suisse)
Thermo-
condensateur
filaire, 0,05±0,1 0,05±0,1 0,07±0,2 0,07±0,2 0,2 0,3 0,2–0,4 0,2–0,5 0,3–0,6
Vaisala RS92
(Finlande)
Thermistance
pavé,
Lockheed
0±0,1 –0,05±0,2 –0,07±0,2 –0,07±0,2 0,2 0,3 0,2–0,4 0,2–0,5 0,3–0,6
Martin
Sippican
(É.‑U.)
Thermistance
perle, 0±0,2 0,1±0,2 0,1±0,2 0,2±0,2 0,2 0,4 0,2–0,5 0,2–0,5 0,4–0,8
aluminée
Multi-
thermistances
ATM, de
Erreur prévue dans la limite ±0,1 K 0,2 0,2 0,2–0,3 0,2–0,3 0,2–0,3
la NASA
utilisées par
F. Schmidlin
Lorsque l’erreur systématique d’un type de radiosondes est présentée sous la forme d’un
intervalle, celui‑ci correspond à l’étendue des écarts décelés lors d’une série d’essais et prend
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 403
en compte la plage des résultats probables jusqu’à 30 hPa, selon des estimations fondées sur
l’observation de radiosondes (OMM, 2003). Les capteurs modernes ayant des revêtements
aluminés, les erreurs liées au rayonnement infrarouge sont très faibles et tout écart de
performance s’explique le plus souvent par la cohérence à long terme de l’étalonnage en usine,
par de légères instabilités des capteurs, dépendant parfois de la structure atmosphérique et de
la température interne de l’électronique de la radiosonde, notamment. Il est difficile d’établir
un classement entre les meilleurs systèmes du tableau 12.6, car des erreurs similaires ont été
attribuées aux capteurs concernés. La reproductibilité des mesures de température s’établit
facilement, mais il n’est actuellement pas possible de mieux définir les erreurs systématiques
indiquées dans le tableau. Des essais menés à grande échelle sous les tropiques n’ont pas donné
les mêmes résultats pour les erreurs systémiques qu’en Europe. Ainsi, les valeurs indiquées
sont des moyennes entre celles qui ont été obtenues dans les deux situations, la plage ayant été
définie de manière à comprendre les deux jeux de données.
Le tableau 12.6 ne présente que les erreurs de radiosondage à des pressions de 30 et 10 hPa,
car, pour la plupart des capteurs de température modernes, ce type d’erreurs varie peu entre la
surface et 30 hPa, même si certains systèmes ont rencontré des problèmes près de la tropopause
(OMM, 2011b).
Pendant de nombreuses années, les mesures de température des radiosondes indiennes MKIII
n’étaient pas satisfaisantes. Dans ce cas, toutefois, le manque de reproductibilité ne tenait
pas seulement aux performances des capteurs, mais aussi à l’instabilité de l’électronique
des radiosondes au cours de l’ascension. L’étalonnage des capteurs s’en voyait modifié et les
données fournies par le système en étaient dégradées. Ces radiosondes ont présenté pendant
de nombreuses années des erreurs de sondage à 100 hPa entre 2 et 4 K (OMM, 2003). Les
incertitudes associées à ces capteurs dans la phase II de la comparaison de radiosondes organisée
par l’OMM (OMM, 1987) se sont cependant révélées nettement plus faibles.
La plupart des capteurs de température emportés par des radiosondes ont des constantes de
temps suffisamment élevées pour ne pas nécessiter de corrections importantes des erreurs dues
au décalage thermique dans la troposphère et la basse stratosphère.
La plupart des peintures blanches employées aux fins du revêtement des capteurs ont une
émissivité relativement élevée dans l’infrarouge (> 0,8). L’échange thermique avec l’infrarouge
est donc susceptible d’introduire des erreurs importantes dans les mesures de la température.
Pour une structure verticale de températures donnée, les flux infrarouges varient sensiblement
d’un vol à l’autre, selon le type de nuage présent à proximité du trajet. Luers et Eskridge
(1998) offrent un bon exemple d’utilisateurs ayant entrepris de modéliser les erreurs dues au
rayonnement solaire et infrarouge dans le contexte des radiosondes exploitées dans les années
1990.
Les erreurs attribuables à l’infrarouge touchent les observations tant diurnes que nocturnes. Les
effets des erreurs associées à l’échange thermique infrarouge nocturne se manifestent dans les
mesures fournies par les thermistances à tige (utilisées sur la radiosonde russe), au tableau 12.6.
À haute pression, ces capteurs donnent des températures proches des valeurs de référence,
tandis qu’à faible pression, les températures mesurées sont beaucoup plus basses. Aux pressions
inférieures à 30 hPa, la température d’équilibre radiatif nocturne était généralement beaucoup
plus faible que les températures atmosphériques. De ce fait, le rayonnement infrarouge émis
par le capteur de température excédait le rayonnement infrarouge absorbé en provenance des
couches atmosphériques, de sorte que la température du capteur descendait au‑dessous de la
valeur réelle. Davantage de détails sur les effets qu’avaient les erreurs liées à ce rayonnement par
le passé figurent dans le document OMM (2015).
404 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Il faudrait renoncer au plus vite à l'emploi de toute peinture blanche sur les capteurs de
température afin que la variation des erreurs systématiques de température liées aux erreurs de
mesure dans l'infrarouge devienne négligeable dans tout le réseau des radiosondes.
Tous les capteurs de température équipant les radiosondes produisent, pendant les vols diurnes,
des erreurs dues au réchauffement causé par le rayonnement solaire incident, y compris le
rayonnement rétrodiffusé par les nuages et par la surface. Le tableau 12.7 présente les écarts
de température jour‑nuit mesurés à l’aide des radiosondes prises en compte au tableau 12.6. La
plupart de ces valeurs ont été établies à la suite de correctifs logiciels appliqués aux températures
diurnes par les divers systèmes pour tenir compte de hauteurs angulaires solaires comprises
entre 30° et 80°. Les structures de support des capteurs de température de la radiosonde russe,
relativement mal isolées thermiquement, s’échauffaient souvent davantage que le capteur,
de sorte que les radiosondes russes présentaient elles aussi des écarts jour‑nuit marqués aux
altitudes élevées.
Dans tous les systèmes de radiosondage fonctionnels modernes, des correctifs logiciels sont
appliqués lors du traitement des données pour compenser le réchauffement solaire (voir le
tableau 12.7). Ces corrections sont généralement établies à partir d’analyses des écarts de
température jour‑nuit (qui tiennent compte des variations diurnes réelles de la température
causées par les marées atmosphériques), couplées à des modèles du réchauffement solaire et,
parfois à des essais en laboratoire. Les corrections, qui prennent la forme d’une fonction de la
hauteur angulaire du Soleil pendant l’ascension, peuvent également tenir compte de la vitesse
ascensionnelle réelle, car les erreurs attribuables à la ventilation et au réchauffement varient
lorsque cette vitesse diffère des conditions d’essai standard. Les erreurs dues au réchauffement
sont extrêmement sensibles aux variations de la hauteur angulaire du Soleil quand celle‑ci est
petite (moins de 10°). Par conséquent, si le logiciel ne réactualise pas la hauteur angulaire du
Soleil pendant le vol, des erreurs importantes apparaissent lors de la correction des vols qui ont
Tableau 12.7. Écarts des valeurs jour‑nuit produits par différents types de capteurs de
température – Valeurs tirées des comparaisons internationales de radiosondes organisées par
l’OMM et d’essais connexes
Thermistance perlec, 0,2 – 0,5 0,3 – 1,1 0,4 – 1,5 0,6 – 2,3
aluminée
Notes:
a Selon l’utilisation décrite dans le document OMM (2011b).
b Tel que révisé à la suite d’essais ultérieurs (Philipona et al., 2013).
c Synthèse de la plage de résultats d’autres systèmes de radiosondes utilisant des
thermistances perles dans le cadre de la comparaison d’Yangjiang (OMM, 2011b). Voir
le document OMM (2015) pour obtenir des détails sur les divers types de radiosondes
analysés à Yangjiang.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 405
lieu au lever ou au coucher du soleil. Un correctif logiciel simple ne peut être efficace que dans
certaines conditions de nébulosité et de surface et ne peut convenir à tous les vols. Par exemple,
les radiosondes lancées à partir du littoral ont tendance à se diriger vers la mer. Par temps clair,
le faible albédo de la surface de la mer réduit le rayonnement solaire rétrodiffusé d’un facteur
deux ou trois par rapport aux conditions atmosphériques moyennes. Dans ces circonstances,
les corrections fondées sur des conditions moyennes peuvent aboutir à des valeurs largement
surestimées, avec, dans les pires des cas, des valeurs majorées de 30 %. Par contre, lorsque la
radiosonde traverse des nuages élevés épais ayant un albédo très élevé ou lorsqu’elle se trouve
au‑dessus d’un milieu désertique, la rétrodiffusion risque d’être beaucoup plus grande qu’à
l’habitude et le logiciel sous‑évalue la correction nécessaire.
Le tableau 12.8 récapitule les erreurs systématiques et les erreurs de sondage associées aux
principaux types de radiosondes modernes. Lors de l’établissement des erreurs systématiques
analysées dans le cadre de la comparaison d’Yangjiang (Chine) (OMM, 2011b), l’erreur
systématique nulle a été fixée à mi‑chemin entre celles de la sonde Vaisala/MODEM et de la
sonde LMS/multithermistance à 30 et 10 hPa. Cela tient au fait que des essais ultérieurs effectués
aux États‑Unis n’ont pas révélé d’erreurs importantes dans le système de multithermistance utilisé
à Yangjiang, c’est‑à‑dire que des variations diurnes atmosphériques réelles de la température
entre 30 et 10 hPa ont été observées à Yangjiang, avec une amplitude probable d’environ 0,15 K.
Dans les estimations de la marge d’erreur systématique du tableau 12.8, il a été supposé que les
correctifs logiciels normalisés pouvaient produire une marge d’erreur systématique de ±30 %. Au
cours d’un essai de radiosonde particulier, les conditions de rayonnement (albédo des nuages
et de la surface) ne changent en général pas beaucoup, de sorte que l’on pourrait croire que les
erreurs systématiques sont fixées de manière précise. Néanmoins, un essai effectué ailleurs peut
ensuite présenter des erreurs systématiques qui diffèrent bien davantage.
Quel que soit le type de sonde, les erreurs de sondage sont plus importantes le jour que la nuit
(voir les tableaux 12.6 et 12.8). Au cours de la montée, les radiosondes oscillent et tournent
comme des pendules suspendus au ballon, de sorte que les sections efficaces d’absorption des
capteurs varient pendant qu’ils tournent. De plus, l’air, qui se réchauffe au contact du support du
capteur ou du corps de la radiosonde, peut de temps à autre s’écouler le long d’un capteur qui se
trouve à l’air libre. Si ce risque n’a pas été éliminé lors de la conception (par exemple, si le capteur
de température est monté près du corps de la radiosonde, à mi‑chemin entre le sommet et la
base), les erreurs de sondage seront bien plus considérables pendant la journée. Le rayonnement
rétrodiffusé varie d’un vol à l’autre en fonction de la couverture nuageuse et contribue lui aussi à
accroître les erreurs de sondage pendant la journée.
Si la structure de support se trouve autour du capteur de température, l’air chauffé par contact
avec celle‑ci s’écoule sur le capteur dans certaines phases du cycle pendulaire, donnant ainsi une
impulsion positive à la valeur de la température transmise par la radiosonde pendant le vol. Il
est facile de déceler ces impulsions, qui peuvent atteindre 1 K à 10 hPa, lorsque les radiosondes
sont montées sur les dispositifs d’essai employés au cours des comparaisons de radiosondes
organisées par l’OMM, car elles tournoient alors en vol de façon très régulière. Le filtrage des
données brutes permet dans ce cas d’éliminer dans une certaine mesure les erreurs positives
dues à ce phénomène. Il convient donc de prendre en compte le filtrage des observations de
base de plusieurs systèmes lors de l’analyse des erreurs de températures diurnes des radiosondes.
La plage d’erreurs systématiques des mesures diurnes présentées au tableau 12.8 devrait être
d’autant plus petite que les systèmes de radiosondage présentent de petits écarts entre le jour et
la nuit. L’accroissement de l’incertitude liée aux mesures nocturnes provenant essentiellement de
la position problématique du capteur par rapport au corps de la radiosonde ou d’une conception
peu satisfaisante des supports de capteurs, il est à espérer que la plupart des radiosondes
modernes présentant d’importantes erreurs et de grands écarts jour‑nuit au tableau 12.7 seront
bientôt améliorées. Ainsi, les résultats d’Yangjiang offrent un instantané des performances
à l’époque, et les radiosondes présentant d’importantes erreurs systématiques à Yangjiang
devraient toutes avoir été plus ou moins modifiées dans les années suivant la comparaison.
Par exemple, les erreurs liées au rayonnement de la radiosonde suisse ont été revues lors de
nouveaux essais et la correction liée au réchauffement solaire est maintenant réduite comme
indiqué. Ces améliorations éliminent les biais négatifs qui s’associent aux résultats diurnes du
document OMM (2011b), présentés au tableau 12.8.
406 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les dépôts de glace ou d’eau sur le capteur de température constituent aussi une source d’erreur
de température. Ce phénomène provoque le refroidissement psychrométrique du capteur (par
l’effet du thermomètre mouillé) dès que l’humidité relative de l’atmosphère est inférieure à
100 %. Si les précipitations ne peuvent être rapidement éliminées et si le capteur reste longtemps
couvert d’eau ou de glace, une grande partie des mesures effectuées pendant la montée peuvent
être corrompues. Un appareil aluminé recouvert d’une couche de glace la nuit réagit comme
un capteur noir dans l’infrarouge, subissant alors un refroidissement important à basse pression
dans la plupart des conditions.
Thermocouple –0,2a –0,5a –0,8a 0,4 0,4 0,8 0,6 0,9 1,5
cuivre- –0,05b –0,2b 0b
constantan,
Meteolabor
(Suisse)
Thermo- 0±0,2 –0,2± –0,3±0,3 0,4 0,4 0,4 0,4–0,7 0,4–0,9 0,4–0,9
condensateur 0,2
filaire, Vaisala
(Finlande)
Thermistance –0,1±0,2 0,2±0,2 0,3±0,3 0,3 0,3 0,4 0,3–0,6 0,3–0,8 0,4–1,0
pavé, Lockheed
Martin Sippican
(É.‑U.)
Thermistance 0,1±0,2 0±0,3 0±0,5 0,4– 0,4– 0,4– 0,5–1,0 0,8–1,6 0,4–2,3
perlec, aluminée 0,8 1,3 1,7
Multi- ±0,2 ±0,2 ±0,3 0,3 0,3 0,4 0,3–0,5 0,4–0,6 0,4–0,7
thermistance
Notes:
a Selon l’utilisation décrite dans le document OMM (2011b).
b Tel que révisé à la suite d’essais ultérieurs (Philipona et al., 2013).
c Synthèse de la plage de résultats d’autres systèmes de radiosondes utilisant des thermistances perles dans le cadre
de la comparaison d’Yangjiang (OMM, 2011b). Voir le document OMM (2015) pour obtenir des détails sur les
divers types de radiosondes analysés à Yangjiang.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 407
Par ailleurs, si l’eau déposée sur le capteur gèle lorsque la radiosonde traverse des couches d’air
plus froides, la chaleur latente dégagée élève la température vers 0 °C. Si un capteur recouvert de
glace atteint des couches plus chaudes, la température ne peut dépasser 0 °C avant que la glace
n’ait fondu. Lorsqu’on obtient une température proche de 0 °C pour une couche isotherme dans
des conditions humides, il faudrait considérer cette valeur avec prudence.
Les questions relatives à la représentativité sont traitées dans le document OMM (2015).
12.5.1 Généralités
La qualité des mesures opérationnelles d’humidité relative est très inégale sur la planète (elle va
de bonne à mauvaise), car tous les types de capteurs présentés au tableau 12.10 restent utilisés
dans certains réseaux nationaux. Le capteur le plus utilisé est le double condensateur à film
mince chauffé. Il se trouve à l’air libre, sans protection, sur un bras qui le maintient au‑dessus
du haut de la radiosonde. Les autres condensateurs modernes à film mince sont en général
fixés à l’extérieur de la sonde, à l’air libre, sur un bras, et protégés par une plaque aluminée,
qui évite leur contamination par des précipitations et les protège dans la mesure du possible
du réchauffement solaire. Les hygristors au carbone, qui sont de moins en moins utilisés, sont
généralement montés sur la radiosonde dans un tube de protection. Les capteurs à peau de
batteur d’or, qui sont également montés dans une sorte de tube de protection, sont trop imprécis
et de portée verticale trop limitée pour répondre aux exigences des utilisateurs modernes, mais
ils restent utilisés dans un réseau national.
Tableau 12.9. Variation de la tension de la vapeur saturante par rapport à une surface d’eau,
exprimée en fonction de la température; source: Sonntag (1994)
30 42,5
15 17,1
0 6,1
–15 1,92
–30 0,51
–45 0,112
–60 0,019 5
–75 0,002 5
–90 0,000 23
Un bon capteur d’humidité relative embarqué par une radiosonde devrait aujourd’hui pouvoir
mesurer l’humidité relative avec une exactitude satisfaisante à toutes les températures entre
40 °C et –70 °C. Les capteurs de radiosonde peuvent également fournir des mesures utiles
près de la tropopause tropicale ou subtropicale, où les températures sont encore plus basses,
pour autant que certaines corrections soient appliquées (voir plus bas). Toutefois, la méthode
la plus fiable pour mesurer la vapeur d’eau aux températures les plus basses consiste à associer
l’hygromètre à point de rosée (voir Vömel et al. (2007a) aux résultats de la comparaison OMM de
408 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
systèmes de radiosondage haut de gamme (OMM, 2011b)). Le tableau 12.9 présente la plage des
tensions de vapeur saturante, par rapport à une surface d’eau, qui doivent être converties pour
établir l’humidité relative à tous les niveaux. Aux températures inférieures à 0 °C, les capteurs
d’humidité relative devraient être étalonnés pour indiquer les valeurs par rapport à une surface
d’eau.
Étant donné que le degré de saturation en eau ne peut pas être mesuré aux températures
nettement inférieures à –50°, les fabricants devraient utiliser l’une des formules qui suivent pour
calculer la tension de vapeur saturante pour l’eau aux températures les plus basses: Wexler (1976,
1977), Hyland et Wexler (1983) ou Sonntag (1994). Il ne convient pas d’appliquer l’équation
Goff‑Gratch recommandée dans des publications précédentes de l’OMM. La tension de vapeur
saturante dans les nuages de glace aux températures les plus basses dans la haute troposphère
tropicale correspond à environ 50 % de la tension de vapeur saturante par rapport à une surface
d’eau indiquée au tableau 12.9.
Il est extrêmement difficile d’obtenir des résultats satisfaisants lorsque les températures et les
pressions sont basses. Le libre échange des molécules d’eau entre le capteur et l’atmosphère
devient plus difficile à mesure que la température baisse. De plus, des concentrations trop
élevées de vapeur au début de la montée peuvent contaminer les capteurs et entraîner
d’importantes erreurs systématiques des mesures aux températures les plus basses. Par exemple,
si la contamination s’associe à un biais positif de 5 % à –60 °C, elle en entraîne un de 40 % à
–75 °C, à moins de prévenir la contamination par ventilation.
Dans la basse stratosphère et dans la haute troposphère, les mesures de vapeur d’eau devraient
être évaluées du point de vue du rapport de mélange et de l’humidité relative. La figure 12.4
présente la variation de la température, de l’humidité relative et du rapport de mélange en
fonction de l’altitude, selon les données fournies par quatre capteurs de radiosonde différents
lors de la comparaison OMM de systèmes de radiosondage haut de gamme (OMM, 2011b).
Immédiatement sous la tropopause, l’humidité relative est légèrement plus élevée que la
saturation, mais le rapport de mélange de vapeur d’eau était proche du minimum, ayant
chuté rapidement avec la température comme le laisse penser le tableau 12.9. Lorsque la
température s’élève au‑dessus de la tropopause, les deux capteurs d’humidité relative ayant le
temps de réponse le plus court (courbes grises) indiquent un rapport de mélange de vapeur
d’eau beaucoup trop élevé. Le capteur corrigé et l’hygromètre à miroir refroidi (courbes noires)
laissent apparaître un bref maximum immédiatement au‑dessus de la tropopause. Ces valeurs
sont improbables et suggèrent que l’humidité relative indiquée par les capteurs «noirs» dans
cette couche, entre les minutes 48.4 et 50, est trop élevée d’un facteur pouvant aller jusqu’à 2,5.
Cela tient probablement à une contamination de la charge utile ou de la zone de détection de
la radiosonde et non à un problème d’étalonnage. Une contamination pourrait être intervenue
plus tôt au cours du vol, entre les minutes 33 et 38, par suite du passage au travers d’une couche
épaisse de cirrus détectée par le radar de détection des nuages (non indiqué à la figure 12.4).
Le temps de réponse des capteurs d’humidité relative peut se définir comme suit:
dU e dt = −1 τ ⋅ (U e − U ) (12.17)
où Ue est l’humidité relative indiquée par le capteur, U est l’humidité relative réelle et τ est la
constante de temps.
Une autre difficulté est que le capteur d’humidité relative indique l’humidité relative liée à
la température du capteur. Si celle‑ci diffère de la température atmosphérique, une erreur
supplémentaire est introduite du fait du temps de réponse thermique du capteur d’humidité par
rapport à la température de l’air. On a considérablement réduit la taille des capteurs d’humidité
afin de résoudre ce problème dans la mesure du possible. Aujourd’hui, dans la plupart des
radiosondes, la température du capteur est mesurée directement.
La constante de temps d’un capteur d’humidité relative augmente beaucoup plus rapidement,
pendant la montée de la radiosonde, que celle d’un capteur de température. Cette différence
apparaît au tableau 12.10, qui présente les valeurs approximatives de cette constante pour deux
anciens types de capteurs et trois récents. Dans le cas des capteurs à peau de batteur d’or, les
constantes de temps ont été établies pour des variations d’humidité relative allant d’environ
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 409
Temps écoulé
Temps écoulé
53:00 53:00
52:00 52:00
51:00 51:00
50:00 50:00
49:00 49:00
48:00 48:00
47:00 47:00
46:00 46:00
45:00 45:00
44:00 44:00
–82 –80 –78 –76 –74 –72 –70 –68 –66 –64 °C 5 10 15 20 25 30 35 40 45 50 55 60 % 0,002 0,004 0,006 0,008 0,010 0,012 0,014 0,016 0,018 g/kg
40:00
35:00
30:00
Temps écoulé
25:00
20:00
15:00
10:00
5:00
–60 –55 –50 –45 –40 –35 –30 –25 –20 –15 –10 –5 0 5 10 15 °C 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 %
Figure 12.5. Moyenne de mesures prises simultanément, de nuit, aux premiers intervalles par
deux radiosondes suspendues au même ballon.
70 % à 30 %. Les constantes de temps des capteurs à peau de batteur d’or pour une température
donnée sont beaucoup plus importantes lorsque l’humidité relative est très élevée ou très basse.
Les valeurs pour le double condensateur à film mince (Vaisala RS92) indiquées dans ce tableau
diffèrent de celles que mentionnent Miloshevich et al. (2004). Elles proviennent de données
actualisées communiquées par le fabricant.
Les figures 12.5 et 12.6 montrent des profils de température et d’humidité relative obtenus par
radiosondage. La figure 12.5 présente un exemple d’ascension de radiosonde au Royaume‑Uni
combinant les mesures de deux capteurs différents. Des modifications subites de l’humidité
relative, qui interviennent souvent avec l’altitude, ont été observées ici par les deux types de
radiosondes. Les couches très sèches, en particulier, s’associent à des inversions de température.
L’existence de ces couches très sèches est aujourd’hui considérée comme attestée, mais, par le
passé, on ne s’y fiait pas car les capteurs ne pouvaient pas bien les mesurer. En l’occurrence, la
vitesse de modification de l’humidité relative en fonction de l’altitude au‑dessus de l’inversion la
plus basse était de 6 % d’humidité relative par seconde. Ainsi, les capteurs modernes sont utiles
pour examiner la variation de l’indice de réfraction atmosphérique en fonction de l’altitude, une
valeur importante pour la propagation du rayonnement. Aux moyennes altitudes, on observe
couramment des vitesses de variation de 3 % d’humidité relative par seconde.
Miloshevich et al. (2004) ont proposé une méthode pour améliorer le temps de réponse des
mesures d’humidité en se fondant sur l’équation suivante:
U = U e ( t2 ) − U e ( t1 ) ⋅ X (1 − X ) (12.18)
où U est l’humidité relative ambiante réelle et Ue est l’humidité relative communiquée pour les
temps t1 et t2; il est supposé que U ne varie pas sensiblement entre t1 et t2 (ce qui limite la taille du
pas de temps utilisé), et X = e ( 2 1 ) , où τ est la constante de temps du capteur d’humidité
− t −t /τ
relative.
Pour que l’algorithme donne des résultats satisfaisants, les données utilisées doivent être
aussi dépourvues d’anomalie et de bruits de fond que possible. Il convient d’appliquer une
forme ou une autre de contrôle de la qualité aux observations de base et à d’autres corrections
(telles que le réchauffement du capteur d’humidité par le soleil) avant d’entreprendre de
corriger la constante de temps. Cette correction ne permet pas d’obtenir les détails exacts des
profils verticaux de l’humidité relative à une résolution temporelle nettement plus fine que la
constante de temps du capteur. Elle fournit un profil vertical lissé avec des vitesses de variation
de l’humidité relative plus élevées que selon les mesures d’origine, mais tout détail du profil à
des pas temporels beaucoup plus petits que la constante de temps devrait être considéré avec
prudence. Comme le font voir Miloshevich et al. (2004), pour une mesure d’origine donnée, il
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 411
existe de très diverses réponses cohérentes avec la constante de temps connue. Le type de lissage
appliqué aux données d’origine influençant le profil obtenu, il convient de bien documenter le
lissage utilisé et d’expliquer aux utilisateurs sur quelles hypothèses se fonde l’algorithme utilisé.
Sur la base des exemples vus à Yangjiang (OMM, 2011b, annexe D), il a été conclu que tout
dispositif de captation de l’humidité, pour fournir des données sur la structure de l’humidité
relative près de la tropopause tropicale, devrait avoir une constante de temps d’au maximum
3 minutes. L’idée est que, si la constante de temps est trop longue, les ajustements opérés seront
trop importants et ne feront qu’amplifier les erreurs provenant du bruit de fond dans les mesures
ou de la contamination par de l’eau ou de la glace.
La figure 12.6 illustre l’ampleur des ajustements d’un profil d’humidité relative pour un capteur
dont la constante de temps est d’environ 80 s à –70 °C – un capteur utilisé dans la haute
troposphère tropicale au cours de la comparaison OMM de systèmes de radiosondage haut de
gamme de Yangjiang (Chine) (OMM, 2011b). Le profil corrigé de la figure 12.6 est nettement plus
lisse que les profils d’humidité relative mesurés dans la haute troposphère par les hygromètres
à miroir refroidi de la figure 12.4. Dans les données d’Yangjiang, auxquelles des corrections ont
été appliquées pour remédier au temps de réponse trop lent, le résultat paraît raisonnable dans
environ 65 % des cas et tout à fait faux le reste du temps. Il semble nécessaire de tester encore ce
type d’ajustements et le type de lissage appliqué.
Au cours de l’essai d’Yangjiang, les vitesses de variation les plus élevées observées dans la zone
de transition troposphère‑stratosphère étaient d’environ 30 % de l’humidité relative sur à peu
près 30 secondes. Ainsi, à l’heure actuelle, même le plus rapide des capteurs d’humidité relative
embarqués sur une radiosonde ne peut indiquer sans correction l’altitude réelle de la chute
brutale de l’humidité dans la tropopause tropicale. Les corrections appliquées à l’altitude de la
limite supérieure de la couche humide à Yangjiang étaient de 200 à 500 m. Toutefois, les deux
instruments de sondage scientifique utilisés à Yangjiang, qui avaient des temps de réponse plus
rapides, ont pu déterminer cette altitude plus précisément lorsqu’ils fonctionnaient bien (voir le
tableau 12.10).
Les capteurs capacitifs à film mince équipent maintenant la plupart des types de radiosondes
modernes. Leur fonctionnement repose sur la variation de la constante diélectrique d’un film de
polymère en fonction de la tension de la vapeur d’eau ambiante. La constante diélectrique est
Température Humidité
50:00
49:00
Version originale
48:00 corrigée
47:00
46:00
45:00
44:00
43:00
42:00
Temps écoulé
41:00
40:00
39:00
38:00
37:00
36:00
35:00
34:00
33:00
32:00
31:00
30:00
–80 –75 –70 –65 –60 –55 –50 –45 –40 –35 °C 5 10 15 20 25 30 35 40 45 50 55 60 %
Figure 12.6. Mesure du double condensateur à film mince dans la haute troposphère, de nuit,
à Yangjiang (Chine), présentée en fonction du temps de vol. On voit le profil d’humidité
mesuré directement par le capteur (courbe noire), et corrigé des erreurs provenant de la
constante de temps (en gris).
412 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
proportionnelle au nombre de molécules d’eau captées à des sites de fixation dans la structure
du polymère. L’électrode inférieure du condensateur est en général formée par gravage d’une
plaque de verre métallisée, dont la surface mesure soit 5 mm x 3 mm, soit 4 mm x 1,5 mm, et
dont l’épaisseur est de 0,55 ou 0,2 mm. Il faut souvent trouver un bon équilibre pour l’épaisseur,
car un film fin s’associe à une constante de temps plus rapide aux basses températures, mais
risque d’avoir des performances moins stables avec le temps. L’électrode supérieure, perméable
à la vapeur d’eau, est déposée sur la surface du polymère par évaporation sous vide. La capacité
du capteur est en général une fonction quasi linéaire de l’humidité relative, les variations de la
température influant peu sur l’étalonnage. Ces capteurs sont toujours montés sur un bras, qui
devrait les maintenir soit au‑dessus de la radiosonde, soit de côté, à bonne distance du corps de
celle‑ci.
Les variations de la température influent sur l’étalonnage de ces capteurs d’humidité relative. Des
corrections doivent donc être apportées pendant le traitement des données au sol, si l’on veut
que le degré d’exactitude annoncé pour le capteur à la température ambiante d’un laboratoire se
vérifie pour la plupart des mesures effectuées dans la troposphère.
Si le capteur n’est pas muni d’un capuchon protecteur, il convient d’éliminer toute contamination
due à de la pluie, des gouttelettes d’eau des nuages ou du givrage. Une possibilité est de chauffer
le capteur bien au‑dessus de la température ambiante. Dans le cas des doubles capteurs, l’un
d’eux prend des mesures tandis que l’autre est chauffé, puis ramené à la température normale
pour être à nouveau exploité (Paukkunen, 1995). Les deux capteurs sont montés à 1 cm de
distance et sont recouverts d’un mince revêtement hydrophobe pour réduire au minimum la
contamination par de l’eau liquide. Quand le soleil brille directement sur les capteurs et leurs
supports, les capteurs d’humidité se réchauffent par rapport à la température effective, surtout
dans la haute troposphère. Ce réchauffement doit être compensé si l’on veut obtenir des mesures
précises d’humidité. Une méthode consiste à mesurer directement la température du capteur
d’humidité, puis à utiliser cette valeur pour opérer une compensation. Dans les premiers modèles
de ce système de sondage, la plaque de circuit imprimé qui entourait le capteur n’avait pas de
revêtement à fort pouvoir réfléchissant, de sorte que le capteur d’humidité subissait pendant la
journée un réchauffement excessif. Il a donc été décidé que toutes les surfaces de soutien seraient
aluminées. Elles ont été testées pour la première fois à Maurice (OMM, 2006a), puis utilisées
en tant que produit opérationnel à Yangjiang (Chine) (OMM, 2011b). À l’origine, le fabricant
conseillait aux utilisateurs d’utiliser ce capteur avec un logiciel de correction pour les constantes
de temps longues aux basses températures et une correction pour le réchauffement solaire des
capteurs pendant le jour. Toutefois, la version la plus récente du logiciel du système qu’il propose
applique ces corrections automatiquement (par défaut).
Les hygristors au carbone sont composés d’un film hygroscopique renforcé par de fines particules
de carbone. On utilise aussi maintenant une bande de polystyrène (de 1 mm d’épaisseur,
de 60 mm de longueur et de 18 mm de largeur environ) enduite d’une mince pellicule
hygroscopique renfermant des fibres de carbone. Les électrodes sont ainsi recouvertes de part
et d’autre du capteur. Les variations de l’humidité relative ambiante modifient les dimensions
du film, ce qui élève progressivement la résistance. À 90 % d’humidité relative, la résistance est
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 413
une centaine de fois plus grande qu’à 30 %. Il est possible de corriger, pendant le traitement
des données, les erreurs imputables aux variations de la température. Les capteurs sont
ordinairement montés dans un tube situé à l’intérieur du corps de la radiosonde, de manière à
réduire au minimum l’effet des précipitations et à éviter le réchauffement direct par le soleil.
Il est important que la fabrication de ce type de capteur soit bien contrôlée afin de ne pas avoir
à déterminer individuellement la dépendance des appareils vis‑à‑vis de la température. Les
hygristors sont normalement soumis, aux températures ambiantes de l’usine, à de nombreux
cycles de rodage sur toute une plage de valeurs de l’humidité relative, dans le but de réduire
l’hystérésis pendant la montée de la radiosonde. Au cours de la fabrication, il est possible de
régler la résistance du capteur sur une valeur normalisée en grattant une partie du film de
carbone. Ainsi obtient‑on les données voulues en fonction de la valeur de résistance standard
pour des conditions spécifiées et les détecteurs deviennent‑ils interchangeables sans autre
étalonnage. Il faut conserver les capteurs dans leur emballage hermétique jusqu’au moment de
l’utilisation et éviter de toucher la surface hygroscopique pendant l’insertion dans le support de
la radiosonde.
Il convient de noter que les capteurs ne semblent pas pouvoir maintenir leur étalonnage dans des
conditions de forte humidité et que la reproductibilité des mesures est souvent mauvaise quand
l’humidité est faible. Dans la comparaison OMM de capteurs d'humidité de radiosondes (OMM,
2006b), il a été montré que, si les capteurs (fournis par le principal fabricant d’hygristors) étaient
maintenus dans des conditions d’humidité élevée pendant plusieurs heures, leur étalonnage se
modifiait de manière irréversible. Par ailleurs, les capteurs n’assuraient pas la reproductibilité des
mesures des faibles taux (< 20 %) d’humidité (voir Wade, 1995) et leurs mesures avaient amené
de nombreux météorologues à considérer – à tort – que la basse troposphère ne présentait
jamais des taux d’humidité relative inférieurs à 20 %.
Les capteurs à peau de batteur d’or (péritoine de bœuf) sont encore utilisés à l’heure actuelle.
La longueur de la membrane varie de 5 % à 7 % pour une variation du taux d’humidité de 0 % à
100 %. Il est possible d’obtenir des mesures utiles aux températures supérieures à –20 °C, mais la
réponse du capteur devient extrêmement lente au‑dessous de cette valeur (voir le tableau 12.10).
La peau de batteur d’or est fortement sujette à l’hystérésis après avoir été exposée à une faible
humidité.
Le capteur devrait être composé d’une seule épaisseur de membrane non vernie d’environ
0,03 mm, montée avec une tension approximative de 20 g cm–1 en largeur, puis rodée dans un
air saturé pendant plusieurs heures. Il est recommandé de conserver le capteur dans un air saturé
20 minutes avant l’étalonnage et avant l’utilisation afin de réduire au minimum l’hystérésis. On
devrait étalonner le capteur en l’exposant à un cycle complet de conditions d’humidité relative
(humides à sèches). Le capteur doit être protégé contre la pluie pendant le vol.
Deux instruments de sondage scientifique spécialement conçus pour la vapeur d’eau ont
été déployés lors de la comparaison OMM de systèmes de radiosondage haut de gamme de
Yangjiang (Chine) (OMM, 2011b). Ces systèmes ne se sont pas révélés aussi fiables en soi que les
radiosondes, mais, lorsqu’ils fonctionnaient bien, ils étaient extrêmement utiles pour déterminer
les faiblesses des radiosondes utilisées.
414 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
a) L’hygromètre à point de rosée (HPR) (Vömel et al., 2007a) est un hygromètre à miroir
refroidi. Son fonctionnement repose notamment sur une boucle de rétroaction, qui régule
la température d’un petit miroir, lequel est recouvert de glace (ou de rosée dans la basse
troposphère). Dans la boucle de rétroaction, un détecteur optique mesure la quantité de
glace recouvrant le miroir, et le régulateur adapte la température du miroir de manière à ce
que la quantité de glace reste constante.
Le HPR utilise un liquide froid d’une température inférieure à ‑100 °C pour refroidir le miroir
durant le vol. Le personnel chargé de la préparation et de la manipulation de ce fluide de
refroidissement avant le vol doit avoir suivi une formation et doit appliquer des procédures
de manipulation spéciales pour éviter toute blessure corporelle.
b) L’hygromètre SnowWhite s’appuie lui aussi sur le principe du miroir refroidi pour mesurer
la vapeur d’eau (voir Fujiwara et al., 2003), mais il utilise un refroidisseur à effet Peltier pour
refroidir le miroir. Il existe deux versions du système de détection. L’hygromètre à miroir
diurne était monté dans un tube interne du système de détection. Cette configuration
n’empêchait pas la contamination, ce qui diminuait l’exactitude des mesures au‑dessous
des températures de l’ordre de –50 °C. Cette version n’a donc été utilisée que lors de
quelques vols à Yangjiang. Dans la version nocturne, l’hygromètre à miroir n’avait qu’une
faible protection directe contre la contamination, mais une très bonne exposition aux
conditions ambiantes. À Yangjiang, le système nocturne SnowWhite a pu mesurer les
températures au point de rosée inférieures à –75 °C sur 70 % des vols de nuit. Deux vols
diurnes ont subi de fortes contaminations à proximité d’orages dans l’après‑midi, mais les
systèmes de détection SnowWhite nocturnes n’ont pas été beaucoup contaminés à l’étage
supérieur car, à cette occasion, les conditions d’ascension étaient favorables à l’exploitation
du SnowWhite. Toutefois, la contamination autour de la structure de l’hygromètre a
limité l’utilisation du SnowWhite aux altitudes inférieures à 18 km, juste au‑dessus de la
tropopause tropicale à Yangjiang. Tout comme le HPR, le SnowWhite présente l’avantage
d’avoir dans la haute troposphère une constante de temps bien plus courte que celles des
capteurs d’humidité.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 415
Par rapport aux capteurs d’humidité relative opérationnels, les deux hygromètres à miroir
refroidi présentent l’avantage d’être sensibles aux températures les plus basses dans la
haute troposphère et la basse stratosphère, pour autant que les mesures dégradées par une
contamination soient repérées et exclues. De plus, la qualité de leurs mesures ne varie pas
très sensiblement entre le jour et la nuit. Leurs mesures peuvent donc servir de références,
et sont très utiles pour déterminer les différences jour‑nuit. Une comparaison avec les
mesures effectuées selon la méthode du miroir refroidi a permis d’élaborer des procédés
de correction et de modifier des procédures opérationnelles afin de fournir des mesures de
meilleure qualité dans la moyenne comme la haute troposphère.
Les capteurs insérés dans des tubes ne constituent pas la meilleure méthode pour observer
les profils d’humidité relative par temps de pluie ou dans les nuages bas. Il serait donc
malavisé de considérer les hygromètres à miroir refroidi comme plus fiables que les
meilleurs capteurs de radiosonde opérationnels dans la basse troposphère.
12.5.6 Exposition
Les capteurs de petite taille, notamment les condensateurs à film mince, sont ainsi positionnés
sur un bras externe. Certains capteurs sont recouverts d’un petit capuchon protecteur et d’autres,
réchauffés périodiquement pour éliminer la contamination par l’eau ou la glace due à la traversée
de nuages ou de brouillards. Le capuchon protecteur ayant un effet primordial, il doit être étudié
pour que le capteur d’humidité soit bien ventilé au cours de l’ascension de la radiosonde.
De plus gros détecteurs étaient normalement installés dans un tube interne ou dans un grand
tube de protection situé sur le dessus ou le côté du corps de la radiosonde. Il convient de vérifier
que ce tube laisse bien circuler l’air pour assurer la ventilation du capteur pendant l’ascension.
Le tube devrait évacuer le plus rapidement possible la glace et l’eau provenant des nuages et
des fortes précipitations. Il devrait également protéger le capteur contre le rayonnement solaire
incident et une trop forte rétrodiffusion du rayonnement solaire. Il est nécessaire d’apporter une
attention particulière à la conception de ce type de tubes si l’on veut éviter la contamination des
capteurs dans les nuages élevés.
Les plaques de protection et les revêtements des tubes ne devraient pas être hygroscopiques.
On mentionnera par exemple les tubes d’admission au HPR en acier inoxydable et les supports
aluminés des capteurs de certaines radiosondes opérationnelles.
Les erreurs produites par les anciens types de radiosondes d’un usage courant entre 1980 et 2000
sont présentées plus en détail dans le document OMM (2015).
416 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
12.5.7.1 Généralités
Les capteurs d’humidité relative opérationnels ont été considérablement améliorés par rapport
aux capteurs utilisés avant les années 1980, en particulier pour les basses températures dans
la moyenne et la haute troposphère. Les observations d’humidité relative à des températures
inférieures à –40 °C n’étaient pas communiquées par les systèmes de radiosondes précédents, et
les rapports sur l’humidité relative à ces températures n’étaient guère fréquents jusqu’à environ
2000.
Les mesures d’humidité relative par radiosondage sont relativement peu évaluées en temps réel
par des utilisateurs, et il reste à mettre au point des méthodes pour informer les fabricants sur
la précision de l’étalonnage de leurs capteurs. Il serait par exemple envisageable de fournir des
données d’archive sur l’humidité relative mesurée lorsque la radiosonde passe à travers un nuage
bas, ou des statistiques d’essais au sol préalables au vol concerné. Lorsque des radiosondes
sont testées, il ne faudrait pas partir de l’hypothèse que l’incertitude des mesures est la même
à tous les niveaux d’humidité relative. Des résultats non uniformes ont encore été obtenus pour
de nombreux systèmes sur toute la plage des valeurs d’humidité relative lors de la comparaison
OMM de systèmes de radiosondage haut de gamme (OMM, 2011b). Toutefois, les meilleurs
systèmes sont actuellement beaucoup plus uniformes sur toute la plage qu’ils ne l’étaient lors
de la première série de comparaisons de radiosondes organisée par l’OMM, en 1984. Au cours
de la fabrication, l’étalonnage de chaque capteur n’est souvent réalisé qu’à quelques paliers
d’humidité relative (moins de trois) et, parfois, que pour une seule température (voir, par
exemple, Wade, 1995). Dans de nombreux cas, on ne procède pas à des contrôles individuels,
ni même par lots, de la dépendance de l’étalonnage à l’égard de la température; on suppose
là encore que celle‑ci suit des courbes déterminées lors d’un nombre limité d’essais. D’un lot
de capteurs à l’autre, l’étalonnage varie fréquemment de plusieurs points de pourcentage
d’humidité relative, comme le font apparaître des mesures effectuées dans les nuages bas
(Nash et al., 1995). Cela peut être imputable à de mauvaises procédures d’étalonnage en usine.
Par exemple, les performances réelles des capteurs d’un lot donné peuvent être différentes
des courbes d’étalonnage normalisées, ajustées aux vérifications préalables de l’humidité. Le
problème peut aussi tenir à une variation de la stabilité des capteurs d’un même lot pendant
l’entreposage. Par ailleurs, parmi les condensateurs à film mince, l’épaisseur du film n’est pas
toujours la même, de sorte que, aux basses températures, les capteurs les plus épais répondent
parfois très faiblement aux variations d’humidité, tandis que la majorité des capteurs du même
type ont des réponses homogènes dans des conditions similaires.
Dans les sections qui suivent, les erreurs sont tout d’abord examinées pour les températures
supérieures à –20 °C, une plage où les capteurs, anciens comme récents, sont censés fonctionner
de manière fiable. Avant 1990, la plupart des radiosondes utilisées posaient d’importants
problèmes pour mesurer les températures inférieures à –30 °C. Ainsi, seules les erreurs des types
de capteurs plus récents sont prises en considération pour les plages de températures entre
–20 °C et –50 °C (où ces capteurs fonctionnent de manière plus fiable) et entre–50 °C et –70 °C
(où seuls les capteurs d’humidité relative les plus récents ont pu répondre suffisamment vite pour
fournir des mesures utiles). L’analyse se poursuit ensuite en distinguant les résultats nocturnes et
diurnes. Les mesures nocturnes ne sont pas nécessairement plus fiables que celles qui sont prises
le jour car, dans de nombreux cas, les capteurs risquent davantage d’être contaminés la nuit si la
ventilation n’est pas satisfaisante, tandis que le réchauffement solaire des éléments proches des
capteurs tend davantage à réduire la contamination pendant la journée ou entraîne une faible
erreur systématique compensant l’humidité diurne.
La tension de vapeur d’eau est obtenue en multipliant la tension de vapeur saturante, calculée
à partir de la température fournie par la radiosonde, par la valeur de l’humidité relative fournie
par la radiosonde. Si la température du capteur d’humidité relative ne correspond pas à celle
qu’indique la radiosonde, la valeur transmise pour la vapeur d’eau (et donc pour tout point de
rosée dérivé) est erronée. Dans les régions de la troposphère où la température décroît avec
l’altitude, la température indiquée par le capteur d’humidité sera supérieure à la température de
l’air communiquée. Si la température du capteur présente un écart de 0,5 K avec la température
atmosphérique réelle, à une température avoisinant les 20 °C, l’humidité relative mesurée par le
détecteur correspond à environ 97 % de la valeur réelle, soit une erreur de–1,5 %, à une humidité
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 417
relative de 50 %. Quand la température baisse jusqu’à –10 °C, puis jusqu’à –30 °C, le même
décalage thermique du capteur entraîne une sous‑estimation de l’humidité relative mesurée, qui
correspond alors, respectivement, à 96 %, puis à 95 % de la valeur réelle.
Les erreurs systématiques des mesures d’humidité relative peuvent être causées par des
modifications de l’étalonnage pendant l’entreposage. Cela peut simplement tenir au
vieillissement du capteur ou à l’accumulation de contamination chimique (susceptible
d’apparaître dans les sites ouverts aux molécules de vapeur d’eau). Le degré de contamination
est tributaire des produits chimiques utilisés pour la fabrication du corps de la radiosonde ou de
son emballage. Il n’y a pas lieu de considérer qu’il restera le même si la technique de fabrication
du corps de la radiosonde ou des plaques de circuits imprimés évolue. Les instructions du
fabricant concernant l’entreposage des capteurs et les préparatifs d’utilisation doivent être
observées attentivement. Par exemple, il est essentiel de soumettre le Vaisala RS92 à la procédure
de vérification au sol avant son lancement, afin d’éviter l’accumulation de contamination
chimique et, de ce fait, une faible erreur systématique au début de l’ascension.
Le tableau 12.11 récapitule les différences systématiques d’humidité relative entre le jour et la
nuit aux températures supérieures à –20 ºC pour les capteurs les plus utilisés parmi ceux qui
ont été testés au cours de la comparaison internationale de radiosondes organisée par l’OMM.
Les résultats qui y sont présentés sont limités aux vols nocturnes afin d’éliminer l’influence du
réchauffement solaire. Des résultats plus détaillés d’essais préalables figurent dans le document
de Nash et al. (1995). Entre 1984 et 2000, les performances de la radiosonde Vaisala RS80
A‑Humicap ont servi de référence arbitraire pour faire le lien entre les essais précédents et la
comparaison de radiosondes organisée par l’OMM. Des essais plus récents menés au Brésil et
à Maurice ont également pris l’hygromètre SnowWhite à miroir refroidi de Meteolabor comme
étalon de travail. Les mesures du SnowWhite et du HPR ont été utilisées dans le cadre de la
comparaison OMM de systèmes de radiosondage haut de gamme organisée à Yangjiang (Chine)
et l’erreur systématique de la référence utilisée dans ces essais était probablement de l’ordre de
±2 % pour la gamme de température du tableau 12.11.
Dans les comparaisons présentées au tableau 12.11, les constantes de temps de la plupart des
condensateurs à film mince et de l’hygristor au carbone étaient similaires et suffisamment rapides
pour éviter les erreurs systématiques importantes qui s’associent à des temps de réponse trop
longs. Les capteurs à peau de batteur d’or réagissent de manière satisfaisante aux variations
rapides de l’humidité relative à ces températures. Toutefois, leurs temps de réponse très longs à
des valeurs d’humidité élevées et faibles contribuent aux importants écarts systématiques qui
apparaissent dans le tableau 12.11, les mesures étant trop faibles pour les taux élevés d’humidité
relative et trop élevées pour les taux faibles.
Les résultats indiqués pour l’hygristor au carbone de la radiosonde VIZ MKII présentent de très
grandes marges d’incertitude, en particulier pour les taux d’humidité très faibles. Les résultats
variaient selon que les conditions étaient sèches ou généralement très humides (en particulier
s’il pleuvait ou si des nuages contenaient de l’eau liquide). Cela semble s’expliquer par le fait
que l’étalonnage de ce nouveau capteur d’hygristor se modifiait aussi lorsque les conditions
étaient très humides (dans les nuages), entraînant d’importants biais négatifs aux faibles taux
d’humidité. Les modifications d’algorithme proposées, en particulier aux faibles taux d’humidité,
ne se sont pas traduites par une amélioration sensible de la qualité des mesures. La radiosonde
LMS‑6, qui a succédé à la VIZ MKII, utilise actuellement un capteur à condensateur. Les hygristors
au carbone sont utilisés en Inde et en Chine depuis une dizaine d’années.
Depuis 2005, la majorité des capteurs d’humidité modernes présentent une amélioration en
matière de stabilité, de protection contre la contamination par l’eau dans les nuages (dont les
effets sont normalement de courte durée et ne se traduisent pas par des décalages permanents
durant la montée) et de reproductibilité d’un lot à l’autre. Les résultats obtenus en conditions
sèches et en conditions humides peuvent maintenant être combinés, abstraction faite des
résultats obtenus en cas de très fortes précipitations, aucun système ne fonctionnant alors de
418 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
manière fiable. Ainsi, si l’on utilise les capteurs comptant parmi les meilleurs, il semble possible
d’obtenir des incertitudes (k = 2) de l’ordre de 5 % à 10 % sur toute la plage des humidités
relatives.
Le tableau 12.12 récapitule les écarts systématiques, les erreurs de sondage et l’incertitude
des mesures d’humidité relative par radiosondage durant la journée pour les températures
supérieures à –20 °C. Il ne présente que des données provenant de capteurs d’humidité de
conception moderne.
Les résultats obtenus lors d’une comparaison récente avec des observations à distance
simultanées (vapeur d’eau par radiomètres hyperfréquences ou par GPS) ont confirmé l’existence
d’écarts jour‑nuit dans les mesures de l’humidité relative fournies par les radiosondes modernes
(voir par exemple Turner et al., 2003; OMM, 2006a et 2011b). Ce type d’écart peut également
être estimé indépendamment, à partir de comparaisons récentes avec l’hygromètre SnowWhite,
car celui‑ci fournit des mesures relativement cohérentes entre le jour et la nuit aux températures
supérieures à –40 °C.
Les résultats du Vaisala RS92 ont changé en 2006 lorsque des perfectionnements sensibles de la
conception du support du capteur ont permis de modifier ses performances pour les mesures
Hygristor au carbone, 4–10 –4–4 –20– 10 4–16 6–20 14–20 4–20 6–40
VIZ MKII (É.‑U.) 10
SnowWhite, –1 –1 –1 4 5 3 5 6 4
Meteolabor (Suisse)
HPR (É.‑U./ 4e 3e 0 8 7 2 13 10 2
Allemagne)
Notes:
a Seules les données recueillies par temps sec ont été utilisées dans l’analyse.
b Utilise un capteur E+E Elektronik d’Autriche.
c Synthèse de la gamme de résultats d’autres systèmes de radiosondes sans défauts de conception majeurs
dans la comparaison d’Yangjiang (OMM, 2011b). Voir OMM (2015) pour plus de détails sur les divers types de
radiosondes analysés à Yangjiang.
d Utilise des informations de Miloshevich et al. (2009), ainsi que d’autres essais de l’OMM et du Royaume‑Uni.
e Il semble dans le document OMM (2011b) que le HPR présentait un biais positif aux faibles niveaux, comme le
décrivent également Miloshevich et al. (2009).
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 419
Double condensateur –9±2c –3±2d –1±2d 444 444 222 11–15 5–9 3–5
à film mince, Vaisala –3±2d 0±2e –1±2e 5–9 4–6 3–5
RS92 (Finlande) 1±2e 5–7
SnowWhite, –1 –1 –1 4 8 4 5 9 5
Meteolabor (Suisse)
HPR (É.‑U./ 1 1 0 8 8 2 9 9 2
Allemagne)
Notes:
a Utilise un capteur E+E Elektronik d’Autriche.
b Synthèse de la plage de résultats d’autres systèmes de radiosondage ne présentant pas de défauts de conception
majeurs lors de la comparaison d’Yangjiang (OMM, 2011b). Voir OMM (2015) pour plus de détails sur les divers
types de radiosonde d’Yangjiang.
c La sonde Vaisala RS92 originale, avec une carte nue de circuit imprimé intégrée dans le support des capteurs
d’humidité relative; les valeurs pour les tropiques proviennent de Vömel et al. (2007b).
d Vaisala RS92, avec des supports entièrement aluminés, mais sans correction du réchauffement solaire
(OMM, 2006a).
e Vaisala RS92, avec des supports entièrement aluminés et la correction du réchauffement solaire, aux tropiques
(OMM, 2011b).
diurnes. Dans les premiers modèles, une carte nue de circuit imprimé était intégrée aux supports
des capteurs. Ces supports se réchauffaient beaucoup plus que les surfaces aluminées et, ainsi,
réchauffaient l’air passant au‑dessus des capteurs d’humidité. Le problème ayant été constaté,
lors de la comparaison de radiosondes organisée par l’OMM à Maurice (OMM, 2006a), les
surfaces entourant les capteurs avaient été entièrement aluminées, ce qui a conduit aux résultats
indiqués à la note d du tableau 12.12. Les mesures communiquées par Vömel et al. (2007b), prises
avec le modèle RS92 (note c), révèlent un biais négatif plus grand que ceux qui ont été observés à
Maurice. L’alumination n’a pas supprimé le problème d’échauffement par le soleil, mais l’ampleur
de son effet a été réduite. Comme on peut le constater, c’est là la mesure qui a le plus contribué
à réduire l’incertitude des mesures d’humidité relative diurnes à l’aide de la sonde Vaisala. Dans
le cadre de la comparaison OMM de systèmes de radiosondage haut de gamme de Yangjiang
(Chine) (OMM, 2011b), un logiciel a été utilisé pour corriger le biais négatif lié au réchauffement
solaire.
Ainsi, les mesures diurnes du double condensateur à film mince n’ont été optimisées qu’après
la mise en place, à l’échelle mondiale, du logiciel utilisé lors de la comparaison d’Yangjiang,
et l’incertitude des mesures diurnes est restée bien moins satisfaisante que celle des mesures
nocturnes jusqu’à ce que les logiciels et le matériel aient été améliorés, après 2006.
En général, pour les meilleurs types de capteurs, il semble possible de ramener les incertitudes
(k = 2) à un taux de 5 % à 10 % sur toute la gamme des humidités relatives. Les erreurs
systématiques ne présentent en général pas une très grande différence entre le jour et la nuit
dans cette plage de températures.
420 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
12.5.7.4 Humidité relative nocturne pour les températures situées entre –20 °C et –50 °C
Le tableau 12.13 récapitule les écarts systématiques, les erreurs de sondage et l’incertitude
des mesures nocturnes d’humidité relative par radiosondage pour les températures situées
entre –20 °C et –50 °C. Dans la plupart des systèmes de radiosondage conçus avant 2000,
les performances des capteurs d’humidité relative étaient influencées par les conditions qui
prévalaient plus tôt au cours du vol, de sorte que les valeurs obtenues lors des premiers essais
dans cette gamme de températures n’étaient pas facilement reproductibles, même en éliminant
les valeurs liées aux conditions de forte nébulosité ou de pluie. Ces performances ne sont pas
prises en considération ici.
12.5.7.5 Humidité relative diurne pour les températures situées entre –20 °C et –50 °C
Le tableau 12.14 récapitule les écarts systématiques, les erreurs de sondage et l’incertitude (k = 2)
des mesures diurnes d’humidité relative par radiosondage pour les températures situées entre
–20 °C et –50 °C.
SnowWhite, –2 –1 3 6 8 4 8 9 7
Meteolabor (Suisse)
HPR 2 1 0 5 5 5 7 6 5
(É.‑U./Allemagne)
Notes:
a Seules les données recueillies par temps sec ont été utilisées dans l’analyse.
b Utilise un capteur E+E Elektronik d’Autriche.
c Synthèse de la gamme de résultats d’autres systèmes de radiosondes sans défauts de conception majeurs
dans la comparaison d’Yangjiang (OMM, 2011b). Voir OMM (2015) pour plus de détails sur les divers types de
radiosondes analysés à Yangjiang.
d Utilise des informations de Miloshevich et al. (2009), ainsi que d’autres essais de l’OMM et du Royaume‑Uni.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 421
Les mesures diurnes du double condensateur à film mince présentaient des biais négatifs plus
importants qu’aux températures plus élevées, prises en compte au tableau 12.12. Ce n’est que
vers 2011 que les biais négatifs erronés ont été supprimés des mesures pertinentes. Les grandes
incertitudes attribuées à ces mesures ont alors été réduites aux valeurs présentées pour la nuit au
tableau 12.13.
Durant la journée, les autres capteurs des essais d’Yangjiang ne présentaient pas le biais positif
nettement plus important que celui du condensateur LMS, qu’on peut observer la nuit au
tableau 12.13. Toutefois, dans cette fourchette de températures, il était plus difficile, le jour,
de faire en sorte que les radiosondes opérationnelles puissent effectuer des mesures avec une
incertitude (k = 2) comprise entre 5 % et 10 % dans toutes les conditions.
SnowWhite, 0 1 1 6 8 4 8 9 7
Meteolabor (Suisse)
HPR (É.‑U./Allemagne) 2 1 0 5 5 5 7 6 5
Notes:
a Seules les données recueillies par temps sec ont été utilisées dans l’analyse.
b Utilise un capteur E+E Elektronik d’Autriche.
c Synthèse de la gamme de résultats d’autres systèmes de radiosondes sans défauts de conception majeurs
dans la comparaison d’Yangjiang (OMM, 2011b). Voir OMM (2015) pour plus de détails sur les divers types de
radiosondes analysés à Yangjiang.
d La sonde Vaisala RS92 originale, avec une carte nue de circuit imprimé intégrée dans le support des capteurs
d’humidité relative; les valeurs pour les tropiques proviennent de Vömel et al. (2007b).
e Vaisala RS92, avec des supports entièrement aluminés, mais sans correction du réchauffement solaire (OMM,
2006a).
f Vaisala RS92, avec des supports entièrement aluminés et une correction du réchauffement solaire, aux tropiques
(OMM, 2011b).
422 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
12.5.7.6 Humidité relative nocturne pour les températures situées entre –50 °C et –70 °C
Le tableau 12.15 présente les écarts systématiques, les erreurs de sondage et l'incertitude (k = 2)
des mesures d’humidité relative par radiosondage effectuées la nuit pour des températures
situées entre –50 °C et –70 °C pour des capteurs récents uniquement. Ces capteurs/systèmes
de sondage diffèrent en matière de constante de temps. Ils présentent tous des constantes de
temps plus longues que la valeur optimale dans la haute troposphère et la basse stratosphère
aux tropiques. Certains deviennent lents à –60 °C et d’autres à –80 °C. Les hygromètres à miroir
refroidi, qui sont relativement rapides à ces basses températures, ont servi de référence pour
établir la rapidité de réponse des capteurs opérationnels.
Les erreurs de sondage apparaissant au tableau 12.15 à –60 °C sont en général deux fois plus
importantes que celles qu’on observe aux températures supérieures à –20 °C au tableau 12.11,
sauf dans le cas du HPR, dont les mesures sont davantage reproductibles aux niveaux élevés que
dans la basse troposphère. La référence utilisée au tableau 12.15 pour les erreurs systématiques
ne peut pas être définie plus précisément que ±4 %, car tous les capteurs, y compris le HPR
(en raison du risque de contamination), ont leurs limitations. Les corrections au titre de la
constante de temps appliquées à la sonde Vaisala RS92 en 2011 n’ont fait qu’augmenter son
erreur systématique de +0,5 % de HR dans la gamme allant de 40 % à 60 % et de ‑1,2 % de HR
dans la gamme allant de 20 % à 40 %. Lors de l’analyse des résultats de la comparaison OMM
de systèmes de radiosondage haut de gamme, certains vols de HPR et de SnowWhite ont
dû être écartés en raison de problèmes techniques. Il convient de se rappeler que les erreurs
systématiques du tableau 12.15 correspondent à des différences en valeur absolue d’humidité
relative et non à des taux de pourcentage de HR mesurée.
Le tableau 12.15 indique que, probablement, seulement deux systèmes de radiosondage peuvent
fournir des mesures nocturnes de l’humidité relative avec une incertitude de l’ordre de 6 à 12 %
à des températures situées entre –50 °C et –70 °C, avec ou sans nébulosité. Le document OMM
(2015) a montré que quatre autres systèmes pouvaient fournir des mesures dont l’incertitude est
de l’ordre de 10 % à 20 %.
HPR (É.‑U./Allemagne) 2 2 5 3 7 5
Notes:
a Utilise un capteur E+E Elektronik d’Autriche.
b Synthèse de la gamme de résultats d’autres systèmes de radiosondes sans défauts de conception
majeurs dans la comparaison d’Yangjiang (OMM, 2011b). Voir OMM (2015) pour plus de détails sur
les divers types de radiosondes analysés à Yangjiang.
c Utilise des informations de Miloshevich et al. (2009), ainsi que d’autres essais de l’OMM et du
Royaume‑Uni.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 423
Dans la stratosphère, en cas d’humidité très faible, le HPR devrait présenter une erreur de
sondage d’environ 2 % lorsqu’il mesure une humidité relative de 10 %, et d’environ 0,4 % pour
une humidité relative de 2 %. Par contre, les radiosondes opérationnelles, dont les erreurs
restent proches des valeurs indiquées au tableau 12.15, ne sont pas adaptées pour les mesures
stratosphériques, où un écart de quelques fractions de pourcentage d’humidité relative
se traduit par une différence considérable dans le rapport de mélange de la vapeur d’eau
communiqué.
12.5.7.7 Humidité relative diurne pour les températures situées entre –50 °C et –70 °C
Le tableau 12.16 présente les écarts systématiques, les erreurs de sondage et l’incertitude des
mesures diurnes d’humidité relative pour des températures situées autour de –60 °C. Les
sondes utilisées pour les mesures diurnes présentaient des erreurs de sondage similaires ou très
légèrement inférieures aux erreurs de sondage nocturnes. Ainsi, toute augmentation de l’erreur
de sondage provenant du réchauffement solaire était compensée par une diminution d’une
partie des erreurs provenant d’autres sources, telles que la contamination. Les structures sur le
plan vertical se sont révélées similaires le jour et la nuit, mais les erreurs liées à la constante de
temps étaient peut‑être plus importantes la nuit, ce qui pourrait avoir eu une incidence sur la
différence entre les erreurs de sondage le jour et la nuit.
Le système présentant le biais négatif le plus marqué est la sonde Vaisala RS92 (modèle original).
Les capteurs de température étaient chauffés à la fois directement par le rayonnement solaire
du capteur d’humidité et indirectement par l’air passant au‑dessus des capteurs après avoir été
réchauffé par les surfaces de cuivre nu sur les supports qui se trouvaient à proximité. Les autres
systèmes ont pour la plupart des revêtements aluminés, de sorte que le rayonnement direct du
soleil n’est pas le problème principal. Toutefois, l’air réchauffé qui passe sur les supports et le
plastique a une réelle incidence sur la température des capteurs d’humidité. Certains fabricants,
notamment Lockheed Martin Sippican et InterMet, mesurent la température du capteur
d’humidité à l’aide d’un capteur spécial. Dans le cadre des essais les plus récents, une correction
HPR (É.‑U./Allemagne) 2 1 5 5 7 6
Notes:
a Utilise un capteur E+E Elektronik d’Autriche.
b Synthèse de la gamme de résultats d’autres systèmes de radiosondes dont il a été établi qu’elles
étaient opérationnelles dans le cadre de la comparaison d’Yangjiang (OMM, 2011b). Voir OMM (2015)
pour plus de détails sur les divers types de radiosondes analysés à Yangjiang.
c La sonde Vaisala RS92 originale, avec une carte nue de circuit imprimé intégrée dans le support des
capteurs d’humidité relative; les valeurs pour les tropiques proviennent de Vömel et al. (2007b).
d Vaisala RS92, avec des supports entièrement aluminés, mais sans correction du réchauffement solaire
(OMM, 2006a).
e Vaisala RS92, avec des supports entièrement aluminés et une correction du réchauffement solaire, aux
tropiques (OMM, 2011b).
424 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
logicielle pour le réchauffement avait été apportée à la sonde Vaisala RS92 et au système Graw
(voir OMM, 2011b, annexe D). Or, pour les deux systèmes, les valeurs communiquées dans les
nuages à très basse température semblaient plus élevées le jour que la nuit. Elles semblaient
aussi beaucoup plus élevées que celles qu’indiquaient le SnowWhite et le HPR. Ainsi, pour
l’heure, les corrections appliquées aux radiosondes opérationnelles ne sont vraisemblablement
pas satisfaisantes, en particulier par temps nuageux, même si elles permettent probablement
d’atténuer l’effet des erreurs systématiques et de produire des valeurs plus correctes que les
mesures sans correction (voir les résultats de la sonde Vaisala).
Le tableau 12.16 indique que, en 2011, seuls deux systèmes de radiosondage étaient à même de
fournir des mesures d’humidité relative avec une incertitude de l’ordre de 6 % à 12 % la journée à
des températures entre –50 °C et –70 °C, quelle que soit la nébulosité (si le double condensateur
à film mince était doté du jeu de corrections complet utilisé à Yangjiang). Le document
OMM (2015) présente quatre autres systèmes pouvant fournir des mesures dans la gamme
d’incertitude allant de 10 % à 20 %.
La plupart des données utilisées pour les tableaux 12.15 et 12.16 proviennent d’essais effectués
aux tropiques, où la plage de températures autour de –60 °C peut se situer 4 km plus haut qu’aux
latitudes plus élevées (voir la figure 12.2). Les erreurs systématiques liées au réchauffement pour
une température donnée peuvent s’étendre sur une plage de valeurs. Les biais négatifs les plus
bas s’associent aux observations effectuées aux latitudes moyennes par conditions nuageuses,
avec une pression élevée, tandis que les importants biais négatifs s’associent aux observations
effectuées aux tropiques par temps clair.
D’autres éléments peuvent s’ajouter pour la mesure du vent (par exemple une interface radar et
les dispositifs de poursuite LORAN‑C ou GPS).
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 425
Les informations fournies par le décodeur sont généralement acheminées vers un ordinateur où
elles sont stockées, traitées et corrigées.
L’équipement d’une station terrestre peut être constitué soit d’un système intégré acheté auprès
d’un fabricant en particulier ou d’un ensemble de modules provenant de différentes sources.
Si la maintenance doit être principalement assurée par le fabricant ou ses agents, et non par les
opérateurs, il est préférable d’opter pour un système intégré. En revanche, il est possible qu’un
ensemble de modules puisse s’adapter plus facilement à différents modèles de radiosondes. On
pourrait par exemple y ajouter des décodeurs sans acheter le reste de l’installation correspondant
à chaque fabricant. Quand les opérateurs disposent de leur propre soutien technique et
informatique, un ensemble modulaire peut être la meilleure solution. Les systèmes construits
à partir de différents modules ont cependant posé des problèmes au cours des dix dernières
années, car ils sont complexes à tester et qu’il est difficile d’adapter les logiciels de correction
standard des différents fabricants à des systèmes de traitement non standard.
Note: L’évolution de l’électronique moderne est si rapide qu’il deviendra difficile aux fabricants de systèmes intégrés
d’assurer une assistance complète pendant plus de 10 à 15 ans. Il faudrait donc établir des cycles de remplacement de
l’équipement d’environ 10 ans lorsqu’on planifie les dépenses à long terme.
Les logiciels employés dans les stations terrestres de radiosondage sont beaucoup plus
complexes que les programmes qui évaluent, par exemple, les altitudes géopotentielles
des niveaux standard à partir de données exactes. Ils doivent éliminer les mesures de piètre
qualité et effectuer des interpolations pour combler les données absentes. Il existe toujours
le risque qu’un programmeur qui ne connaît pas suffisamment le domaine des radiosondes
effectue des simplifications apparemment fondées, mais pouvant introduire des erreurs très
significatives dans certaines circonstances. Par exemple, si la réception des signaux provenant
de la radiosonde est mauvaise, il est malvenu de se permettre trop d’interpolation en appliquant
des techniques mathématiques qui restent assez stables lorsque les données sont bonnes, mais
deviennent instables lorsque leur qualité laisse à désirer. Un bon exemple d’algorithme qui peut
devenir instable lorsque la qualité du signal est faible est la correction de la constante de temps
appliquée par certains fabricants pour la température.
Par le passé, on compensait parfois certains problèmes de réception des signaux et les erreurs
de pression survenant peu de temps après le lancement en ajustant l’indication horaire
correspondant aux données reçues. Cela ne fausse pas beaucoup les mesures effectuées, mais il
peut devenir presque impossible de vérifier le rendement des capteurs lors des essais comparatifs
de radiosondes.
Il est essentiel d’avoir recours aux services d’un spécialiste ou d’un expert‑conseil en
radiosondage pour garantir le contrôle global de la conception du logiciel1. Il faut aussi faire
appel à l’expérience d’un programmeur professionnel pour obtenir un logiciel efficace. Un
tel logiciel doit renfermer des fonctions interactives et d’affichage qui répondent aux besoins
opérationnels des opérateurs. Il doit être robuste et ne pas se bloquer facilement à la suite
de manipulations erronées de la part d’opérateurs inexpérimentés. Au cours de la dernière
décennie, il a fallu au moins deux ou trois années de travail, assorti d’essais par les Services
météorologiques nationaux, pour mettre au point la plupart des logiciels utilisés dans les
systèmes terrestres de radiosondage commerciaux. Ces essais, effectués par des opérateurs
et un personnel très qualifiés, ont dû se poursuivre jusqu’à ce que le logiciel soit totalement
fiable et utilisable facilement par un personnel ne possédant aucune compétence spéciale en
informatique.
Le logiciel des stations terrestres devrait être accompagné d’une documentation adéquate
renfermant notamment une description claire des algorithmes employés2. L’ensemble du
1
Recommandation 2 (CIMO‑XII), formulée par la Commission des instruments et des méthodes d’observation lors de
sa douzième session (1998).
2
Recommandation 2 (CIMO‑XII).
426 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
système devrait être conçu de manière à autoriser des simulations de sondage, aux fins d’essai
et de comparaison. Des gammes adaptées de données brutes de pression, de température
et d’humidité devraient être utilisées dans le but de vérifier la fiabilité des nouveaux logiciels.
Ce sont souvent les erreurs de logiciel qui réduisent l’exactitude des données fournies par les
meilleures radiosondes.
On effectue habituellement les vérifications à l’intérieur, par exemple dans un caisson ventilé, à
l’aide de capteurs de température et d’humidité relative de référence possédant une exactitude
conforme aux spécifications des utilisateurs. Il est possible de contrôler l’exactitude de la mesure
de l’humidité relative suivant le degré d’hygrométrie ambiant et à des valeurs faibles et élevées,
si nécessaire. Si l’on ne dispose pas de psychromètre de référence, on peut obtenir des degrés
d’hygrométrie connus à l’aide de solutions salines saturées ou de gel de silice.
Les écarts observés entre les mesures effectuées par la radiosonde et les lectures de contrôle
permettent d’ajuster les courbes d’étalonnage des capteurs avant le vol. Les capteurs servant
à contrôler la radiosonde doivent être vérifiés régulièrement, afin d’éviter les dérives à long
terme dans les erreurs d’étalonnage. En réglant l’étalonnage de la radiosonde au moyen du
logiciel, on peut normalement améliorer la reproductibilité des mesures réalisées en vol. Le type
d’ajustement nécessaire varie en fonction des causes de la dérive survenant après l’étalonnage
initial à l’usine et en fonction du type de radiosonde.
Si les mesures de contrôle montrent de grandes divergences, il faut rejeter la radiosonde pour
non‑respect des spécifications du fabricant et la faire remplacer. C’est au moment de l’achat des
radiosondes qu’il faut convenir avec le fabricant des valeurs maximales des écarts de mesures
obtenus au cours des vérifications au sol.
Il est par ailleurs sage de contrôler les performances de la radiosonde, lorsque celle‑ci est amenée
sur l’aire de lancement. On doit vérifier, tout juste avant le lâcher, la concordance entre les
données fournies par la radiosonde et les observations en surface réalisées à la station.
Compte tenu de l’importance de cette étape, la Commission des instruments et des méthodes
d’observation recommande3:
a) De vérifier avant le lâcher, en milieu contrôlé, par exemple, dans un caisson d’étalonnage ou
dans une installation de vérification de base, le fonctionnement des capteurs de pression,
de température et d’humidité relative;
b) D’automatiser dans la mesure du possible les vérifications de base afin d’éliminer le risque
d’erreur humaine;
3
Recommandation 9 (CIMO‑XI), formulée par la Commission des instruments et des méthodes d’observation lors de
sa onzième session (1994).
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 427
Les radiosondes sont normalement fixées à des ballons dont la vitesse ascensionnelle est de
5 à 8 m s–1, selon leurs spécifications et caractéristiques (voir le chapitre 8 de la partie II). Cette
vitesse permet d’effectuer rapidement les mesures – 40 minutes environ pour atteindre 16 km
d’altitude et 90 minutes environ pour atteindre 30 km – de sorte que les informations peuvent
être transmises sans tarder aux centres de prévision. La conception et l’emplacement des
capteurs de température et d’humidité relative sont généralement pensés de manière à assurer
une ventilation adéquate à une vitesse de montée d’environ 6 m s–1. Les corrections des erreurs
de température dues au réchauffement par le soleil ne sont ordinairement valables qu’aux
vitesses ascensionnelles spécifiées.
Une radiosonde transmet des informations à une station terrestre habituellement fixe. L’évolution
de la technologie a permis de réduire énormément la taille des systèmes terrestres entièrement
automatisés. On peut donc les déployer facilement comme systèmes mobiles à bord de navires
ou de fourgonnettes (ou remorques).
Les catasondes lâchées depuis un aéronef de recherche sont fixées à des parachutes qui en
ralentissent la descente. Les capteurs de température sont montés sous la sonde. La vitesse
de descente est souvent proche de 12 m s–1, ce qui permet d’effectuer les mesures en un quart
d’heure environ. À cette vitesse, l’aéronef peut lâcher un nombre suffisant de catasondes,
avec un bon espacement dans le plan horizontal, pour la recherche à moyenne échelle (moins
de 50 kilomètres). Les mesures transmises par la catasonde sont reçues et traitées à bord de
l’aéronef. Les systèmes en cours de mise au point seront en mesure d’exécuter et de transmettre
des lectures directes ainsi que de fonctionner automatiquement sous le contrôle d’un
programme. On est par ailleurs en train d’élaborer des drones pour le largage des catasondes.
Juste avant le lancement d’une radiosonde, il faudrait comparer les mesures météorologiques aux
relevés en surface obtenus soit à l’intérieur, dans un caisson d’étalonnage, soit à l’extérieur, sous
abri ventilé. Cette opération est nécessaire pour déceler les éventuels dommages subis par la
radiosonde pendant le transport, les défauts de fabrication et les dérives de l’étalonnage lors de
l’entreposage. Les radiosondes qui produisent des erreurs de mesure dépassant les seuils précisés
dans le contrat d’acquisition devraient être renvoyées au fabricant afin d’être remplacées.
Les radiosondes sont habituellement lâchées à la main ou au moyen d’un système d’aide au
lancement, à partir d’un hangar ou d’un abri. La complexité des procédures de lancement varie
selon le gaz utilisé pour gonfler le ballon (voir le chapitre 8 de la partie II) et selon la force et la
direction des vents de surface sur le site. Même au cours de la dernière décennie, l’utilisation
imprudente d’hydrogène gazeux a entraîné des accidents mortels dans le réseau mondial des
radiosondes. Les responsables de stations de radiosondage utilisant de l’hydrogène gazeux
doivent être conscients des dangers d’explosion et faire en sorte que tous les membres de leur
personnel soit dûment informés et formés pour utiliser de l’hydrogène. Les installations de
production et d’entreposage d’hydrogène doivent être scrupuleusement entretenues. Aucun
équipement défectueux ne doit être utilisé. Les installations de gonflage des ballons doivent être
reliées à la terre pour éviter toute décharge électrostatique.
Lorsque les vents sont forts, les dérouleurs permettent de déployer lentement la ficelle de
suspension de la radiosonde après le lancement. Les vents très forts obligent à dérouler la ficelle
à des vitesses de seulement 0,5 ou 1 m s–1.
428 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Des systèmes automatiques de lancement sont vendus dans le commerce. Ils peuvent être
avantageux dans les stations où le personnel n’est affecté qu’au fonctionnement des radiosondes,
mais ils ne conviennent pas toujours aux emplacements très exposés, marqués par de très forts
vents de surface.
Si les utilisateurs ont besoin de données précises sur la structure verticale de la couche limite
atmosphérique, il faudrait réaliser les mesures de surface, qui seront reportées dans le message
d’observation en altitude, dans un lieu proche de l’aire de lancement des radiosondes.
L’emplacement de l’aire de lancement devrait être représentatif des conditions de la couche
limite relevées par le réseau synoptique de surface de la région. Il est souhaitable que l’opérateur
(ou le système automatisé) effectue les observations en surface immédiatement après et non
avant le lâcher du ballon. L’opérateur devrait insérer des observations en surface dans le système
au sol avant le lancement, car les conditions météorologiques peuvent changer en cas de retard
important du lancement (par exemple, en cas d’éclatement du ballon ou de délai découlant du
contrôle de la circulation aérienne). Il faut impérativement que les valeurs exactes de la pression
en surface soient insérées dans le système au sol si le système de radiosondage mesure la
pression à l’aide d’un dispositif GPS.
Il ne faut pas suspendre la radiosonde trop près du ballon pendant le vol, car ce dernier biaiserait
les mesures de la température et de l’humidité relative. Une traînée d’air, réchauffée au contact
de la surface du ballon pendant le jour et refroidie quelque peu la nuit, suit le ballon pendant son
ascension. Le sillage peut être également contaminé par la vapeur d’eau présente à la surface du
ballon après la traversée des nuages. La longueur de suspension nécessaire pour empêcher que
les mesures ne soient trop perturbées varie en fonction de l’altitude maximale d’observation.
Cela tient au fait que le sillage du ballon subit un réchauffement ou un refroidissement plus
marqué quand les pressions sont très basses. Une longueur de suspension de 20 m peut suffire
pour éliminer les erreurs significatives dans le cas de ballons ne montant qu’à 20 km. Toutefois,
lorsqu’ils atteignent 30 km ou plus, on a plutôt besoin d’une longueur d’environ 40 m (voir, par
exemple, OMM, 1994).
Note: Quand on étudie l’effet du sillage des ballons sur les mesures effectuées, il est essentiel que les capteurs soient
correctement exposés. Ceux‑ci doivent être montés de sorte que l’air ayant été en contact avec d’autres surfaces de la
radiosonde ne puisse les atteindre pendant la montée. Les sources de contamination par la chaleur ou la vapeur d’eau
sont les suivantes: surfaces internes des tubes de protection, supports des capteurs et surfaces externes du corps de la
radiosonde.
Les radiosondes doivent être conformes aux règlements de sécurité de la circulation aérienne
quant à la taille, à la masse et à la masse volumique. Ces règlements visent à limiter les
dommages en cas de collision avec un aéronef ou d’aspiration par un moteur. Dans de nombreux
pays, l’organisme national chargé de la circulation aérienne émet des règlements régissant
l’utilisation des ballons libres et exige l’enregistrement officiel des aires de lancement. À certains
endroits, les lancements sont interdits ou soumis à l’approbation des contrôleurs de la circulation
aérienne. Il faut se renseigner sur les formalités d’autorisation avant de choisir une nouvelle aire
de lancement.
Les règlements de sécurité de certains pays exigent qu’un parachute ou tout autre moyen
d’amortir la chute des instruments après l’éclatement du ballon soit fixé à la suspension de la
radiosonde, en vue de protéger la population contre d’éventuelles blessures. Le parachute doit
être en mesure de réduire la vitesse de descente près de la surface à moins de 6 m s–1 environ. Les
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 429
lambeaux du ballon qui restent accrochés après l’éclatement limitent habituellement la vitesse
de chute à faible altitude. Il arrive toutefois que le ballon se détache presque entièrement, ce qui
justifie l’utilisation d’un parachute pour freiner suffisamment la chute de la radiosonde.
Il importe que les radiosondes soient inoffensives pour l’environnement après leur chute sur la
terre ferme ou en mer et ne présentent aucun danger si elles sont récupérées par le public ou un
animal, ou laissées sur place.
12.8.1 Comparaisons
Des centres de prévision contrôlent la qualité globale des mesures de l’altitude géopotentielle
par radiosonde (et donc des mesures de la température dont la moyenne est établie pour
des couches épaisses) en les comparant aux prévisions à court terme (six heures) de l’altitude
géopotentielle des niveaux de pression standard, fournies par les modèles mondiaux de prévision
numérique du temps pour le même emplacement. Les données statistiques ainsi établies sont
regroupées en moyennes mensuelles qui servent à repérer les mesures de qualité insuffisante
ainsi que les modifications systématiques importantes du rendement des radiosondes. C’est
le Centre européen pour les prévisions météorologiques à moyen terme, établi à Reading, au
Royaume‑Uni, qui est principalement chargé de cette tâche par la Commission des systèmes de
base, mais d’autres centres de prévision nationaux produisent également ce type de statistiques.
On peut également déceler, dans chaque station, les erreurs aléatoires des mesures de
l’altitude géopotentielle (et donc de la température) en analysant les variations dans les séries
chronologiques de mesures de l’altitude géopotentielle, à des pressions inférieures ou égales
à 100 hPa, dans des conditions de faible variabilité atmosphérique d’une journée à l’autre.
On trouve dans Nash (1984) et OMM (1989b, 1993b, 1998, 2003) des exemples illustrant
la concordance entre les résultats obtenus à l’aide de cette méthode et ceux que fournit la
comparaison avec les champs de prévision à court terme.
Les centres de prévision numérique du temps fournissent également des statistiques sur les
performances des capteurs d’humidité relative, qui sont aussi comparées avec des données
provenant d’observations par satellite.
Il est possible d’étudier en laboratoire les performances des radiosondes et de leurs capteurs
en simulant les conditions de température et de pression des vols dans des caissons d’essai
convenablement équipées.
Avec les meilleurs modèles mondiaux de prévision numérique du temps, les erreurs aléatoires
que comportent les prévisions à court terme (six heures) de l’altitude géopotentielle à 100 hPa se
situent entre 10 et 20 m dans la plupart des régions du monde. Cela correspond à une erreur de
température moyenne, pour une couche se situant entre la surface et 100 hPa, qui oscille entre
0,15 et 0,3 K. Ainsi, la comparaison avec les champs de prévision permet de détecter les erreurs
de sondage de température qui dépassent à peu près 0,3 K. Dans ce type de comparaison,
430 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
on utilise les champs de prévision comme référence, plutôt que les champs d’analyse, car ils
sont moins influencés par les erreurs systématiques que comportent les mesures de l’altitude
géopotentielle obtenues par radiosondage dans la région. Les champs de prévision à échéance
de six heures produisent néanmoins de faibles erreurs systématiques et ne devraient donc pas
être considérés comme une référence absolue. L’incertitude entachant ces erreurs systématiques
est d’au moins 10 m à 100 hPa. Les différences systématiques entre les prévisions et les mesures
d’une station de radiosondage donnée varient, d’un centre de prévision à l’autre, d’au moins
cette amplitude. En outre, les erreurs systématiques des champs de prévision peuvent aussi
fluctuer d’autant lorsqu’on améliore les modèles de prévision et les techniques d’assimilation
des données. Les comparaisons avec les champs de prévision effectuées dans les principaux
centres fournissent toutefois des indications précises sur les stations et les types de radiosondes
qui produisent de grandes erreurs systématiques dans les messages. Le document OMM (2003)
présente l’étude la plus récente publiée sur les erreurs de radiosondage dans le réseau mondial
jusqu’à 30 hPa, et des statistiques de contrôle ultérieures peuvent être obtenues sur le site Web
de l’OMM à l’adresse http://www.wmo.int/pages/prog/www/IMOP/monitoring.html.
On peut évaluer les erreurs aléatoires que comportent les radiosondages à partir de séries
chronologiques de mesures rapprochées de l’altitude géopotentielle, à des niveaux de pression
auxquels l’altitude géopotentielle varie lentement en fonction du temps, soit 100, 50 ou 30 hPa.
Pour les observations de radiosondage effectuées toutes les douze heures, on calcule l’écart entre
l’observation réalisée à +12 h et une interpolation linéaire dans le temps entre les observations
réalisées à 0 et à +24 h. On poursuit ensuite les calculs de 24 heures en 24 heures dans la série
chronologique. Une évaluation des erreurs aléatoires que comportent les radiosondages peut
ensuite être déduite de l’écart type de ces différences. Sur la plus grande partie de l’année, cette
procédure est aussi sensible que les comparaisons avec les champs de prévision. Toutefois, en
hiver, aux latitudes moyennes et élevées, il peut arriver que l’altitude géopotentielle à 100 et
jusqu’à 30 hPa fluctue très rapidement en un court laps de temps.
Les valeurs moyennes des écarts obtenus grâce aux séries chronologiques peuvent donner des
renseignements sur les écarts jour‑nuit dans les mesures de la température. Lorsque l’on veut
interpréter les différences jour‑nuit, il faut prendre en compte les variations quotidiennes réelles
de l’altitude géopotentielle causées par les marées atmosphériques diurnes et semi‑diurnes.
Les écarts jour‑nuit réels aux latitudes moyennes, aux altitudes géopotentielles correspondant
à 100 hPa, peuvent atteindre 30 m entre les observations réalisées à 1800 et 0600 (heure locale)
(Nash, 1984), tandis qu’ils se situent généralement entre –10 m et +10 m entre 1200 et 0000
(heure locale).
Il est recommandé aux stations de radiosondage de consigner les fluctuations dans les séries
chronologiques de mesures de l’altitude géopotentielle à 100 hPa et dans la fourchette
100‑30 hPa, pour faciliter la détection des grandes erreurs de mesure pendant l’ascension.
Étant donné que de nombreuses stations de radiosondage se trouvent en un même lieu que
des capteurs GPS de vapeur d’eau et que certains sites scientifiques sont implantés au même
endroit que des radiomètres hyperfréquences, il est possible de corréler les mesures de vapeur
d’eau des deux systèmes pour vérifier la qualité des mesures de vapeur d’eau par radiosondage,
en particulier pour les bas niveaux. Des comparaisons avec des données GPS ont été menées au
cours des deux dernières comparaisons OMM de radiosondes (OMM, 2006a, 2011b). Les GPS
y ont été utilisés pour quantifier les différences entre le jour et la nuit des mesures de l’humidité
relative par radiosonde. Une étude générale plus approfondie a été menée par Wang et Zhang
(2008). L’utilisation de radiomètres hyperfréquences pour vérifier les différences jour‑nuit est
illustrée dans le document de Turner et al. (2003).
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 431
Même si la détermination des différences entre les données diurnes et nocturnes à l’aide de
mesures intégrées de la vapeur d’eau semble relativement fiable, il n’y a pas lieu de considérer
que toutes les différences observées entre les mesures de vapeur d’eau par radiosondage et par
télédétection sont imputables à des erreurs liées à la radiosonde, car tant les mesures GPS que les
mesures du radiomètre hyperfréquences présentent des erreurs qui sont susceptibles de varier
au fil du temps.
Les essais en laboratoire devraient être réalisés dans des installations semblables à celles
utilisées par le fabricant pour étalonner avec exactitude les radiosondes. Ces essais peuvent
servir à vérifier le caractère adéquat des étalonnages, notamment leur dépendance vis‑à‑vis
de la température des capteurs. Il est toutefois difficile de simuler en laboratoire les conditions
atmosphériques réelles qui conduisent aux erreurs radiatives et à l’humectation ou au givrage
des capteurs. Pour ces erreurs, il est souhaitable d’effectuer des comparaisons pendant les
montées réelles.
La comparaison des mesures exécutées durant un vol nécessite de synchroniser très précisément
l’échantillonnage des différents systèmes, idéalement à moins d’une seconde près. On a mis
au point ces dernières années des progiciels destinés aux essais comparatifs de radiosondes
organisés par l’OMM (OMM, 1996b), qui stockent dans une base de données tous les
échantillons de données des différentes radiosondes, afin que les scientifiques en charge puissent
les comparer immédiatement après un vol d’essai. Il importe d’examiner très rapidement les
échantillons au cours d’un test, car cela permet de déterminer sans tarder les problèmes causés
par les procédures d’essai (les interférences entre radiosondes par exemple) ou les défectuosités
des radiosondes et d’entreprendre une analyse plus poussée. Grâce au logiciel, on peut
également présenter les résultats statistiques d’une comparaison sous une forme propre à la
publication.
Les essais préalables des nouveaux modèles de radiosondes ne nécessitent qu’un petit nombre
de vols de comparaison, ce qui suffit pour déceler les principales défectuosités. Une fois que la
mise au point des systèmes est plus aboutie, des analyses plus poussées peuvent se justifier. La
reproductibilité des mesures effectuées par la plupart des radiosondes modernes s’est améliorée
de telle façon qu’on peut maintenant obtenir des évaluations utiles des biais systématiques
touchant la température et la pression en réalisant 10 à 15 vols dans une condition donnée (par
exemple, un moment de la journée). Comme il est risqué de présumer que les vols diurnes à
toutes les hauteurs solaires produisent la même erreur, il est préférable d’organiser au moins
10 à 15 vols de comparaison pour une même hauteur. Dans le cas de la mesure des performances
de capteurs de température, les comparaisons avec les résultats d’autres essais devraient
être réalisées la nuit. Ces comparaisons devraient se faire avec des capteurs aluminés ou à fil
et non avec des détecteurs présentant des erreurs significatives dues à l’échange thermique
infrarouge. Si l’on peut procéder à une série continue de vols de comparaison (en alternant les
jours et les nuits), il est alors possible d’avoir recours à la technique des séries chronologiques de
données atmosphériques afin d’évaluer l’amplitude des écarts jour‑nuit dans les mesures de la
température.
Comme cela est souligné plus haut, la série la plus complète d’essais comparatifs de ces dernières
années est la comparaison internationale de radiosondes organisée par l’OMM. Les premiers
résultats ont été publiés dans des documents techniques de l’OMM (1987, 1991, 1996b, 2006a,
2006b, 2006c, 2011b). Les informations présentées dans les tableaux 12.2 et 12.6 à 12.8 reposent
sur ces résultats.
432 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
12.8.2 Étalonnage
Il est important de connaître les méthodes d’étalonnage employées par les fabricants avant
d’acheter des radiosondes en grande quantité. Il faut également vérifier les procédures de
contrôle de la qualité utilisées pour s’assurer que l’exactitude des mesures sera maintenue lors
de la production en série. L’acheteur devrait se rappeler qu’il est nécessaire de tolérer un certain
degré d’erreur et de panne pour que les coûts demeurent acceptables. Les taux de défaillance en
vol de radiosondes provenant de fabricants fiables ne devraient toutefois pas être supérieurs à
1 ou 2 %.
L’étalonnage de chaque instrument se révèle nécessaire, sauf quand il est possible de produire en
masse les instruments offrant la reproductibilité et l’exactitude désirées par l’utilisateur. Même
lorsque la production en série satisfait un ensemble de contrôles de performance normalisés, il
y a lieu d’examiner plus en détail des échantillons représentatifs choisis au hasard. L’étalonnage
devrait, dans la mesure du possible, simuler les conditions de pression et de température
réelles, en abaissant progressivement ces valeurs. L’humidité relative est souvent vérifiée dans
une installation distincte. Les capteurs de référence utilisés devraient pouvoir être reliés à des
étalons nationaux, être vérifiés régulièrement dans des laboratoires d’étalonnage et fonctionner
correctement à toutes les températures auxquelles sont exposées les radiosondes.
L’appareil d’étalonnage est différent selon que la radiosonde est étalonnée comme un tout ou en
séparant les dispositifs météorologiques de l’émetteur. Dans ce dernier cas, on peut avoir recours
à un appareil de plus petite taille. L’installation d’étalonnage devrait être en mesure de simuler la
gamme de pressions et de températures susceptible d’être rencontrée dans les conditions réelles.
Il devrait être possible de maintenir les conditions dans le caisson d’étalonnage à l’intérieur des
valeurs suivantes: ±0,2 hPa min–1 pour la pression, ±0,25 K min–1 pour la température et ±1 % min–
1
pour l’humidité relative. Ces conditions devraient être mesurées avec des erreurs systématiques
inférieures à ±0,2 hPa, ±0,1 K et ±1 % respectivement. Il faudrait placer les thermomètres de
référence dans le caisson d’étalonnage de manière à connaître la gamme de températures dans
l’espace occupé par les capteurs. L’écart ne devrait pas excéder 0,5 K. Il importe d’effectuer le
nombre voulu de mesures pour que les courbes d’étalonnage représentent les performances des
capteurs avec l’exactitude exigée par les utilisateurs. Les capteurs de pression qui ne sont pas
entièrement compensés pour les variations de température doivent être étalonnés à plusieurs
températures. Il serait donc utile que le caisson d’étalonnage des températures convienne
également à l’évaluation des appareils de mesure de la pression.
L’étalonnage de l’humidité s’effectue ordinairement dans une installation distincte. Il peut s’agir
d’un caisson dans lequel un ventilateur fait circuler rapidement de l’air sur un psychromètre
ou un hygromètre à condensation, puis à travers l’un des quatre récipients renfermant
respectivement de l’eau chaude, une solution saturée de nitrate de sodium, une solution saturée
de chlorure de calcium et du gel de silice. N’importe lequel de ces récipients peut être placé dans
le circuit d’air à l’aide d’une vanne multiple, ce qui permet d’obtenir rapidement une humidité
relative de 100, 70, 40 ou 10 %. L’écart type de la variation de l’humidité relative ne devrait pas
dépasser 1 % dans l’espace occupé par les appareils en cours d’étalonnage.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 433
L’installation d’étalonnage de l’humidité peut être également composée d’un conduit ou d’un
caisson ventilé à l’aide d’un mélange d’air provenant de deux récipients, le premier renfermant
de l’air saturé d’eau, le deuxième de l’air asséché par du gel de silice. On contrôle manuellement
le mélange à l’aide d’une vanne qui laisse passer les quantités d’air voulues dans le conduit.
12.8.3 Maintenance
Les taux de défaillance de l’équipement terrestre des systèmes de radiosondage qui ont
recours à l’électronique moderne devraient demeurer faibles, à condition que la proximité des
antennes soit bien protégée de la foudre. Le fabricant devrait être en mesure de conseiller une
sélection d’éléments de rechange correspondant au type d’équipement. Lorsqu’un module
de l’équipement terrestre tombe en panne, il convient de pouvoir le remplacer par un bloc de
rechange et de le retourner pour le faire réparer.
Les exigences relatives à la maintenance des systèmes dans lesquels les mesures de la pression
sont remplacées par les mesures de l’altitude par radar sont très différentes. La maintenance
devrait être assurée localement dans tout le réseau par un personnel possédant les compétences
techniques nécessaires (en mécanique et en électricité). C’est essentiel pour conserver une
bonne capacité de suivi et pour éviter la dérive à long terme des erreurs systématiques dans les
mesures d’altitude.
Les mesures en altitude sont habituellement incorporées dans les prévisions numériques
du temps sous la forme d’une série de valeurs communiquées ou de moyennes par couche,
l’épaisseur des couches étant liée aux échelles du mouvement atmosphérique qui correspondent
au type de prévision. Ces couches ne sont pas nécessairement centrées sur des pressions ou
altitudes standard, mais plutôt sur des niveaux qui varient en fonction des fluctuations de la
pression de surface. Ainsi faut‑il transmettre avec suffisamment d’exactitude les variations de
4
Recommandation 9 (CIMO‑XI), formulée par la Commission des instruments et des méthodes d’observation lors de
sa onzième session (1994).
434 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
la température et de l’humidité relative entre les niveaux standard figurant dans les messages
d’observation en altitude pour que la qualité des moyennes par couche qui servent à la prévision
numérique n’en pâtisse pas.
Avant 1980, la plupart des mesures de radiosonde étaient traitées manuellement par les
opérateurs, qui utilisaient diverses aides de calcul. Les méthodes employées reposaient sur
la sélection d’un nombre limité de niveaux significatifs pour représenter les mesures, soit
une trentaine dans le cas d’un vol atteignant jusqu’à 30 km d’altitude. Les codes de l’OMM
témoignaient de la difficulté de condenser manuellement une grande quantité d’informations
sur la structure verticale de l’atmosphère dans un court message. Les règles de codage
permettaient de procéder à des interpolations linéaires en altitude entre les niveaux significatifs,
avec des écarts maximaux par rapport aux mesures d’origine de ±1 K pour la température et
de ±15 % pour l’humidité relative dans la troposphère, et de ±2 K pour la température, dans la
stratosphère. Les opérateurs étaient censés supprimer les grandes erreurs d’interpolation sur des
couches épaisses dans le plan vertical.
Les systèmes terrestres modernes comportant des ordinateurs peu coûteux mais puissants
permettent un taux d’échantillonnage plus élevé pour archiver et traiter les mesures de
radiosonde. Le traitement manuel de ces mesures introduit presque toujours des erreurs
indésirables dans les calculs des données en altitude, aussi devrait‑il être éliminé.
Les opérateurs doivent donc vérifier les messages produits par les systèmes automatisés afin de
voir si les procédures de transmission des observations introduisent des erreurs systématiques
importantes entre le message d’observation en altitude et les mesures effectuées au départ
par les radiosondes. Il est possible qu’il leur faille ajouter des niveaux significatifs dans le but
d’éliminer les biais indésirables. Il est généralement plus facile d’obtenir des messages TEMP
présentant des erreurs systématiques acceptables en prenant l’habitude au niveau national
de réduire de moitié les limites d’ajustement des températures établies par l’OMM, dont
il a été question plus haut. Aujourd’hui, l’amélioration des techniques de communication
météorologique devrait permettre une réduction des approximations lors de la transmission de
données d’observation détaillées en altitude à l’aide des messages codés BUFR pertinents.
Compte tenu des sommes importantes dépensées chaque année au titre des produits
consomptibles pour les radiosondes, les opérateurs de radiosondes devraient adopter au plus
vite les codes BUFR (ou des codes équivalents) afin de pouvoir transmettre avec précision toutes
leurs observations et toutes les mesures utiles à la communauté des utilisateurs.
12.9.2 Corrections
On comprendra aisément, après avoir lu ce qui précède, que les variations de performances
des capteurs causées par la diversité des conditions auxquelles sont exposées les radiosondes
pendant une montée sont trop importantes pour être représentées par un simple étalonnage
obtenu à une température donnée. Les techniques modernes de traitement de données ont
conduit à l’utilisation d’algorithmes d’étalonnage plus complexes qui fournissent des mesures
plus exactes que les systèmes manuels. Il est essentiel que ces algorithmes soient bien décrits.
Les utilisateurs devraient être tenus informés des améliorations ou modifications déterminantes
qui leur sont apportées. Il appartient aux stations de radiosondage de bien archiver les numéros
des modèles de radiosondes utilisées et les références des algorithmes employés pour traiter les
données.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 435
Toutes les mesures de la température réalisées par radiosonde comportent des erreurs dues au
rayonnement. Par conséquent, si l’on connaît une correction pour le rayonnement (fondée sur
les performances prévues des capteurs dans les conditions habituelles), il convient de l’appliquer
systématiquement au cours du traitement des données. Les renseignements détaillés concernant
cette correction devraient être consignés et conservés dans les archives de la station, avec les
observations brutes des radiosondes, selon les procédures nationales en vigueur.
De même, au lieu de tenter de compenser à l’aide d’un logiciel les erreurs de réchauffement par
rayonnement solaire anormalement importantes, il faut éliminer les sources additionnelles de
chaleur en plaçant correctement le capteur par rapport à ses supports, aux branchements et au
corps de la radiosonde.
Il est possible d’apporter des corrections aux mesures d’humidité relative lorsque le temps de
réponse est long ou que le système de capteurs d’humidité est chauffé durant la journée. Comme
pour la température, l’historique des corrections et de toute modification des procédures de
correction doit être communiqué à l’utilisateur et enregistré dans les archives d’observation de la
station, de préférence avec les données brutes. Le détail des algorithmes doit être clair pour les
personnes qui acquièrent de nouveaux systèmes.
b) D’indiquer aux utilisateurs de données les modifications intervenant dans les méthodes
employées pour corriger les messages, de façon que leurs destinataires puissent procéder
aux ajustements qui leur paraîtraient souhaitables;
c) D’archiver les observations en altitude, corrigées ou non corrigées, et d’établir un état des
corrections appliquées aux fins des travaux climatologiques; la méthode utilisée devrait être
déterminée à l’échelon national;
5
Recommandation 8 (CIMO‑XI), formulée par la Commission des instruments et des méthodes d’observation lors de
sa onzième session (1994).
436 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Le tableau 12.1 du rapport précité a pour but d’aider les fabricants à déterminer où se situent
les problèmes les plus critiques. Une fois les problèmes définis, il est probable que plusieurs
d’entre eux seront résolus dans l’année qui suit ou la suivante, comme cela a été le cas pour
la température indiquée par le système de radiosondage Modem à la suite de l’observation
de performances nocturnes non optimales dans le cadre de la comparaison de radiosondes
organisée par l’OMM à Maurice (OMM, 2006a). L’OMM recommande donc aux fabricants,
en particulier à ceux dont les scores sont inférieurs à 3 au tableau 12.1, de s’organiser pour
qu’un nombre limité d’essais indépendants soient effectués pour prouver à l’OMM que leurs
performances ont été améliorées après la résolution du problème, faute de quoi des fabricants
offrant des produits prometteurs risquent de voir ceux‑ci rejetés à tort au cours de la procédure
d’acquisition des instruments.
Dans le document OMM (2015) sont présentées des valeurs relatives aux radiosondes
individuelles provenant de l’essai mené à Yangjiang (Chine) et reproduites dans les
tableaux 12.5 à 12.16. Ceux‑ci peuvent également servir de référence pour les systèmes ayant de
faibles erreurs systématiques et des constantes de temps suffisamment rapides pour n’entraîner
que de faibles erreurs de sondage en matière d’humidité relative. Des erreurs systématiques
faibles et stables sont très souhaitables pour les mesures effectuées par radiosondage à titre de
relevés climatologiques.
Des ateliers de formation régionaux ont permis de faire ressortir l’utilité de prendre en
considération un certain nombre de facteurs:
a) Les équipements doivent pouvoir être utilisés durablement. Cela signifie que, en dehors de
l’acquisition du matériel et des logiciels, il convient de prendre des dispositions pour que le
fabricant, le personnel local ou les deux assurent la maintenance à long terme du système.
b) L’antenne doit être suffisamment sensible pour capter des signaux dans toutes les
conditions météorologiques, quelle que soit la force des vents en altitude. Acheter une
antenne bon marché qui ne fonctionne pas bien dans certaines conditions pour faire des
économies serait une erreur.
c) Il convient de déterminer si le personnel local peut assurer l’entretien d’un radar secondaire
(ce qui permet d’utiliser des radiosondes dépourvues de GPS et donc meilleur marché)
ou si un système de radiosondage GPS totalement automatique est plus prometteur dans
l’immédiat et à long terme. Par ailleurs, les mesures indirectes du vent effectuées par radar
sont moins exactes que les mesures effectuées à l’aide de radiosondes GPS. Si l’on envisage
d’acquérir des radiosondes dépourvues de GPS, il convient donc de déterminer si la
réduction de l’exactitude des mesures du vent sera acceptable.
d) Si un système de radiosondage GPS doit être acheté, il faut vérifier qu’aucune source de
brouillage radioélectrique local ne risque d’entraîner des problèmes.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 437
f) Il faut définir le niveau de performance requis pour les capteurs d’humidité relative (le
niveau d’exigence est par exemple plus élevé pour une station GRUAN ou GUAN (station
d’observation en altitude pour le SMOC) que pour une station ordinaire du Système
mondial d’observation) en se fondant sur les exigences du tableau 12.1 du document OMM
(2011b) et des tableaux 12.11 à 12.16 du présent guide.
g) Si les conditions sont souvent humides et nuageuses, il faut spécifier que les capteurs des
radiosondes doivent être munis d’une forme ou d’une autre de protection contre l’humidité
et contre toute contamination par les nuages et demander que le fabricant atteste le
fonctionnement du mécanisme de protection.
Note: Ces exigences sont fondées sur les possibilités technologiques actuelles, telles qu’évaluées lors de la huitième
comparaison internationale de radiosondes organisée par l’OMM à Yangjiang (Chine) (OMM, 2011b). Elles s’appliquent
aux mesures exécutées par les radiosondes aux fins de la météorologie synoptique et climatologique.
10 3 hPa 1 hPa
Température de 0 à 16 1K 0,4 K
plus de 16 2K 0,8 K
Humidité relative de 0 à 12 15 % HR 6 % HR
(40 °C à –50 °C)c
(Troposphère uniquement) de 12 à 17 30 % HR 10 % HR
(–50 °C à –90 °C)c
Direction du vent de 0 à 16 10°, vitesse < 10 m s–1 5°, vitesse < 10 m s–1
4° à plus haute vitesse 2° à plus haute vitesse
5 40 gpm 20 gpm
10 60 gpm 20 gpm
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 439
a) Le but est une exigence idéale, au‑delà de laquelle aucune amélioration supplémentaire
n’est nécessaire.
b) L’avancée décisive est le niveau intermédiaire entre le but et le seuil qui, s’il est atteint, se
traduira par une nette amélioration de l’application visée. Le niveau d’avancée décisive peut
être considéré comme un optimum du point de vue de l’analyse coûts‑bénéfices lors de la
planification ou de la conception de systèmes d’observation.
c) Le seuil est l’exigence minimale à remplir pour que les données soient utiles.
Les dépenses au titre des radiosondes peuvent être considérées comme justifiées si l’exactitude
et la résolution qu’elles permettent d’obtenir sont du même niveau – voire meilleures – que le
seuil et aussi proches que possible du but.
Tableau 12.B.1. Récapitulation des limites OMM/SMOC pour l’incertitude (erreur vectorielle
quadratique moyenne, k = 2) et la résolution verticale pour les mesures du vent en altitude
Couche But pour la But pour le Avancée Avancée Seuil pour Seuil pour
PNT climat décisive pour décisive pour la PNT le climat
la PNT le climat
Basse Incertitude 1a–2 m s–1 1,4b–4c m s–1 4 m s–1 6 m s–1 10 m s–1 10 m s–1
troposphère
Haute Incertitude 1b–2c m s–1 1,4b–4c m s–1 4 m s–1 6 m s–1 10 m s–1 10 m s–1
troposphère
Couche But pour la But pour le Avancée Avancée Seuil pour Seuil pour
PNT climat décisive pour décisive pour la PNT le climat
la PNT le climat
Haute Résolution 1 km 250b– 2 km 800 m 3 km 2 km
stratosphère verticale 500c m
Couche But pour But pour le Avancée Avancée Seuil pour la Seuil pour
la PNT climat décisive décisive pour PNT le climat
pour la PNT le climat
Basse Incertitude 0,6a–1c K 0,2b–1c K 1,8 K 1,2 K 6c K (région 2K
tropo- extratropicale)
sphère 3a K (région
tropicale)
Couche But pour But pour le Avancée Avancée Seuil pour la Seuil pour
la PNT climat décisive décisive pour PNT le climat
pour la PNT le climat
Haute Incertitude 1c K 0,4b–1c K 2,8 K 1,2 K 6K 2K
strato-
sphère
Stabilité 0,05 K en
à long 10 ansb
terme
Notes:
a Limite établie sur la base d’études sur la variabilité atmosphérique (OMM, 1970).
b Limite établie sur la base des exigences en matière d’observation relatives au Réseau aérologique de référence du
SMOC (OMM, 2009).
c Limite établie à partir d’un échantillon prélevé en août 2011 dans la base de données de l’OMM sur les besoins en
matière d’observation, laquelle base de données a été établie suite à l’étude continue des besoins menée par la
CSB (OSCAR/Besoins; voir OMM, 2014).
Couche But pour la But pour le Avancée Avancée Seuil pour la Seuil pour
PNT climat décisive pour décisive pour PNT le climat
la PNT le climat
Basse Incertitude 2a–4c % 4 % HR 16 % HR 6 % HR 40 % HR 10 % HR
tropo- HR
sphère
Haute Incertitude 4 % HR 4 % HR 16 % HR 6 % HR 40 % HR 10 % HR
tropo-
sphère
Couche But pour la But pour le Avancée Avancée Seuil pour la Seuil pour
PNT climat décisive pour décisive pour PNT le climat
la PNT le climat
Haute Incertitude Pas 4% Pas 6 % rapport Pas 10 %
strato- d’indi- rapport de d’indication de mélange d’indication rapport
sphère cation mélange ppmv de
ppmv mélange
ppmv
Stabilité 0,3 % en
à long 10 ansb
terme
Notes:
a Limite établie sur la base d’études sur la variabilité atmosphérique (OMM, 1970).
b Limite établie sur la base des exigences en matière d’observation relatives au Réseau aérologique de référence du
SMOC (OMM, 2009).
c Limite établie à partir d’un échantillon prélevé en août 2011 dans la base de données de l’OMM sur les besoins en
matière d’observation, laquelle base de données a été établie suite à l’étude continue des besoins menée par la
CSB (OSCAR/Besoins; voir OMM, 2014).
Note: Les exigences figurant dans l’étude continue de l’OMM et les exigences du SMOC portent sur l’humidité
spécifique, mais conduisent à des limites d’incertitude beaucoup trop strictes pour les couches où l’humidité relative est
très faible dans la basse ou la moyenne troposphère. Les valeurs présentées sont donc des équivalents approximatifs de
l’humidité relative et il convient d’utiliser le rapport de mélange aux très faibles températures ou dans la stratosphère.
Couche But pour la PNT But pour le climat Avancée décisive pour la
PNT
Surface à Incertitude 24 gpm (= couche de 12 gpm (= couche de 50 gpm (= couche de
100 hPa température de 0,4 K) température de 0,2 K) température de 0,8 K)
Couche But pour la PNT But pour le climat Avancée décisive pour la
PNT
1. Introduction
1.1 Les présentes directives supposent une cohérence entre les méthodes que peuvent
établir différents emplacements d’essai et celles établies par d’autres organismes nationaux
et internationaux. Elles sous‑entendent aussi la constitution d’un comité d’organisation que
composeront les participants (les Membres) ayant l’intention de procéder à une comparaison
de radiosondes et au moins un non‑participant compétent dans la conduite des comparaisons.
Il importe d’inclure dans ce comité un non‑participant indépendant afin d’éviter toute partialité
dans l’organisation de la comparaison. Il faut aussi examiner s’il y a lieu de faire participer
activement à la comparaison le personnel des fabricants de radiosondes ou de demander à
l’établissement d’accueil de prévoir le personnel d’exploitation indépendant qui sera chargé
d’assurer la préparation et le lâcher des radiosondes.
1.2 Comme toutes les comparaisons diffèrent dans une certaine mesure les unes des
autres, on considérera que les présentes directives constituent en fait une énumération générale
des tâches à accomplir. Le comité d’organisation peut donc adapter celles‑ci en fonction des
besoins, étant entendu qu’il ne doit pas transiger sur la représentativité des résultats et leur
évaluation scientifique.
1.3 Pour la marche à suivre concernant l’exécution des comparaisons, il est possible de
s’inspirer des rapports de comparaisons précédentes de l’OMM et des rapports de réunions des
comités d’organisation. Ces rapports peuvent être obtenus auprès du Secrétariat de l’OMM, qui
a pour charge de les conserver.
2. Objectifs de la comparaison
2.1 Les objectifs de la comparaison doivent être clairs. Il y a lieu d’établir une liste de
ce que l’on attend de la comparaison et de déterminer comment les résultats seront diffusés. Le
comité d’organisation est chargé d’examiner les objectifs à atteindre au cours de la comparaison
de radiosondes et de déceler, pour les anticiper, les problèmes qui risquent de se poser. Il est
chargé de rédiger un exposé clair et détaillé des principaux objectifs de la comparaison et
d’arrêter les critères sur lesquels on se fondera pour évaluer les résultats. Il doit également
étudier quelle est la meilleure façon de garantir le succès de la comparaison, en tirant parti
des connaissances générales en la matière et de l’expérience acquise lors de comparaisons
précédentes.
1
Fondées sur l’annexe II du Rapport final abrégé, résolutions et recommandations de la douzième session de la Commission
des instruments et des méthodes d’observation (OMM‑N° 881), puis réactualisées.
446 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
3.2 Il incombe au comité d’organisation de vérifier, par une visite, si le lieu et le dispositif
prévus conviennent et de proposer les modifications qu’il juge nécessaires. Une fois que le comité
d’organisation a donné son agrément concernant le lieu et le dispositif, le directeur de projet
rédige une description de ce lieu et de l’environnement correspondant, qui sera distribuée aux
participants. Étant au fait de l’emploi du temps de l’établissement d’accueil, le directeur de projet
fixe la date du début et la durée de la comparaison. Il fournit un exemplaire du calendrier prévu
au comité d’organisation.
4. Participation
4.3 Il importe que les participants fournissent les renseignements voulus sur les
méthodes d’étalonnage de leurs radiosondes par rapport aux étalons reconnus. On s’attend à ce
que les comparaisons portent essentiellement sur des radiosondes en service, mais ce ne sera pas
toujours le cas. On peut aussi envisager la participation de nouveaux modèles de radiosondes
ou de modèles expérimentaux. Il faudra alors obtenir l’accord de tous les autres participants, du
directeur de projet et du comité d’organisation.
5. Responsabilités
5.1 Participants
5.1.3 Les participants fournissent tous les accessoires nécessaires, le matériel de montage
de l’équipement au sol, les câbles et connecteurs d’alimentation et de communication, les
pièces de rechange et le matériel consomptible spécifique. Ils doivent posséder toutes les
instructions détaillées et les manuels nécessaires sur l’installation, le fonctionnement, l’entretien
et, éventuellement, l’étalonnage de leur équipement (pour pouvoir les mettre à la disposition de
l’établissement d’accueil si celui‑ci venait à devoir les aider).
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 447
5.2.3 Il lui incombe d’aider au besoin les participants à connecter leur équipement au
système d’acquisition des données.
5.2.5 L’établissement d’accueil peut fournir des renseignements sur les points suivants:
logement, transports locaux, appui logistique quotidien, etc., mais n’est pas dans l’obligation de
participer aux frais de logement du personnel.
6.1 Le directeur de projet assure la surveillance de tous les essais. Il enregistre chaque
lâcher de ballon, ainsi que tous les renseignements pertinents sur les radiosondes utilisées en vol
et les conditions météorologiques.
6.3 Les petites réparations, tel le remplacement de fusibles, qui ne modifient pas les
performances des instruments sont autorisées. Il faut en informer le directeur de projet qui les
enregistre.
6.5 Tout problème qui risque de nuire à l’intégrité des résultats de la comparaison ou de
modifier les performances d’un équipement doit être porté à l’attention du directeur de projet.
7.2 Le comité international d’organisation initiale choisit les matériels et les logiciels
d’acquisition de données destinés à l’essai. Ces derniers doivent être dûment testés avant le
début de la comparaison. Mieux vaut utiliser un dispositif de traitement spécifique, tel que celui
que décrit le document OMM (1996b).
448 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
7.3 Il incombe au directeur de projet de fixer avec l’accord de tous les participants
le délai maximum entre l’exécution des observations et le moment où les données lui sont
remises. On peut considérer comme adéquat un délai d’une heure après la fin des observations
(éclatement du ballon).
7.4 Le directeur de projet se charge de la vérification des données avant analyse, des
étapes du contrôle de la qualité qui suivent et de la fourniture des données finales.
7.6 Il appartient au directeur de projet de fournir les données finales à tous les
participants, ce qui exige de l’établissement d’accueil qu’il puisse recevoir tous les fichiers de
données des différents participants.
8.1.1 Il est bon de décider d’un cadre pour l’analyse des données, avant même le début de
la comparaison. Ce cadre doit être présenté dans le plan des essais.
8.1.2 Il doit y avoir accord entre les participants en ce qui concerne les méthodes
de conversion des données, les algorithmes d’étalonnage et de correction, les termes et
abréviations, les constantes et la description complète des méthodes d’analyse statistique
proposées. Le traitement des données doit impérativement être confié à des spécialistes
expérimentés désignés par l’OMM.
8.2.2 Une fois la comparaison terminée, le directeur de projet fournit à chaque participant
le jeu complet de toutes les données des différents participants.
9.3 Une fois qu’il est prêt, le projet de rapport final modifié est remis au comité
d’organisation qui peut décider de se réunir pour un dernier examen, s’il y a lieu, ou d’approuver
directement le document final.
9.4 Une fois que le document final a été approuvé par le comité d’organisation, il est
envoyé au Secrétariat de l’OMM qui se charge de sa publication et de sa diffusion.
10.1 Le comité d’organisation peut convenir que les résultats intermédiaires pourront
être présentés à l’occasion de conférences techniques uniquement par le directeur de projet, les
participants pouvant en faire autant pour des jeux de données restreints ou l’ensemble de leurs
propres données. Une fois que le Secrétariat de l’OMM a fixé la date de publication du rapport
final, l’OMM communique les données à tous les Membres qui en font la demande. Les Membres
sont alors libres d’analyser ces données et de présenter les résultats à l’occasion de réunions ou
de les publier.
1. Introduction
1.1 Pour qu’il soit possible de garantir la constance des mesures effectuées par le
système mondial d’observation en altitude, il est indispensable de maintenir la capacité de
procéder à des comparaisons quantitatives de radiosondes. Il importe de vérifier régulièrement,
dans des conditions réelles de vol, les systèmes opérationnels de radiosondes, qu’ils soient
nouveaux ou en service, par comparaison avec des instruments de référence. Les Membres
doivent donc veiller à maintenir en activité un minimum d’emplacements d’essai dotés de
l’infrastructure voulue pour l’exécution de comparaisons de radiosondes.
1.2 L’expérience acquise lors des comparaisons de radiosondes organisées par l’OMM
depuis 1984 montre qu’il faut disposer de divers d’emplacements permettant de comparer les
radiosondes dans différentes conditions de vol.
1.3 Les performances des capteurs d’humidité relative varient sensiblement en fonction
des conditions rencontrées en vol d’essai, notamment la nébulosité et l’humidité durant
l’ascension, mais aussi l’humidité en surface.
1.4 Les erreurs de température, pendant les vols diurnes, varient en fonction du
rayonnement solaire et donc en fonction aussi de l’albédo des nuages et de celui de la
surface terrestre. Les erreurs de température peuvent donc varier sensiblement suivant que
le radiosondage a lieu à une station côtière ou à une station continentale. Les erreurs dues
au rayonnement infrarouge absorbé par les capteurs de température varient en fonction
non seulement des conditions en surface et de la nébulosité, mais aussi de la température de
l’atmosphère. Ces erreurs seront donc différentes (notamment au niveau de la tropopause)
suivant que le radiosondage est exécuté dans une région tropicale ou à une latitude moyenne.
1.5 Pour beaucoup de systèmes de mesure du vent en altitude, les erreurs enregistrées
varient en fonction de la distance, tant horizontale que verticale, parcourue par le ballon à partir
de l’emplacement du lâcher. La comparaison doit donc reproduire des conditions en altitude de
vent aussi bien faible que fort.
450 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
2. Installations requises
2.1 L’emplacement d’essai doit disposer d’une superficie de bureau suffisante pour
accueillir le personnel chargé de l’exploitation d’au moins quatre systèmes différents.
2.2 Il doit être équipé pour fournir des mesures en surface de la température, de
l’humidité relative, de la pression et du vent, de bonne qualité, à proximité des aires de lâcher.
Il est également bon de disposer de mesures complémentaires de bonne qualité, servant de
référence, pour la température, la pression et l’humidité relative.
2.3 L’emplacement d’essai devrait disposer d’un système lui permettant de fournir des
mesures absolues de l’altitude géopotentielle au cours des vols d’essai (probablement à l’aide
d’une radiosonde à GPS pouvant produire des mesures exactes de cette altitude).
2.4 L’emplacement d’essai devrait être équipé d’un récepteur GPS au sol bien établi pour
mesurer la vapeur d’eau intégrée, ou de radiomètres et interféromètres au sol.
2.5 Il est utile de disposer sur l’emplacement d’essai de systèmes d’observation des
nuages, tels que des célomètres laser et des radars de détection des nuages.
2.6 Des lidars de mesure des aérosols et des lidars de mesure de l’humidité relative
peuvent aussi se révéler utiles sur l’emplacement d’essai.
2.7 L’emplacement d’essai doit être agréé par l’administration nationale du contrôle
aérien pour le lâcher de grands ballons (3 000 g) dotés d’une charge utile maximale allant
jusqu’à 5 kg. Les hangars à ballons doivent être suffisamment grands pour permettre le lâcher de
ces grands ballons.
3.1 Il est proposé de maintenir en activité ou de créer des emplacements d’essai dans les
régions de latitude moyenne en Amérique du Nord, en Europe et en Asie, car il s’agit de régions
relativement accessibles pour les principaux fabricants. L’idéal serait que chacune de ces régions
dispose de deux emplacements au minimum, l’un représentant des conditions côtières (ou
maritimes) et l’autre des conditions continentales.
3.2 Il est proposé en outre de trouver deux emplacements dans les régions tropicales, en
particulier pour les essais de capteurs d’humidité relative.
3.3 Si les principaux emplacements d’essai indiqués ci‑dessus ne sont pas assez
représentatifs de conditions extrêmes pour ce qui concerne le fonctionnement des capteurs
d’humidité relative (par exemple, des conditions très sèches à basse altitude), il pourrait se
révéler nécessaire de trouver d’autres emplacements dans une zone aride ou dans une zone où
l’on enregistre des températures très basses en surface (inférieures à ‑30 °C en hiver). Certains
d’entre eux pourraient être choisis parmi les sites confirmés du réseau GRUAN.
1. Introduction
1.2 Les fabricants souhaitant démontrer qu’un problème a été résolu ont probablement
intérêt à ce que les essais soient réalisés dans l’un des centres d’expérimentation de la CIMO.
2. Procédures recommandées
2.1 Les essais menés pour prouver que des problèmes ont été résolus doivent être
effectués selon les mêmes méthodes et les mêmes critères que lors des comparaisons entre
les systèmes de radiosondage organisées par l’OMM. Ainsi, tout centre d’expérimentation
de la CIMO doit disposer de personnel ayant une très bonne connaissance des procédures et
techniques appliquées dans le cadre des comparaisons de radiosondes organisées par l’OMM.
Il doit aussi utiliser deux types de radiosondes de bonne qualité, dont les performances sont
connues, en tant que radiosondes de référence pour les tests et pour l’établissement des
résultats.
2.2 Dans le cadre des essais effectués sur des prototypes à l’échelle nationale, il est
essentiel de comparer entre elles les mesures produites par des radiosondes emportées par un
même ballon. Dans l’idéal, les radiosondes devraient être suspendues de manière à pouvoir
tourner librement durant le vol, car c’est ce qui se produit lors des montées individuelles. Le
signal radiofréquence de la nouvelle radiosonde doit être de suffisamment bonne qualité pour
exclure qu’il dérive ou entraîne des interférences avec la radiosonde embarquée à titre de
comparaison. La comparaison des résultats devrait s’effectuer en tenant compte du temps de
vol, car il n’y pas lieu de présupposer que l’altitude ou la pression déterminée sur la base de la
température et de l’humidité relative ne présentent que des erreurs négligeables. Le nombre
de vols d’essai initiaux peut être limité, car, bien souvent, les erreurs initiales sont importantes
et peuvent donc être rapidement définies, même sur la base d’une comparaison avec une
radiosonde nationale de moins bonne qualité.
2.3 Toutefois, lorsque le but est d’améliorer un nouveau modèle de radiosonde nationale
pour que la qualité de ses mesures soit proche de celle des radiosondes haut de gamme qui ont
été testées dans le cadre de la comparaison OMM de systèmes de radiosondage haut de gamme,
il devient nécessaire d’utiliser une radiosonde de la meilleure qualité à titre de comparaison. Il
faut toujours suivre les instructions du fabricant lorsque l’on prépare la radiosonde de qualité
supérieure pour les vols d’essai. Les essais doivent être menés de jour comme de nuit, étant
donné qu’il est nécessaire de déterminer les erreurs de radiosondage pour les températures
diurnes et que les erreurs d’humidité relative sont souvent plus importantes la nuit que le jour.
2.4 Les derniers essais sur prototype doivent être effectués à un moment de l’année où
la variation de l’humidité relative sur le plan vertical et dans le temps est élevée à tous les niveaux
de la troposphère.
3.1 Les résultats obtenus dans les centres d’essai de la CIMO doivent être envoyés à
l’équipe d’experts compétente de la CIMO en vue de leur vérification, puis de leur affichage sur
le site Web de la CIMO.
3.2 Une fois qu’un nouveau modèle national est prêt à être utilisé, il serait également
utile, pour la suite, de communiquer les résultats des essais comparatifs à l’équipe d’experts
compétente de la CIMO.
RÉFÉRENCES ET AUTRES LECTURES
Fujiwara, M., M. Shiotani, F. Hasebe, H. Vömel, S.J. Oltmans, P.W. Ruppert, T. Horinouchi et T. Tsuda, 2003:
Performance of the Meteolabor “Snow White” chilled‑mirror hygrometer in the tropical
troposphere: Comparisons with the Vaisala RS80 A/H‑Humicap sensors. Journal of Atmospheric
and Oceanic Technology, 20:1534–1542.
Hyland, R.W. et A. Wexler, 1983: Formulations for the thermodynamic properties of the saturated phases of
H2O from 173.15 K to 473.15 K. ASHRAE Transactions, 89(2A):500–519.
Immler, F.J., J. Dykema, T. Gardiner, D.N. Whiteman, P.W. Thorne et H. Vömel, 2010: Reference quality
upper‑air measurements: guidance for developing GRUAN data products. Atmospheric
Measurement Techniques, 3:1217–1231.
Kitchen, M., 1989: Representativeness errors for radiosonde observations. Quarterly Journal of the Royal
Meteorological Society, 115:673–700.
Kursinski, E.R., G.A. Hajj, J.T. Schofield, R.P. Linfield et K.R. Hardy, 1997: Observing Earth’s atmosphere with
radio occultation measurements using the Global Positioning System. Journal of Geophysical
Research, 102:23429–23466.
List, R.J., 1968: Smithsonian Meteorological Tables, Washington, Smithsonian Institution Press.
Luers, J.K. et R.E. Eskridge, 1998: Use of radiosonde temperature data in climate studies. Journal of Climate,
11:1002–1019.
McIlveen, J.F.R. et F.H. Ludlam, 1969: The lag of the humidity sensor in the British radiosonde.
Meteorological Magazine, 98:233–246.
Miloshevich, L.M., A. Paukkunen, H. Vömel et S.J. Oltmans, 2004: Development and validation of a time‑lag
correction for Vaisala radiosonde humidity measurements. Journal of Atmospheric and Oceanic
Technology, 21:1305–1327.
Miloshevich, L.M., H. Vömel, D.N. Whiteman et T. Leblanc, 2009: Accuracy assessment and correction of
Vaisala RS92 radiosonde water vapor measurements. Journal of Geophysical Research:
Atmospheres, 114(D11305).
Nash, J., 1984: Compatibility of Radiosonde Measurements in the Upper Troposphere and Lower Stratosphere for the
Period 1 November 1981 to 31 October 1982. Meteorological Office, Bracknell, OSM No. 24.
Nash, J., J.B. Elms et T.J. Oakley, 1995: Relative humidity sensor performance observed in recent
international radiosonde comparisons. Ninth AMS Symposium on Meteorological Observations and
Instrumentation, Charlotte, Caroline du Nord, p. 43–48.
Organisation météorologique mondiale, 1970: Performance Requirements of Aerological Instruments: an
Assessment Based on Atmospheric Variability (C.L. Hawson), Technical Note No. 112
(WMO‑No. 267, TP. 151), Genève.
———, 1975: Upper‑Air Sounding Studies (A.H. Hooper), Technical Note No. 140 (WMO‑No. 394), Volume I,
Genève.
———, 1986: Algorithms for Automatic Aerological Soundings (A.H. Hooper). Instruments and Observing
Methods Report No. 21 (WMO/TD‑No. 175), Genève.
———, 1987: WMO International Radiosonde Comparison (UK 1984, USA 1985): Final Report (J. Nash et
F.J. Schmidlin). Instruments and Observing Methods Report No. 30 (WMO/TD‑No. 195),
Genève.
——— 1989a: SRS‑400: The new Swiss radiosonde (B. Hoegger, A. Heimo, G. Levrat et J. Rieker). Papers
Presented at the Fourth WMO Technical Conference on Instruments and Methods of Observation
(TECIMO‑IV). Instruments and Observing Methods Report No. 35 (WMO/TD‑No. 303),
Genève.
———, 1989b: Compatibility of Radiosonde Geopotential Measurements (M. Kitchen). Instruments and
Observing Methods Report No. 36 (WMO/TD‑No. 344), Genève.
———, 1991: WMO International Radiosonde Comparison – Phase III, Dzhambul (USSR), 1989: Final Report
(A. Ivanov, A. Kats, S. Kurnosenko, J. Nash et N. Zaitseva). Instruments and Observing Methods
Report No. 40 (WMO/TD‑No. 451), Genève.
———, 1992: Vocabulaire météorologique international (OMM‑N° 182), Genève.
———, 1993a: Historical Changes in Radiosonde Instruments and Practices (D.J. Gaffen). Instruments and
Observing Methods Report No. 50 (WMO/TD‑No. 541), Genève.
———, 1993b: Report by the Rapporteur on Radiosonde Compatibility Monitoring. Part A: WMO Catalogue of
Radiosondes and Upper‑air Wind Systems in Use by Members (1993), Part B: Compatibility of
Radiosonde Geopotential Measurements 1990, 1991 and 1992 (T. Oakley). Instruments and
Observing Methods Report No. 56 (WMO/TD‑No. 587), Genève.
CHAPITRE 12. MESURE DE LA PRESSION, DE LA TEMPÉRATURE ET DE L’HUMIDITÉ EN ALTITUDE 453
———, 1994: The difference in observed temperatures from radiosondes suspended 10 m and 40 m beneath
a 1400 g balloon (J.B. Elms, J. Nash et G. Williams). Papers Presented at the WMO Technical
Conference on Instruments and Methods of Observation (TECO‑94). Instruments and Observing
Methods Report No. 57 (WMO/TD‑No. 588), Genève.
———, 1996a: WMO International Radiosonde Comparison – Phase IV, Tsukuba (Japan), 1993: Final Report
(S. Yagi, A. Mita et N. Inoue). Instruments and Observing Methods Report No. 59
(WMO/TD‑No. 742), Genève.
———, 1996b: Description and User Guide for the Radiosonde Comparison and Evaluation Software Package
(RSKOMP – Version 3/Version 4) (S. Kurnosenko et T. Oakley). Instruments and Observing
Methods Report No. 60 (WMO/TD‑No. 771), Genève.
———, 1998: Report by the Rapporteur on Radiosonde Compatibility Monitoring. Part A: WMO Catalogue of
Radiosondes and Upper‑air Wind Systems in Use by Members (1998), Part B: Compatibility of
Radiosonde Geopotential Measurements 1995, 1996 et 1997 (T. Oakley). Instruments and
Observing Methods Report No. 72 (WMO/TD‑No. 886), Genève.
———, 2003: WMO Catalogue of Radiosondes and Upper‑air Wind Systems in Use by Members in 2002 and
Compatibility of Radiosonde Geopotential Measurements for Period from 1998 to 2001 (J. Elms).
Instruments and Observing Methods Report No. 80 (WMO/TD‑No. 1197), Genève.
———, 2006a: WMO Intercomparison of Radiosonde Systems – Vacoas (Mauritius), 2005 (J. Nash, R. Smout,
T. Oakley, B. Pathack et S. Kurnosenko). Instruments and Observing Methods Report No. 83
(WMO/TD‑No. 1303), Genève.
———, 2006b: The WMO Radiosonde Humidity Sensor Intercomparison (A. Balagurov, A. Kats et
N. Krestyannikova (Phase I, Fédération de Russie) et F. Schmidlin (Phase II, États‑Unis
d'Amérique)). Instruments and Observing Methods Report No. 85 (WMO/TD‑No. 1305),
Genève.
———, 2006c: WMO Intercomparison of GPS Radiosondes – Alcântara (Brazil), 2001 (R. da Silveira, G.F. Fisch,
L.A.T. Machado, A.M. Dall’Antonia, L.F. Sapucci, D. Fernandes, R. Marques et J. Nash).
Instruments and Observing Methods Report No. 90 (WMO/TD‑No. 1314), Genève.
———, 2006d: Recent application of the Accurate Temperature Measuring (ATM) radiosonde
(F.J. Schmidlin). Papers and posters presented at the WMO Technical Conference on Meteorological
and Environmental Instruments and Methods of Observation (TECO‑2006). Instruments and
Observing Methods Report No. 94 (WMO/TD‑No. 1354), Genève.
———, 2009: GRUAN Implementation Plan 2009–2013. GCOS‑134 (WMO/TD‑No. 1506), Genève.
———, 2010a: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2010b: A new operational radiosonde for the UK. Procurement testing at Camborne Met Office,
septembre–octobre 2009 (J. Nash, M. Smees et al.). Papers and posters presented at the WMO
Technical Conference on Meteorological and Environmental Instruments and Methods of Observation
(TECO‑2010). Instruments and Observing Methods Report No. 104 (WMO/TD‑No. 1546),
Genève.
———, 2011a: Règlement technique (OMM‑N° 49), Volume I, Appendice A, Genève.
———, 2011b: WMO Intercomparison of High Quality Radiosonde Systems – Yangjiang (China), 2010
(J. Nash, T. Oakley, H. Vömel et L. Wei). Instruments and Observing Methods Report No. 107
(WMO/TD‑No. 1580), Genève.
———, 2011c: Manuel des codes (OMM‑N° 306), Volume I.1, Genève.
———, 2014: Observing Systems Capability Analysis and Review Tool (OSCAR): user requirements for
observation, http://www.wmo‑sat.info/oscar/observingrequirements.
———, 2015: Measurement of Upper‑air Pressure, Temperature and Humidity (J. Nash). Instruments and
Observing Methods Report No. 121, Genève.
Paukkunen, A., 1995: Sensor heating to enhance reliability of radiosonde humidity measurement. Ninth
AMS Symposium on Meteorological Observations and Instrumentation, Charlotte, Caroline du Nord,
p. 65–69.
Philipona, R., A. Kräuchi, G. Romanens, G. Levrat, P. Ruppert, E. Brocard, P. Jeannet, D. Ruffieux et
B. Calpini, 2013: Solar and thermal radiation errors on upper‑air radiosonde temperature
measurements. Journal of Atmospheric and Oceanic Technology, 30:2382–2393.
Schmidlin, F.J., H. Sang Lee et B. Ranganayakamma, 1995: Deriving the accuracy of different radiosonde
types using the three‑thermistor radiosonde technique. Ninth AMS Symposium on Meteorological
Observations and Instrumentation, Charlotte, Caroline du Nord, p. 27–31.
Shimizu, K. et F. Hasebe, 2010: Fast‑response high‑resolution temperature sonde aimed at
contamination‑free profile observations. Atmospheric Measurement Techniques, 3:1673–1681.
Sonntag, D., 1994: Advancements in the field of hygrometry. Zeitschrift für Meteorologie, 3(2):51–66.
454 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Turner, D.D., B.M. Lesht, S.A. Clough, J.C. Liljegren, H.E. Revercomb et D.C. Tobon, 2003: Dry bias and
variability in Vaisala RS80‑H radiosondes: The ARM experience. Journal of Atmospheric and
Oceanic Technology, 20:117–132.
Turtiainen, H., S. Tammela et I. Stuns, 1995: A new radiosonde temperature sensor with fast response time
and small radiation error. Ninth AMS Symposium on Meteorological Observations and
Instrumentation, Charlotte, Caroline du Nord, p. 60–64.
Vömel, H., D.E. David et K. Smith, 2007a: Accuracy of tropospheric and stratospheric water vapor
measurements by the cryogenic frost point hygrometer: Instrument details and observations.
Journal of Geophysical Research, 112(D08305).
Vömel, H., H. Selkirk, L. Miloshevich, J. Valverde‑Canossa, J. Valdés, E. Kyrö, R. Kivi, W. Stolz, G. Peng
et J.A. Diaz, 2007b: Radiation dry bias of the Vaisala RS92 humidity sensor. Journal of
Atmospheric and Oceanic Technology, 24:953–963.
Wade, C.G., 1995: Calibration and data reduction problems affecting national weather service radiosonde
humidity measurements. Ninth AMS Symposium on Meteorological Observations and
Instrumentation, Charlotte, Caroline du Nord, p. 37–42.
Wang, J. et L. Zhang, 2008: Systematic errors in global radiosonde precipitable water data from
comparisons with ground‑based GPS measurements. Journal of Climate, 21:2218–2238.
Wexler, A., 1976: Vapor pressure formulation for water in range 0 to 100 °C. A revision. Journal of Research of
the National Bureau of Standards – A. Physics and Chemistry, 80A (5‑6):775–785.
———, 1977: Vapor pressure formulation for ice. Journal of Research of the National Bureau of Standards – A.
Physics and Chemistry, 81A (1):5–20.
TABLE DES MATIÈRES DU CHAPITRE
Page
13.1 GÉNÉRALITÉS
13.1.1 Définitions
Les définitions ci‑après sont tirées du Manuel du Système mondial d’observation (OMM, 2010):
Observation par ballon‑pilote. Détermination des vents en altitude en suivant la trajectoire d’un
ballon libre à l’aide d’un dispositif optique.
Observation de radiovent. Détermination des vents en altitude en suivant la trajectoire d’un ballon
libre par des moyens électroniques.
Le présent chapitre a pour principal objet les observations de radiovent et les observations par
ballon‑pilote. Les techniques relatives aux ballons, les mesures reposant sur des plates‑formes
spéciales ou des équipements spécialisés et les mesures indirectes par télédétection sont
traitées dans divers chapitres de la partie II. De très nombreuses données d’observation
proviennent actuellement d’aéronefs commerciaux, de radars profileurs de vent ou de radars
météorologiques. Les données sur le vent en altitude recueillies par ballons sont pour la plupart
obtenues à l’aide de techniques combinant radiosondage et radiovent, même si l’on se contente
parfois d’observations par ballon‑pilote ou de radiovent pour ne pas avoir à financer le lancement
d’une radiosonde.
La vitesse des vents en altitude est le plus souvent exprimée en mètres par seconde ou en nœuds,
mais parfois aussi en kilomètres par heure. La direction d’où provient le flux d’air est donnée
en degrés par rapport au nord. Ainsi, 90° signale un vent d’est, 180° un vent du sud, 270° un
vent d’ouest et 0/360° un vent du nord. Dans les messages TEMP, on indique la direction à cinq
degrés près. Cette approximation atténue l’exactitude des données communiquées par les
systèmes de mesure les plus modernes, en particulier lorsque les vents en altitude sont forts.
L’utilisation du code BUFR permet alors d’indiquer la direction et la vitesse du vent en altitude
avec davantage d’exactitude.
Jusqu’à 1° (un degré) de latitude du pôle Nord ou du pôle Sud, pour définir la direction des
vents de surface, on calcule l'azimut en plaçant le zéro sur le méridien zéro de Greenwich. Toutes
les stations en altitude fixes ou mobiles qui ne se trouvent pas à plus de 1° de latitude du pôle
Nord ou du pôle Sud devraient utiliser ce système de coordonnées particulier pour les mesures
de la direction du vent à toutes les altitudes et pour l’intégralité des sondages, même si le ballon
s’éloigne davantage du pôle. Le code de diffusion de ces mesures devrait signaler l’emploi d’un
système de coordonnées différent dans le message d’observation concerné, surtout si des codes
alphanumériques traditionnels sont utilisés. Si l’emplacement de la station est indiqué en code
BUFR, ce dernier signale automatiquement l’usage de ce système de coordonnées différent.
C’est l’altitude géopotentielle qu’on utilise pour les mesures de radiosondage et de radiovent,
de sorte que les mesures du vent se font à la même altitude que les mesures de température
et d’humidité relative par radiosondage (voir la section 12.3.6 du chapitre 12 de la partie I). La
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 457
On divise cette énergie potentielle par la gravité normale à 45° de latitude pour obtenir l’altitude
géopotentielle utilisée par l’OMM:
z
( ) ( ) ∫( )
z zgeometric , ϕ = Φ zgeometric , ϕ / γ 45° = ( γ zgeometric , ϕ dzgeometric ) / γ 45° (13.2)
0
où γ45° est tirée de la définition comme valant 9,806 65 m s–2.
a) Dans la couche limite, les observations de vents en altitude offrant des mesures fiables du
cisaillement vertical sont essentielles pour prévoir la pollution de l’environnement;
c) Les mesures exactes des vents et du cisaillement vertical en altitude sont cruciales pour le
lancement d’engins spatiaux, notamment des divers types de fusées;
e) Les vents en altitude comptent parmi les paramètres climatiques les plus importants.
Les mesures du vent en altitude sont généralement incorporées aux prévisions numériques
du temps sous forme de moyennes par couche, l’épaisseur des couches étant déterminée par
l’échelle des mouvements atmosphériques pertinents pour les prévisions. À l’ordinaire, elles
458 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
ne sont pas introduites aux pressions et hauteurs standard, mais à des niveaux de pression qui
évoluent en fonction des variations barométriques en surface sur le lieu d’observation. Il est donc
primordial que les messages d’observation des vents en altitude ne fournissent pas uniquement
des mesures exactes des vents aux niveaux standard, mais rendent aussi compte de la variation
des vents entre ces niveaux.
Dans les systèmes modernes de radiovent, des ordinateurs peuvent fournir rapidement tous
les détails sur la structure qui sont nécessaires aux activités météorologiques et à la recherche
scientifique. Les messages d’observation des vents en altitude devraient renfermer assez
d’informations pour définir le cisaillement vertical du vent à travers les limites qui séparent les
diverses couches des champs de masse. Dans la mesure du possible, il faudrait, par exemple,
indiquer tout cisaillement à travers les inversions de température ou tout cisaillement important
associé à de fortes variations de l’humidité relative dans le plan vertical.
Selon les tolérances définies pour le code FM 35‑XI Ext. TEMP ou le code FM 32‑XI Ext. PILOT
(OMM, 2011a) dans les messages, les vitesses des vents peuvent présenter des écarts allant
jusqu’à 5 m s–1 par rapport à l’interpolation linéaire entre les niveaux importants. L’emploi
d’algorithmes automatisés avec cette limite d’ajustement risque d’introduire dans les messages
des erreurs beaucoup plus importantes que les erreurs d’observation. De plus, il arrive que la
procédure de chiffrement réduise l’exactitude au point que les exigences énoncées au chapitre 12
de la partie I ne soient plus respectées.
Pour éviter ce problème, il convient d’adopter dès que possible les rapports utilisant un
code BUFR acceptable, qui permettent de transmettre des données haute résolution sur la
structure verticale du vent, en plus des niveaux importants pour répondre aux exigences des
utilisateurs. Toutefois, dans l’intervalle, il est possible d’adopter, comme norme nationale, une
limite d’ajustement de la vitesse du vent de 3 m s–1 au lieu de 5 m s–1 pour les messages TEMP et
PILOT. Le resserrement de cette limite devrait se traduire, en moyenne, par la production d’un
message d’observation de niveau important par kilomètre vertical. Les messages TEMP ou PILOT
devraient être comparés visuellement aux mesures détaillées des vents en altitude. Avant leur
diffusion, il convient de les corriger de manière à éliminer les erreurs d’ajustement inacceptables.
Par le passé, les données relatives aux vents en altitude étaient en général traitées manuellement
ou à l’aide d’une petite calculatrice et il n’était guère possible de fournir des rapports détaillés
sur la structure verticale du vent. Il fallait donc se contenter de niveaux importants et de limites
d’ajustement relativement larges, qui n’ont plus de raison d’être aujourd’hui compte tenu de la
qualité des observations que permettent les systèmes modernes de radiosondage‑radiovent.
Les exigences en matière d’exactitude pour les mesures de la vitesse, de la direction et des
composantes orthogonales du vent en altitude sont présentées à l’annexe 12.A du chapitre 12
de la partie I. La plupart des systèmes de mesure du vent en altitude devraient permettre de
mesurer des vitesses allant de 0 à 100 m s–1. Les systèmes conçus pour les vents à basse altitude
n’ont pas besoin de couvrir un éventail de vitesses aussi large. En outre, les erreurs systématiques
sur la direction du vent doivent être réduites au minimum. Elles doivent en tout cas être
nettement inférieures à 5°, en particulier là où les vents en altitude sont généralement forts.
Dans les années 1990, la plupart des systèmes de mesure opérationnels correctement entretenus
permettaient d’obtenir des données comportant une erreur type (2σ) sur le vecteur inférieure
ou égale à 3 m s–1 dans la basse troposphère et à 5 ou 6 m s–1 dans la haute troposphère et la
stratosphère (Nash, 1994). Grâce à la très grande fiabilité des systèmes modernes de mesure du
vent utilisant le GPS, il est aujourd’hui possible d’obtenir des performances encore meilleures, à
savoir des données comportant une erreur type (k = 2) sur le vecteur inférieure à 1 m s–1, avec une
faible diminution de la qualité des mesures dans la verticale (voir les résultats de la comparaison
de systèmes de radiosondage haut de gamme organisée par l’OMM à Yangjiang, en Chine
(OMM, 2011b)).
verticale plus fine que 150 m. La figure 13.1 a) présente deux mesures d’Yangjiang à six heures
d’intervalle. La structure fine dans la verticale n’est pas due au bruit de fond, mais correspond
à la structure réelle de l’atmosphère, qui a également été mesurée par les autres systèmes de
radiosondage‑radiovent au cours de leurs vols respectifs. Durant cet essai, de très forts vents
soufflaient de l’est à des niveaux élevés de la stratosphère (associés à la phase d’est de l’oscillation
quasi biennale). Les vents du nord, plus forts, associés au courant‑jet à environ 16 km d’altitude,
s’étendent jusqu’à environ 21 km et ainsi au‑delà de la tropopause, à 17,5 km d’altitude. La
structure détaillée du vent dans la stratosphère entre 22 et 34 km est relativement stable pendant
plus de sept heures, ce qui montre qu’une large part de la structure détaillée n’est pas transitoire
et mérite donc d’être archivée et communiquée.
La figure 13.1 b) présente les profils en début d’hiver au Royaume‑Uni; la tropopause s’y trouve
à une altitude nettement inférieure, à environ 11 km, mais là aussi les forts vents associés au
courant‑jet de la troposphère supérieure s’étendent au moins jusqu’à 16 km. Les importantes
perturbations du vent entraînées par les ondes gravitationnelles immédiatement au‑dessus de la
tropopause ne seraient pas décelables à une résolution verticale de 1 km. On observe ici un autre
courant‑jet associé au déplacement d’air autour du tourbillon circumpolaire au‑dessus de 30 km.
La figure 13.1 c) présente des conditions estivales au Royaume‑Uni. Dans ce cas, on observe un
fort cisaillement du vent au niveau de la tropopause. Les vents d’est, qui prédominent dans la
stratosphère au‑dessus d’environ 16 km, ne sont pas aussi forts que les vents d’ouest en hiver.
Toutefois, à une altitude entre 20 et 32 km, on observe à nouveau d’importantes perturbations
des vents en été.
Ainsi, même si, selon les indications du tableau 12.B.1 de l’annexe 12.B du chapitre 12 de la
partie 1, les utilisateurs peuvent se satisfaire de mesures du vent en altitude ayant une résolution
verticale de 200 à 500 m dans la troposphère et de 1 km dans la stratosphère, les mesures
de radiosonde‑radiovent comportent en fait des informations qui devraient être archivées et
transmises à d’autres fins que les analyses de la prévision numérique du temps. Il est donc
recommandé d’opter pour les systèmes de la meilleure résolution possible, avec une résolution
verticale égale ou inférieure à 200 m dans la basse troposphère et inférieure à 300 m dans la
haute troposphère et la basse stratosphère. On peut observer de forts cisaillements à proximité
du courant‑jet maximal. Pour les mesurer avec fiabilité, la résolution de 500 m prévue au
tableau 12 B.1 n’est pas suffisante.
Une résolution verticale de 50 à 150 mètres peut s’avérer utile pour conduire des activités
météorologiques générales dans la couche limite atmosphérique (jusqu’à 2 km au‑dessus de la
surface). Le système de poursuite doit toutefois permettre de mesurer le vent avec une exactitude
acceptable à une meilleure résolution si celle‑ci est nécessaire.
Une très grande exactitude dans la mesure du vent en altitude est souvent nécessaire pour les
opérations à grande distance comme le lancement de fusées. Dans ce cas, il convient d’utiliser
des ballons spéciaux à surface en relief qui suivent les vents plus étroitement que les ballons
météorologiques standard. Les programmes d’observation devant respecter une spécification
d’exactitude très élevée requièrent une planification soigneuse car les observations doivent se
dérouler à proximité du site choisi et au cours d’une période donnée. Au sujet de la variabilité
atmosphérique, il convient de noter que l’écart quadratique moyen des vecteurs vents entre
deux observations exemptes d’erreur effectuées à la même hauteur (à une résolution verticale
de 300 mètres) est généralement inférieur à 1,5 m s‑1 si les mesures sont réalisées simultanément
et séparées de moins de 5 km environ dans le plan horizontal. Il en va de même si les mesures
sont effectuées au même emplacement à moins d’une dizaine de minutes d’intervalle (selon des
études similaires, mais menées à plus petite échelle que les études de représentativité de Kitchen
(1989)).
Pour mesurer les vents en altitude, les instruments emportés par ballon décrits dans le présent
chapitre doivent parfois être utilisés jusqu’à 35 km d’altitude, et même au‑delà sur certains sites,
460 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Altitude (km)
22
20
18
16
14
12
10
8
6
4
2
0
–20 –15 –10 –5 0 5 10 m/sec –40 –35 –30 –25 –20 –15 –10 m/sec
a) Vol 1 à 0800 heures (en noir) et vol 3 à 1448 heures (en gris) le 14 juillet 2010,
durant la comparaison de systèmes de radiosondage haut de gamme
organisée par l’OMM à Yangjiang (Chine).
Vent E–O Vent N–S
32
30
28
26
24
22
Altitude (km)
20
18
16
14
12
10
8
6
4
2
0
5 10 15 20 25 30 35 40 m/sec –25 –20 –15 –10 –5 0 5 10 m/sec
20
18
16
14
12
10
8
6
4
2
0
–20 –15 –10 –5 0 5 10 15 m/sec –20 –15 –10 –5 0 5 10 15 m/sec
Figure 13.1. Exemples de profils verticaux de vent horizontal mesuré avec une résolution
verticale d’environ 150 m à Yangjiang (Chine), de même qu’au début de l’hiver et en été au
Royaume‑Uni; la ligne grise horizontale correspond à la hauteur de la tropopause.
en particulier dans le cadre du Système mondial d’observation du climat. Les ballons permettant
d’atteindre ces hauteurs peuvent coûter plus cher que les petits ballons qui emportent les
systèmes de sonde de radiovent à des altitudes situées entre 20 et 25 kilomètres.
Le réseau idéal d’observation des vents dans la troposphère et la basse stratosphère couvre
adéquatement les mouvements à toutes les échelles, de l’échelle planétaire à l’échelle moyenne.
Il définit de plus les structures de vent importantes à petite échelle à l’aide de systèmes de
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 461
télédétection à résolution temporelle élevée. Toutefois, pour les besoins météorologiques dans
la moyenne et la haute stratosphère, les mouvements sont surtout observés à de plus grandes
échelles: l’échelle planétaire et l’échelle synoptique. Ainsi, des mesures à plus de 25 km de
hauteur ne sont pas nécessairement utiles à tous les sites d’observation en altitude d’un réseau
national dont l’espacement est optimisé en vue d’observations troposphériques. On peut réduire
les frais d’exploitation globaux en utilisant à la fois les systèmes d’observation présentés dans
ce chapitre et les systèmes de détection décrits dans la partie II. Dans ce cas, l’infrastructure
technique nationale doit être en mesure d’assurer l’entretien des différents systèmes déployés.
Les mesures du vent en altitude provenant d’instruments emportés par des ballons s’appuient
essentiellement sur des sondes de radiovent, mais on peut aussi obtenir des données à l’aide
d’observations par ballon‑pilote et radiovent sans qu’il soit nécessaire de lancer une radiosonde.
Les observations effectuées à partir des stations en altitude du Système mondial d’observation
sont complétées, sur les terres émergées, par des mesures provenant d’aéronefs, de profileurs
de vent et de radars météorologiques Doppler. Dans les zones à fort trafic aérien, davantage
d’informations sont communiquées par les aéronefs et les radars que par des radiosondes
jusqu’à une altitude d’environ 12 km. Au‑dessus des océans, les informations sur les vents en
altitude sont surtout recueillies par des avions civils volant à l’altitude de croisière. Ces données
sont accompagnées de profils verticaux, fournis par les sondes de radiovent lancées à partir de
navires ou d’îles éloignées, ainsi que de données d’observation de la structure des nuages ou de
la vapeur d’eau communiquées par des satellites météorologiques géostationnaires. À l’avenir,
les mesures du vent au moyen de systèmes de détection et de localisation par la lumière (lidars)
et de radars placés à bord de satellites devraient améliorer la couverture mondiale des réseaux
d’observation. On emploie également des sondeurs acoustiques (sodars), des lidars et des
anémomètres fixés à des cerfs‑volants pour obtenir des mesures de haute résolution temporelle
pour des applications particulières. Une technologie aéronautique sans pilote peu onéreuse est
en cours de développement en vue d’applications météorologiques.
Les méthodes directes de mesure du vent étudiées dans le présent chapitre reposent sur
l’observation continue de la position de certaines cibles. Il existe un grand nombre de techniques
de poursuite, mais nous n’examinerons ici que deux des plus courantes.
L’observation des vents peut reposer sur une radiosonde (fixée à un ballon en ascension ou à
une catasonde) qui capte les signaux émis par des émetteurs de radionavigation. Le système le
plus couramment utilisé exploite les signaux émis par des satellites de radionavigation tels que
ceux du système GPS NAVSTAR, mais d’autres services de radionavigation satellite plus récents
462 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
pourraient bien être utilisés à l’avenir. Les signaux émis par les satellites sont détectés par une
antenne spécialement conçue placée sur la radiosonde. Le système comprend également une
antenne GPS au sol, destinée à capter des signaux de référence. Un dispositif GPS, soit au sol, soit
intégré à la radiosonde, décode les signaux ou permet de calculer la position de la radiosonde
dans l’espace à trois dimensions en fonction du temps.
On a de plus en plus recours aux systèmes de poursuite utilisant les signaux GPS pour les
activités météorologiques courantes de mesure du vent, car ils permettent un degré élevé
d’automatisation. De plus, les équipements terrestres de radionavigation requièrent très peu de
maintenance. Les mesures d’altitude effectuées à l’aide de radiosondes GPS sont les plus fiables
pour établir les températures stratosphériques exactes dans le cadre des études climatologiques.
Les premières radiosondes GPS utilisaient toutes la bande de fréquences du service des auxiliaires
de la météorologie (MetAids) centrée sur 403 MHz pour transmettre les données au sol.
Toutefois, étant donné que, dans quelques pays, l’exploitation à grande échelle de radiosondes
civiles n’est pas possible dans cette bande, des radiosondes GPS utilisant la bande de fréquences
MetAids supérieure, centrée sur 1 680 MHz, ont été mises au point.
Du fait du prix élevé du matériel consomptible des radiosondes GPS, plusieurs grands réseaux
nationaux continuent d’utiliser des radiosondes dépourvues de GPS associées à un système
terrestre qui suit la cible au moyen d’une antenne directive mesurant l’azimut et deux des trois
paramètres suivants: l’angle de site, la distance oblique et la hauteur. Les mesures sont le plus
souvent réalisées à l’aide d’un radiothéodolite ou d’un radar secondaire (voir la section 13.2.3.2)
pour suivre une radiosonde portée par un ballon. Dans certains cas, un théodolite optique
est utilisé pour suivre la trajectoire du ballon. Un radar primaire (voir la section 13.2.3.1) peut
également permettre de suivre une cible réflectrice fixée à un ballon. Toutefois, ce système,
largement utilisé par le passé, n’est plus d’un usage courant aujourd’hui. La différence entre
les radars primaires et les radars secondaires est que les premiers détectent les impulsions
rétrodiffusées par leurs cibles, tandis que les seconds transmettent des impulsions sans détecter
leur écho. Dans le cas des radars secondaires, la radiosonde ou le transpondeur fixé au ballon
capte les impulsions du radar puis transmet l’information sur l’heure de réception au radar de la
station terrestre. Les systèmes radar et à radiothéodolite offrent généralement une exactitude
d’environ 0,1° pour le site et l’azimut. En principe, pour un système radar, l’erreur de distance
devrait être inférieure à 30 mètres.
Les radiothéodolites modernes ayant des antennes de moins de 2 mètres conviennent surtout
pour la mesure du vent en altitude lorsque l’angle d’élévation du ballon reste supérieur à 10° ou
15°. Les systèmes à radar secondaire sont encore utilisés dans les réseaux nationaux disposant
d’un spectre de fréquences radioélectriques suffisant dans les bandes du service des auxiliaires
de la météorologie. Les antennes directives qui donnent satisfaction sont le plus souvent
exploitées dans la bande des 1 680 MHz, car les antennes nécessaires pour la poursuite directive
à 403 MHz sont le plus souvent trop grandes pour pouvoir être exploitées actuellement.
Pour les mesures du vent en altitude, le choix entre un radiothéodolite et une radiosonde GPS
est partiellement déterminé par la distance oblique maximale prévue sur le site d’observation.
Un système muni d’un GPS permet d’obtenir une bonne exactitude à de très grandes distances.
La distance maximale varie considérablement selon la latitude: une distance de 70 km est
considérée comme satisfaisante pour les régions équatoriales et polaires, alors qu’il est possible
d’atteindre 200 km, voire plus, dans certaines zones tempérées des latitudes moyennes. Le
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 463
tableau 13.1 montre la fréquence de dépassement de certaines distances obliques avec un ballon
situé à 30 km. Les données concernent des stations européennes situées entre 50° N et 60° N.
Les fréquences sont indiquées pour toute une année, mais les sondages dépassant les limites ont
le plus souvent été effectués en hiver.
Les systèmes de radiovent ont été conçus pour mesurer les vents en présence de nuages. Ils
offrent aussi une exactitude élevée à grande distance, lorsque les ballons sont suivis jusqu’à des
hauteurs de 30 km. Aujourd’hui, ils permettent de satisfaire la plupart des exigences modernes
en matière d’exactitude. Le degré élevé d’automatisation qui s’associe aux technologies récentes
a éliminé toute intervention humaine dans la plupart des étapes du cycle de mesure, ce qui a
permis de réduire le coût des activités météorologiques.
On peut suivre la trajectoire des ballons avec un théodolite optique pour éviter les frais liés
aux mesures par radiovent, notamment entre deux ascensions importantes ou dans des zones
encore non couvertes du réseau national où il est souhaitable d’obtenir des mesures à basse
altitude (voir OMM, 2008). Seuls les opérateurs dotés d’une bonne formation et d’une grande
compétence peuvent éviter que les erreurs de mesure n’augmentent rapidement lorsque le
ballon s’élève au‑dessus de la couche limite. Des campagnes d’observation menées dans des
régions d’Amérique du Sud et d’Afrique se sont avérées utiles.
Le système optique du théodolite pour ballon‑pilote devrait permettre que l’axe de l’oculaire
demeure horizontal quelle que soit la direction de pointage de la lunette. Il est préférable
d’utiliser un prisme pentagonal plutôt qu’un prisme à angle droit, car un léger déplacement du
premier ne modifie pas la perpendicularité des deux éléments de l’axe optique.
L’oculaire de la lunette devrait être muni de fils croisés ou d’un réticule, avec un grossissement
de 20 à 25 et un champ d’au moins 2°. Le support du théodolite devrait être robuste. Il devrait
être possible de tourner celui‑ci rapidement à la main ou lentement à l’aide d’un engrenage à
friction ou à vis sans fin, sur les cercles d’azimut et de site. Ces cercles devraient comporter des
divisions de 1° maximum et être dotés de verniers ou de volants de micromètre permettant de
lire les angles avec une exactitude de 0,05° et de les évaluer à 0,01° près. Les échelles devraient
être disposées et éclairées de façon à permettre la lecture de jour comme de nuit. Le jeu dans les
engrenages des cercles ne devrait pas dépasser 0,025°. Les erreurs de collimation horizontale et
verticale devraient être limitées à 0,1°.
Le théodolite devrait être muni de pinnules pour faciliter le suivi d’un ballon se déplaçant
rapidement. Une lunette secondaire avec un champ d’au moins 8° est également utile à cette fin.
La base du théodolite devrait s’adapter à un trépied standard ou à tout autre support et se régler
pour une mise à niveau précise. Il est important de pouvoir ajuster les supports en fonction de la
taille de l’observateur. L’instrument devrait être robuste et protégé contre la corrosion.
Le système devrait s’associer à un programme informatique adéquat pour introduire et valider les
données d’observation.
464 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
13.2.2 Radiothéodolite
Le radiothéodolite est particulièrement efficace lorsque l’angle de site du ballon par rapport à
la station terrestre reste élevé pendant tout le vol. Si l’angle de site est supérieur à 16° environ,
il est possible de respecter la plupart des exigences d’exactitude du chapitre 12 de la partie I
avec des antennes de poursuite relativement petites. À mesure que diminue l’angle de site, les
erreurs de mesure augmentent rapidement, même si l’on utilise des antennes plus grandes (voir
la section 13.5.3). Il est extrêmement difficile de répondre aux exigences du chapitre 12 de la
partie I avec un radiothéodolite si les vents en altitude sont constamment très forts, à moins
d’employer un transpondeur pour mesurer la distance oblique (voir la section 13.2.3.2).
Un radiothéodolite est généralement utilisé pour suivre les signaux émis par une radiosonde
suspendue à un ballon météorologique. Une antenne directive couplée à un récepteur radio
tourne sur les axes vertical et horizontal à l’aide de servomécanismes pour capter les signaux
d’intensité maximale. La radiofréquence employée est généralement de 1 680 MHz. Une
bonne antenne d’un diamètre d’environ deux mètres devrait posséder des lobes secondaires
peu sensibles au faisceau principal; on peut ainsi obtenir une exactitude de 0,1°. Dans ce cas, le
radiothéodolite devrait pouvoir suivre un ballon dont l’angle d’élévation se situe entre 6 et 10°
sans interférence entre les signaux reçus directement de la radiosonde et les signaux réfléchis
par les surfaces adjacentes. Ce type de perturbation, appelé brouillage dans la propagation par
trajets multiples, limite souvent la capacité de poursuite des radiothéodolites à faible hauteur.
L’importance de ce brouillage dépend essentiellement du positionnement de l’antenne par
rapport aux surfaces réfléchissantes voisines, que le radiothéodolite soit placé sur un toit ou sur le
sol.
Il convient d’obtenir auprès du fabricant, avant l’achat, une description détaillée du rendement
de l’antenne du radiothéodolite, du système de détection, des servocommandes et des
algorithmes de traitement des données. Les radiothéodolites portatifs modernes dotés d’une
antenne de moins de deux mètres peuvent présenter des problèmes de brouillage dans la
propagation par trajets multiples jusqu’à des angles d’élévation de 16°. Lorsque cela se produit,
le signal maximal n’est généralement pas capté dans la direction du ballon. Les erreurs de
hauteur varient dans le temps à mesure que les conditions de brouillage évoluent du fait du
déplacement de la radiosonde, ce qui peut provoquer de fortes erreurs systématiques dans la
mesure du vent (plus de 10 m s–1).
Les ballons changent parfois de direction pour suivre la trajectoire opposée peu après leur
lancement en raison de forts cisaillements directement au‑dessus de la surface. Ils repassent
alors au‑dessus du radiothéodolite, même s’ils sont lancés de manière à s’en éloigner. Pour
assurer une poursuite automatique précise du ballon dans ces conditions, le radiothéodolite doit
avoir des vitesses de balayage très élevées en azimut et en site. Les spécifications mécaniques
doivent alors être plus strictes que pour la plupart des vols quand le ballon est à grande distance.
Afin d’alléger ces spécifications, certains radiothéodolites récents comportent un dispositif de
poursuite interférométrique. Dans ces systèmes, l’interféromètre compare la phase des signaux
qui parviennent à différentes sections de l’antenne de poursuite pour déterminer la position
de la source d’émission par rapport à l’orientation de l’antenne. En pratique, les données de
phase sont échantillonnées à grande vitesse à l’aide de microprocesseurs pendant qu’un simple
servomécanisme oriente approximativement l’antenne dans la direction voulue. Cela permet
d’obtenir un bon rapport signal/bruit et de réduire au minimum la réflexion en provenance du
sol. On calcule ensuite le site et l’azimut à partir d’une combinaison de positions de l’antenne
et l’interféromètre déduit la direction vers la source à partir des mesures de phase. L’exactitude
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 465
obtenue est identique à celle qu’offrent les meilleurs radiothéodolites standard. Les systèmes de
poursuite par radiothéodolite interférométrique sont souvent plus fiables et d’un entretien moins
coûteux.
13.2.3 Radar
Si l’on dispose d’un réflecteur adapté, il est possible de mesurer les vents à l’aide d’un radar
primaire. On peut réaliser des économies appréciables en réduisant les frais liés aux radiosondes,
à condition toutefois de posséder une structure d’appui technique adéquate pour l’entretien
du radar et de n’avoir que de très faibles dépenses de personnel. Toutefois, l’utilisation de
radars primaires pour obtenir des mesures opérationnelles du vent peu onéreuses n’a guère
été concluante dans les pays en développement, car l’entretien des équipements n’y était que
rarement assuré; dans la plupart des pays, on utilise maintenant des radiosondes GPS ou des
radiothéodolites.
Dans les systèmes à radar secondaire, les impulsions d’énergie émises par la station terrestre
sont captées par un répondeur fixé à un ballon. Il peut s’agir d’un transpondeur distinct ou d’un
dispositif intégré au système fondamental de radiosondage. Il n’est pas absolument nécessaire
que la fréquence du signal de retour soit la même que celle du signal de sortie. Le temps écoulé
entre l’émission de l’impulsion et la réaction du répondeur fournit une mesure directe de la
distance oblique. Ce type de système reste très utilisé dans les grands réseaux nationaux.
Dans les systèmes de radionavigation, la radiosonde comprend une antenne qui capte
les signaux émis. Le système est exploité par des agences indépendantes des Services
466 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
L’un des principaux avantages de ces systèmes de poursuite est la simplicité du dispositif
terrestre, qui ne comprend pas de pièces mobiles et ne nécessite pas d’aligner les antennes de
poursuite avec une très grande précision. Ces systèmes de radionavigation peuvent donc être
déployés à bord d’aéronefs et de navires, ainsi que sur des sites terrestres.
Le principal problème de fonctionnement que posent les radiosondes équipées d’un GPS est que
des radio‑transmetteurs des environs peuvent utiliser des fréquences créant des interférences
avec les signaux GPS que capte la radiosonde.
On attribue une hauteur aux mesures du vent en altitude en se fondant sur les mesures de la
hauteur géopotentielle de la radiosonde. L’heure des données relatives au vent traitées par
le système terrestre doit correspondre précisément à l’heure des mesures de la hauteur de la
radiosonde.
Les activités internationales de navigation reposent aujourd’hui le plus souvent sur les signaux
émis par le réseau de satellites GPS en orbite autour de la Terre. Ces signaux ont largement
remplacé ceux des émetteurs terrestres fixes. L’autre service mondial de navigation par
satellites opérationnel est le système GLONASS, géré par la Fédération de Russie. Le système
chinois BeiDou (COMPASS) et le système européen Galileo, qui sont en cours de déploiement,
devraient devenir opérationnels à l’échelle planétaire avant 2020. Quelques pays ont décidé
de ne pas renoncer aux systèmes de navigation terrestres LORAN pour leurs réseaux régionaux
ou nationaux. Avant d’envisager tout investissement à long terme dans un système donné,
il convient en tout cas de vérifier auprès des responsables de la navigation que les signaux
resteront disponibles à l’avenir.
Bien que le calcul des vents à l’aide du réseau GPS soit plus complexe qu’avec les signaux de
radionavigation provenant d’émetteurs terrestres en raison du mouvement constant des satellites
par rapport aux radiosondes, les systèmes de radiosonde GPS sont maintenant suffisamment
perfectionnés pour être exploités et 11 systèmes commercialisés ont pu être testés à Yangjiang
(Chine) (voir OMM, 2011b). Très peu de modèles présentaient des problèmes sérieux. Dans
la plupart des cas, la réception des signaux (réception simultanée de signaux de cinq à huit
satellites) était satisfaisante et les algorithmes de traitement pour corréler les signaux GPS reçus
par la radiosonde avec les signaux reçus par une antenne de référence à la station terrestre
étaient adéquats.
Des radiosondes GPS sont utilisées dans environ la moitié des stations des réseaux mondiaux de
radiosondes.
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 467
Les signaux provenant des satellites sont contrôlés par des étalons de fréquence atomiques
assurant une stabilité de plus de 1 · 10 –13. Chaque satellite transmet deux codes de télémétrie
numériques pseudo‑aléatoires uniques, en plus d’informations telles que les éphémérides des
satellites et des astres, le temps universel coordonné et le rendement des satellites. Les codes de
télémétrie et les données sur le système sont transmis au moyen de la technologie d’étalement
du spectre numérique biphasé. Le niveau de puissance des signaux du code est de – 130 dBm,
valeur bien inférieure au bruit de fond thermique.
a) Le code d’acquisition grossière, qui est transmis sur une porteuse à 1 575,42 MHz. Il est
modulé par un code de bruit pseudo‑aléatoire propre au satellite à un débit des éléments
de 1,023 MHz. Cette modulation étale la largeur du spectre d’acquisition grossière à 2 MHz;
b) Le code de précision, qui peut être remplacé par un code Y militaire quand le système
antibrouillage est actif. Le code de précision et les données sur le système sont transmis de
manière cohérente sur les porteuses L1 (1 575 MHz) et L2 (1 228 MHz).
Les longueurs d’onde des signaux GPS sont beaucoup plus courtes que celles des
signaux LORAN. L’antenne qui capte les signaux GPS, nettement plus petite, est placée sur le
dessus du corps de la radiosonde et rien ne devrait lui faire obstacle pour détecter l’horizon dans
toutes les directions. Cette antenne est mieux protégée contre les effets nuisibles de l’électricité
atmosphérique que les antennes LORAN. Des problèmes peuvent survenir si l’antenne GPS et le
capteur de température sont mal placés l’un par rapport à l’autre, mais les modèles récents sont
conçus de manière à les éviter.
Il faut prétraiter les signaux GPS au niveau de la radiosonde afin de réduire la quantité
d’informations transmises par les signaux à la station terrestre sur la fréquence porteuse de la
radiosonde (sous forme de données analogiques, comme dans le cas des systèmes LORAN, ou
de données numériques). Cette opération peut être réalisée à l’aide de diverses techniques.
Les systèmes GPS de radiosonde modernes emploient le code de précision dans un mode
différentiel. Les signaux sont captés simultanément par un récepteur de la station terrestre et
par le récepteur de la radiosonde. Pour effectuer des calculs précis, il faut capter les signaux d’au
moins quatre satellites. En mode différentiel, le déphasage des signaux reçus par la radiosonde
est comparé avec ceux que capte la station terrestre, ce qui est particulièrement utile quand la
radiosonde se trouve à proximité de la station terrestre, car les erreurs de localisation produites
par les temps de propagation du satellite aux récepteurs ou par l’antibrouillage, semblables dans
les deux récepteurs, peuvent être éliminées en grande partie.
Les systèmes de poursuite à l’aide de signaux GPS peuvent fonctionner avec exactitude à une
vitesse d’échantillonnage très élevée (en quelques secondes). Ainsi, il est possible de mesurer la
modulation de la vitesse horizontale apparente quand la radiosonde oscille comme un pendule
sous le ballon selon une période d’environ 10 à 15 s. Les petites différences qui ont été relevées
entre les mesures du vent à l’aide de radiosondes GPS à Yangjiang (Chine) tiennent pour la
plupart au fait que des algorithmes différents avaient été utilisés pour corriger les effets du
mouvement du ballon. Souvent, l’algorithme était conçu pour une configuration de suspension
particulière de la radiosonde, qui ne correspondait pas à celle de la comparaison (OMM, 2011b).
Un problème pratique que présentent les radiosondes GPS est le temps nécessaire pour que leur
système de poursuite se synchronise avec les signaux du satellite. Il est imprudent de lancer la
468 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
radiosonde avant la synchronisation, qui peut exiger de mettre la radiosonde dehors plusieurs
minutes avant son lancement ou de mettre au point une méthode de transmission des signaux
GPS à la radiosonde à l’endroit où elle est préparée.
Une transmission LORAN‑C comprend des trains de huit ou neuf impulsions de la porteuse de
100 kHz, d’une durée de 150 µs chacune. Chaque chaîne d’émetteurs comprend une station
maîtresse et au moins deux stations asservies. En principe, la cohérence de la chaîne est assurée
par référence à la transmission maîtresse. Chaque station asservie émet régulièrement ses trains
d’impulsions après la station maîtresse, à une fréquence propre à la chaîne. Cette fréquence est
généralement de 100 µs.
Les signaux LORAN‑C se propagent sous forme d’ondes de sol et d’ondes ionosphériques. La
propagation des ondes de sol est relativement stable. Les corrections de phase, très réduites,
varient selon que les signaux se propagent sur la terre ou sur la mer. La vitesse de changement
des corrections de phase pendant le déplacement de la radiosonde n’est pas assez importante
pour influer sur l’exactitude des mesures du vent. La propagation par ondes ionosphériques
est plus variable, car elle dépend de la position de l’ionosphère et change selon l’heure du
jour. Les signaux sont plus puissants sous la forme d’ondes de sol que d’ondes ionosphériques,
mais ces dernières s’affaiblissent beaucoup moins rapidement. Le système LORAN‑C se prête
particulièrement bien à la mesure des vents lorsque les signaux captés par la radiosonde en
provenance de tous les émetteurs sont dominés par les ondes de sol. On peut obtenir ces
conditions dans certaines parties des zones de service, mais non à tous les emplacements de la
couverture théorique.
Les radiosondes LORAN‑C captent les signaux sur leur propre antenne puis modulent la
fréquence porteuse afin de transmettre les signaux au récepteur. Le dispositif de poursuite
LORAN utilisé pour détecter l’heure d’arrivée des impulsions devrait quelque peu différencier les
signaux transmis par ondes de sol des signaux transmis par ondes ionosphériques. La distinction
est possible s’il capte l’heure d’arrivée du front avant des impulsions. Les dispositifs modernes de
poursuite LORAN peuvent fonctionner en mode interchaîne, ce qui permet d’utiliser les signaux
de plusieurs chaînes à la fois. Cette capacité est essentielle pour obtenir de bonnes mesures du
vent dans de nombreuses parties des zones de service LORAN‑C. Les vents sont calculés à partir
de la vitesse de variation des écarts d’heure d’arrivée entre les paires d’émetteurs. Dans les
calculs, on emploie tous les signaux fiables disponibles plutôt que de se contenter d’un minimum
de trois.
L’utilisation de la navigation LORAN pour les radiosondes opérationnelles est aujourd’hui très
limitée.
Les capteurs de poursuite modernes peuvent effectuer des mesures à des intervalles beaucoup
plus rapprochés que les anciens systèmes manuels, limités pour la plupart à une observation
par minute. En principe, un ordinateur au sol assure la totalité du traitement des données sur
les vents. L’opérateur archive et vérifie les informations sur un écran d’affichage avant de les
transmettre aux utilisateurs.
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 469
Il est préférable de relever les données de poursuite au moins toutes les 10 secondes.
L’échantillonnage devrait se faire à la fréquence la plus élevée souhaitable que permet le
système employé. Une cadence soutenue facilite le contrôle de la qualité avec des algorithmes
automatisés. Après avoir préparé les données, on peut les lisser par des techniques statistiques
et déterminer, au besoin, la variation de position dans le temps. L’opération de lissage détermine
l’épaisseur de la couche atmosphérique à laquelle s’applique la mesure du vent en altitude.
Elle est souvent modifiée en cours de vol pour tenir compte des besoins des utilisateurs aux
différentes hauteurs et de la portée du système de mesure du vent. Si l’exactitude est insuffisante
aux altitudes supérieures, il peut être nécessaire de ramener la résolution verticale sous la valeur
optimale afin de maintenir les erreurs de mesure dans des limites acceptables.
Dans les bons algorithmes de préparation et de lissage, on utilise des polynômes d’ordre faible
(Acheson, 1970) ou des fonctions splines cubiques (de Boor, 1978). Des algorithmes de calcul
des vents à partir d’observations par radar et par radiothéodolite figurent dans le document
OMM (1986). Il est en général possible d’établir les paramètres du vent en se fondant sur les
positions dérivées des données de poursuite ou sur la rapidité de changement des variables
techniques lissées provenant du système de poursuite (Passi, 1978). Beaucoup de systèmes
récents s’appuient sur cette dernière technique, qui exige toutefois que les algorithmes puissent
gérer certaines singularités dans les variables techniques, par exemple lorsqu’un ballon repasse
au‑dessus du site de poursuite à une altitude élevée.
Lors de l’affichage à des fins de vérification des vents calculés à partir des données de poursuite,
il est important d’indiquer les parties du vol pour lesquelles ces données étaient absentes
ou inutilisables en raison du bruit. Certains algorithmes servant à l’interpolation risquent de
manquer de stabilité en présence de discontinuités. Le cisaillement vertical du vent qui repose
sur des mesures fiables doit pouvoir être distingué du cisaillement produit artificiellement par le
traitement automatisé en l’absence de certaines données. La qualité des observations est souvent
médiocre au début de la phase ascensionnelle du ballon. Si le système n’est pas assez fiable
peu après le lancement, il est préférable de n’établir la valeur des vents que lorsque les données
de poursuite recueillies sont valables. En effet, l’interpolation entre la surface et les premiers
niveaux de données valables exige souvent une interpolation à travers des couches de fort
cisaillement vertical. Il est rare que les algorithmes automatisés fonctionnent correctement dans
ces circonstances.
Il faut mettre le théodolite optique parfaitement à niveau et l’orienter précisément par rapport au
nord vrai avant de déterminer l’azimut et le site du ballon dans les airs. L’intervalle de lecture des
deux angles ne devrait pas être inférieur à une minute. Les angles d’azimut devraient être relevés
au dixième de degré près. Lors de l’ascension d’un ballon‑pilote, les angles de site de 15° et
davantage devraient être relevés au dixième de degré près. L’exactitude est portée à 0,05° pour
les angles de moins de 15°.
Suivre la montée d’une radiosonde au moyen d’un théodolite optique permet d’obtenir une
mesure du vent plus précise aux altitudes inférieures. Ainsi, les angles de site devraient être
relevés à 0,1° près lorsqu’ils dépassent 20°, à 0,05° près lorsqu’ils sont égaux ou inférieurs à 20°
mais supérieurs à 15°, et à 0,01° près lorsqu’ils mesurent 15° ou moins. L’intervalle de temps
peut être mesuré avec un chronomètre ou avec un simple réveil dont la sonnerie se déclenche au
moment voulu.
La technique à deux théodolites est recommandée si l’on souhaite une plus grande exactitude.
La ligne de base entre les instruments devrait mesurer au moins 2 km de longueur et
former, si possible, un angle presque droit avec la direction dominante du vent au moment
de l’observation. Les calculs sont plus simples quand les deux sites de poursuite sont au
même niveau. La communication par ligne terrestre ou radio devrait aider à synchroniser les
470 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
observations effectuées à partir des deux emplacements, ce qui est primordial pour obtenir
l’exactitude voulue. Les théodolites enregistreurs, qui reportent les lectures par des moyens
électroniques, améliorent également l’exactitude des mesures.
Les systèmes de mesure du vent comportant une antenne directive de poursuite doivent être
installés et entretenus avec grand soin. Tout doit être fait pour garantir l’exactitude des mesures
de site et d’azimut. Cela suppose une mise à niveau précise de la station et un entretien poussé
afin que l’orientation de l’axe électrique de l’antenne reste proche de l’axe mécanique. On peut
s’en assurer par plusieurs méthodes, dont le pointage vers des émetteurs locaux ou des cibles de
position connue. Ces dernières années, un mauvais alignement de l’azimut a introduit des erreurs
supplémentaires dans les mesures du vent effectuées par de nombreuses stations d’observation
en altitude.
Il est possible d’étalonner la distance oblique mesurée par un radar primaire quand on dispose
de cibles fixes connues. De manière générale, la poursuite peut être vérifiée par une comparaison
entre les hauteurs géopotentielles déterminées par radar et les observations obtenues
simultanément par radiosonde. La correction des erreurs de poursuite introduites dans les
mesures de la hauteur par la réfraction atmosphérique est traitée à la section 13.7.
Les systèmes qui fonctionnent avec un radar ou un radiothéodolite assurent parfois moins bien
la poursuite d’une cible proche parce que l’un des lobes secondaires de l’antenne capte un signal
suffisamment fort pour déclencher une poursuite automatique à courte distance. Toutefois,
l’intensité du signal reçu baisse alors rapidement après quelques minutes et la cible n’est plus
captée. Avec certains systèmes, il peut être difficile de reprendre la poursuite en présence de
nuages bas, de pluie ou de brouillard sur le site de lancement. Il faut donc que la cible soit au
centre du faisceau principal au début du vol. L’opérateur peut s’en assurer avec un instrument
de visée, une lunette ou une caméra vidéo centré sur l’axe de l’antenne. L’alignement de
poursuite est moins facile à contrôler avec un radiothéodolite interférométrique, car la poursuite
mécanique ne coïncide pas toujours parfaitement avec la direction que prend le ballon.
L’utilisation du GPS pour mesurer le vent a tout d’abord été signalée par Call (OMM, 1994),
puis par Kaisti (1995). Les premiers systèmes ne décodaient pas les signaux GPS reçus, mais,
aujourd’hui, ils sont remplacés par les radiosondes GPS qui assurent le décodage.
Du fait des exigences géométriques pour l’emploi de signaux de navigation, les algorithmes de
mesure du vent par GPS semblent fonctionner au mieux lorsque les signaux captés émanent d’au
moins cinq satellites en cours d’ascension. On peut utiliser les éphémérides GPS pour repérer les
moments où la géométrie des satellites est faible pour la mesure du vent. Dans la pratique, cela
se produit rarement du fait de la configuration actuelle des satellites et de la bonne qualité de
réception des signaux satellite qu’offrent les antennes utilisées avec les radiosondes modernes.
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 471
Pour obtenir des mesures valables du vent en altitude à partir de systèmes de radionavigation
LORAN, la radiosonde doit recevoir des signaux provenant d’au moins trois stations LORAN.
Le décalage dans les temps d’arrivée de signaux de navigation cohérents émis à partir de
deux emplacements et captés par la radiosonde détermine un lieu ou une ligne de position
(OMM, 1985). Cette dernière prend la forme d’une hyperbole dans un plan (elle se transforme
en ellipse sur une surface sphérique). Pour cette raison, les systèmes de navigation qui emploient
cette technique sont dits hyperboliques. Il suffit de deux lignes de position qui se coupent pour
déterminer les positions dans le plan. Toutefois, si les lignes de position sont pratiquement
parallèles juste avant leur intersection, une faible erreur sur le moment d’arrivée des signaux
peut entraîner une importante erreur de mesure. Il a été établi clairement que, lorsque la mesure
du vent repose sur un système de radionavigation LORAN, il convient de mettre à profit tous les
signaux possibles d’une catégorie donnée (au moins quatre ou cinq en principe) afin d’accroître
la fiabilité de la poursuite. Karhunen (1983) a présenté un type d’algorithme permettant
d’exploiter tous les signaux existants d’aide à la navigation.
Le radiothéodolite ou le radar doit être placé en un lieu élevé offrant un horizon aussi dégagé
que possible. Aucun obstacle ne devrait sous‑tendre un angle de plus de 6° sur le point
d’observation. L’emplacement idéal est une colline de forme symétrique dont les flancs forment
une pente d’environ 6° sur une distance de 400 m, située dans une dépression entourée d’autres
collines s’élevant à 1 ou 2° de hauteur.
Le dispositif de poursuite devrait reposer sur des fondations fermes susceptibles de supporter
l’ensemble des appareils. Pour que les mesures obtenues au moyen des systèmes de
radionavigation soient utilisables, il faut que les signaux soient bien captés par une antenne de
radionavigation locale ainsi que par l’antenne du système au sol associée à la radiosonde. Les
antennes devraient être installées sur la hauteur du site d’observation, de manière à bénéficier
d’un horizon dégagé permettant la réception de signaux dans toutes les directions.
On communique souvent les mesures du vent en altitude parallèlement aux données sur le vent
de surface. Il est recommandé de mesurer le vent de surface à proximité du point de lancement
des ballons et de choisir un site où soufflent des vents adaptés pour les mesures en altitude. Si,
par exemple, les observations visent à déceler un effet local touchant un aéroport, l’emplacement
optimal ne sera peut‑être pas le même que si l’on veut observer des mouvements sur une zone
plus vaste, à l’échelle moyenne ou synoptique.
472 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
13.5.1 Généralités
Les erreurs de mesure du vent en altitude tiennent à la conjonction de trois types d’erreurs:
l’imprécision de la poursuite de la trajectoire de la cible dans le plan horizontal, la mauvaise
évaluation de la hauteur de la cible et l’écart entre le déplacement de la cible et le mouvement
réel de l’atmosphère.
L’incidence des erreurs de poursuite sur les erreurs de mesure du vent dépend de la méthode
d’observation. Avec certains systèmes, par exemple les radiothéodolites, les erreurs de mesure
varient beaucoup en fonction de la distance, de l’azimut et du site, alors même que les erreurs
associées à ces paramètres sont constantes dans le temps. En revanche, les systèmes de poursuite
reposant sur des signaux de radionavigation produisent généralement des erreurs relativement
peu tributaires de la distance et de la hauteur.
L’OMM (1975) a évalué les incertitudes liées au calcul des vents par des méthodes manuelles
(tables de traçage, règles à calcul, etc.). Il est apparu que ces techniques s’associent à un risque
trop élevé d’introduire des erreurs importantes et que le calcul des vents en altitude devrait être
automatisé dans la mesure du possible.
L’exactitude des observations effectuées par tous les systèmes de mesure du vent en altitude
fluctue avec le temps. Ces fluctuations peuvent être passagères et dues à la dégradation des
conditions de poursuite ou affecter tout un vol, par exemple quand une radiosonde transmet
des signaux erronés. Dans certains emplacements, l’exactitude de la poursuite en altitude peut
diminuer sur plusieurs mois, en raison soit d’une instabilité de la capacité de poursuite soit de
la configuration du système au sol. Dans tous les cas, il est souhaitable que les systèmes de
mesure fournissent en temps réel une estimation de l’exactitude des valeurs du vent en altitude.
Savoir quelles sont les données de qualité insuffisante permet de leur attribuer un moindre poids
dans les analyses numériques. Concrètement, les erreurs pourraient être signalées à l’aide des
codes TEMP ou PILOT adaptés ou des tables BUFR (OMM, 2011a).
Lorsque les erreurs de poursuite dégradent par trop la mesure du vent à une résolution verticale
donnée, on y remédie généralement en améliorant cette dernière.
Les erreurs d’évaluation de la hauteur, pour les observations par sonde de radiovent dans la
troposphère et la basse stratosphère, sont les mêmes que celles qui sont présentées pour les
mesures de la hauteur au chapitre 12 de la partie I. Elles sont maximales pour les radiosondes
utilisant des capteurs de pression dans la haute stratosphère, et sont d’une portée particulière
pour la prévision numérique du temps ou les études climatologiques en cas de fort cisaillement
vertical, notamment dans le tourbillon de la nuit polaire (voir la figure 13.1 b)).
Dans le cas des ballons‑pilotes suivis à l’aide d’un seul théodolite, la vitesse ascensionnelle du
ballon est supposée connue et sa hauteur est déduite du temps de vol. En réalité, il est difficile
de déterminer précisément la vitesse ascensionnelle d’un ballon lorsqu’on le lance. De ce fait, en
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 473
cas de fort cisaillement vertical à basse altitude, parfois conjugué avec d’importantes différences
de vitesse verticale des thermiques, des erreurs d’évaluation de la hauteur peuvent entraîner des
imprécisions dans les mesures du ballon‑pilote.
Les essais menés sur des systèmes prototypes de mesure du vent en altitude entièrement
automatiques révèlent souvent des écarts entre les heures attribuées aux observations et les
heures attribuées aux mesures de la radiosonde qui s’y associe. Le chronométrage de la mesure
du vent n’est pas toujours déclenché au même moment que celui de la radiosonde. Parfois,
aussi, divers facteurs entraînent une perte de synchronisation au cours du vol. De plus, il arrive
que l’heure attribuée aux vents mesurés ne corresponde pas à celle de l’échantillon de données
qui a servi à calculer le vent, mais au début ou à la fin de celui‑ci. Toute erreur temporelle peut
se traduire par d’importantes erreurs dans le calcul de l’altitude qu’on associe aux mesures du
vent et doit donc être supprimée au cours des essais sur prototypes pour garantir la fiabilité des
systèmes opérationnels.
Déceler le déplacement de la cible par rapport à celui de l’air est particulièrement important pour
les systèmes offrant une grande exactitude en matière de poursuite et une très bonne résolution
verticale. Par exemple, les erreurs liées au balancement de la radiosonde sous le ballon se
décèlent clairement dans les mesures de poursuite par GPS et doivent être éliminées autant que
possible.
Le déportement horizontal des parasondes par rapport à l’atmosphère peut également réduire
l’exactitude des mesures GPS. Ces appareils descendent à peu près deux fois plus vite que ne
s’élèvent les ballons‑sondes opérationnels.
Les erreurs instrumentales introduites par un bon théodolite optique dépassent rarement ±0,05°.
Elles peuvent varier légèrement en fonction de l’azimut ou du site mais elles restent faibles
comparativement aux erreurs attribuables à l’observateur. Les erreurs d’échelle de lecture ne
devraient pas dépasser 0,1°. Elles augmentent avec la distance et sont plus grandes à faible
altitude.
Dans les observations effectuées avec un seul théodolite, la vitesse de montée du ballon est la
plus grande source d’erreur. L’incertitude provient du volume de gaz insufflé lors du gonflage,
de la forme du ballon et de la vitesse verticale de l’atmosphère traversée. Une estimation fautive
de la vitesse d’ascension entraîne une erreur proportionnelle dans l’estimation de la hauteur du
ballon et, de ce fait, une erreur proportionnelle de la vitesse du vent, qui dépend de l’angle de
site.
Quand on utilise deux théodolites, les conséquences des erreurs du système dépendent de la
méthode d’évaluation adoptée. Schaefer et Doswell (1978) ont analysé ce genre d’erreurs.
474 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Le rapport entre les erreurs sur le vecteur vent et les erreurs de poursuite proprement dites peut
être approché par une fonction de la hauteur et du vent moyen (ou du rapport de ce dernier à
la vitesse moyenne d’ascension du ballon). Les erreurs aléatoires dans les mesures du vent par
radiothéodolite et par radar primaire s’expriment comme suit:
( )
ε v 2 = 2 ⋅ ε r 2 ⋅ Q 2 Q 2 + 1 + εθ 2 ⋅ h 2 + εϕ 2 ⋅ h 2 ⋅ Q 2 τ 2
(13.3)
b) Théodolite optique ou radiothéodolite et radiosonde mesurant l’azimut, l’angle de site et la
hauteur:
( )
2
ε v 2 = 2 ⋅ ε h 2 ⋅ Q 2 + ε θ 2 ⋅ h 2 ⋅ Q 2 + 1 + ε ϕ 2 ⋅ h 2 ⋅ Q 2 τ 2 (13.4)
où εv désigne l’erreur de vecteur dans le calcul du vent, εr l’erreur aléatoire dans la mesure de la
distance oblique, εθ l’erreur aléatoire dans la mesure de l’angle de site, εφ l’erreur aléatoire dans
la mesure de l’azimut, εh l’erreur aléatoire dans la hauteur (dérivée de la mesure de pression),
Q l’importance du vecteur vent moyen jusqu’à la hauteur h divisée par la vitesse moyenne
d’ascension du ballon jusqu’à cette même hauteur h et τ l’intervalle de temps entre deux
échantillons.
Le tableau 13.2 montre les écarts d’exactitude des vecteurs vents obtenus par ces deux
méthodes. La vitesse ascensionnelle moyenne employée pour la mesure du vent en altitude se
situe généralement entre 5 et 8 m s–1. Les valeurs de l’erreur du vecteur vent sont données par
les équations 13.3 et 13.4 pour diverses hauteurs et valeurs de Q, dans le cas d’un système de
poursuite présentant les caractéristiques suivantes: εr = 20 m, εθ = 0,1°, εφ = 0,1°, εh = l’erreur de
hauteur équivalant à une erreur de pression de 1 hPa; τ = 1 min.
Il apparaît clairement au tableau 13.2 que, pour un degré d’exactitude de poursuite donné, un
radiothéodolite (ou un théodolite optique) est moins précis pour la mesure du vent qu’un radar
primaire ou secondaire.
Radar Radiothéodolite
εv εv εv εv εv εv εv εv εv εv εv εv
Q
5 km 10 km 15 km 20 km 25 km 30 km 5 km 10 km 15 km 20 km 25 km 30 km
1 1 1 1,5 1,5 2,5 2,5 1 1,5 3 5,5 9 25
3 1,5 2,5 3 4 5 6 4 7 11 19 30 76
5 1,5 3 5 6 8 10 9 18 27 42 59 131
Radar Radiothéodolite
αεv αεv αεv αεv αεv αεv αεv αεv αεv αεv αεv αεv
Q
5 km 10 km 15 km 20 km 25 km 30 km 5 km 10 km 15 km 20 km 25 km 30 km
1 1/2 1 1 1 1 1 1/3 1/2 1/3 1/4 1/5 1/13
Dans les équations 13.3 et 13.4, qui définissent l’erreur de vecteur dans les vents calculés, les deux
premiers termes entre crochets représentent l’erreur radiale et l’erreur dans les vents observés
pour le même azimut que l’antenne de poursuite. Le troisième terme entre crochets correspond à
l’erreur tangentielle, l’erreur dans les vents observés perpendiculairement à l’azimut de l’antenne
de poursuite. Avec ce genre de système de mesure du vent en altitude, la distribution des erreurs
n’est pas indépendante des directions et ne peut être représentée correctement par un seul
paramètre. En conséquence, les valeurs figurant au tableau 13.2 indiquent l’ampleur des erreurs
mais non la direction de leur impact.
Si les marges d’erreurs tangentielle et radiale sont très différentes, la distribution des erreurs
est nettement elliptique et les erreurs conjuguées tendent à se concentrer parallèlement ou
perpendiculairement à l’axe de l’antenne de poursuite. Le tableau 13.3 présente le rapport
de certaines erreurs tangentielles et radiales qui, combinées, donnent les erreurs de vecteur
qui apparaissent au tableau 13.2. Quand le rapport est supérieur à 3 au tableau 13.3, l’erreur
tangentielle est dominante. On peut en déduire que, dans les mesures par radar, les erreurs
tangentielles dominent quand les distances sont importantes (vents moyens forts et, donc,
valeurs de Q élevées, plus hauteurs maximales). À l’inverse, dans les mesures par radiothéodolite,
les erreurs radiales dominent pour de grandes distances et les rapports sont nettement inférieurs
à 1. Ce sont les erreurs d’angle de site qui contribuent le plus aux erreurs radiales. Cependant,
les erreurs aléatoires dans la hauteur de la radiosonde sont plus déterminantes à grande altitude
quand les valeurs de Q sont faibles.
Les résultats présentés aux tableaux 13.2 et 13.3 reposent sur une évaluation théorique des
erreurs introduites par les différents types de systèmes. On suppose néanmoins que les
vents sont calculés à partir d’un simple écart entre deux échantillons discrets de données de
poursuite. Les calculs ne tiennent pas compte de l’amélioration probable de l’exactitude des
mesures lorsque les vitesses de changement de position sont déduites de grands échantillons
d’informations recueillis pour une résolution temporelle élevée. Le tableau 13.4 présente les
estimations de l’exactitude réelle des mesures obtenue par divers radars et radiothéodolites au
cours des quatre phases de la comparaison internationale de radiosondes organisée par l’OMM
(voir la section 13.6.1.2 pour de plus amples informations sur ces essais).
Trois radiothéodolites ont été testés lors de cette comparaison. C’est le système japonais qui a
donné les meilleurs résultats pour les situations à haute valeur de Q, mais les altitudes ont été
fortement lissées et les mesures du vent vertical manquaient d’exactitude dans les couches
supérieures des courants‑jets. Le petit radiothéodolite portatif installé au Japon par les États‑Unis
d’Amérique a présenté les plus fortes erreurs de vent pour des valeurs de Q élevées, en raison de
problèmes de brouillage dus à la propagation par trajets multiples.
La forme elliptique de la distribution des erreurs dans les observations effectuées par radar et
par radiothéodolite présentait les tendances prévues pour des valeurs de Q élevées. Toutefois,
476 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
cette ellipticité n’était pas aussi marquée qu’au tableau 13.3, probablement parce que les erreurs
aléatoires dans le calcul de la vitesse de changement de l’azimut et du site étaient, en réalité, plus
faibles que celles qui avaient été établies pour établir ce tableau.
En théorie, les systèmes de mesure du vent par GPS qui utilisent les codes d’acquisition grossière
en mode différentiel devraient pouvoir mesurer les vents avec une précision de 0,2 m s–1. Les
estimations présentées au tableau 13.5 proviennent d’essais récents de radiosondes GPS conduits
Tableau 13.4. Évaluations d’erreurs aléatoires types (niveau 2σ , unité m s‑1) sur les mesures
du vecteur vent en altitude obtenues lors de la comparaison internationale
de radiosondes de l’OMM (y compris les évaluations des valeurs types
de Q et de αεv pour chacune des quatre phases)
Radiothéodolite Royaume-
2,1 ≈1 1,5 4,8 ≈1 2,5 5,2 ≈1 1
(États‑Unis) Uni
Radiothéodolite
2,8 ≈1 2,5 10,4 0,4 6 9 0,33 4 États‑Unis
(États‑Unis)
Radiothéodolite,
1,5 ≈1 <1 4,8 ≈1 3 5,8 ≈1 1,5 Kazakhstan
portable
Radiothéodolite,
2,2 ≈1 1,5 12 0,31 5,5 9 0,23 4 Japon
portable
Radiothéodolite
1,7 ≈1 1,5 6,4 0,48 5,5 4,7 0,48 4 Japon
(Japon)
Radar
secondaire
(AVK, 1,5 ≈1 <1 2,6 ≈1 3 2,6 ≈1 1,5 Kazakhstan
Fédération de
Russie)
Radar
secondaire 1,5 ≈1 <1 3,8 ≈1 3 3,4 ≈1 1,5 Kazakhstan
(Chine)
Note:
a Données obtenues lors du test effectué au Royaume‑Uni à la suite de la phase I de la comparaison internationale
de radiosondes organisée par l’OMM (voir Edge et al., 1986).
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 477
par l’OMM. La principale différence entre ces systèmes provient du filtrage appliqué au vent
pour corriger l’effet du mouvement de la radiosonde par rapport au ballon. Ce mouvement
comprend une oscillation régulière des radiosondes sous le ballon, de même qu’une rotation et
un déplacement irréguliers entraînés par la différence entre les vents auxquels sont exposés le
ballon et la radiosonde au fil de l’ascension.
Des exemples d’observations simultanées de vents dans la haute troposphère par des
radiosondes GPS lors de la comparaison de systèmes de radiosondage haut de gamme organisée
par l’OMM sont présentés à la figure 13.2. Seuls des extraits des vols sont présentés car ce n’est
que lorsqu’on regarde un court échantillon de données des vols que les différences apparaissent,
la correspondance globale étant bien meilleure qu’elle ne l’était en règle générale lors de
mesures opérationnelles du vent précédentes.
33:00
32:00
Temps écoulé
31:00
30:00
29:00
–15 –14 –13 –12 –11 –10 –9 –8 –7 –6 –5 m/sec –11 –10 –9 –8 –7 –6 –5 –4 –3 m/sec
34:00
Temps écoulé
33:00
32:00
31:00
Figure 13.2. Extraits de vols de comparaison de vents mesurés par GPS effectués à Yangjiang
(Chine), lors de la comparaison OMM de systèmes de radiosondage
haut de gamme (OMM, 2011b)
478 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Les extraits de la figure 13.2 attestent une bonne correspondance entre presque tous les
systèmes pour détecter une structure verticale présentant des pics dans les oscillations à environ
90 s d’intervalle, et une correspondance moindre pour des fluctuations avec des pics à 40 s ou
moins d’intervalle. Ainsi, les structures ayant une longueur d’onde verticale de 600 m pouvaient
être détectées avec précision, alors que celles ayant une longueur d’onde de 200 m présentaient
une forte ambiguïté. L’un des systèmes présentés à la figure 13.2 a) produisait des valeurs plus
lissée que les autres, tandis qu’un système de la figure 13.2 b) tendait à interpoler des droites
entre les mesures GPS; dans les deux cas, les courbes s’éloignent occasionnellement des valeurs
correctes.
Ces extraits, qui ne correspondent pas aux meilleurs ni aux pires échantillons, suggèrent que
le traitement des mesures du vent par GPS est relativement au point et qu’un grand nombre
de fabricants obtiennent des résultats satisfaisants. Cela a été confirmé lors de l’établissement
des statistiques des 60 vols effectués avec des radiosondes GPS opérationnelles à Yangjiang
(voir le tableau 13.5). Sur ce dernier, les différences (établies sur la base d’une trentaine de vols
de comparaison) ont été moyennées sur 2 minutes, 30 secondes et 10 secondes. La meilleure
performance est celle des deux systèmes présentant les écarts quadratiques moyens les plus
faibles sur le vecteur vent. Les erreurs apparaissant au tableau 13.5 permettent de répondre aux
exigences optimales des utilisateurs pour les vents indiquées à l’annexe 12.A du chapitre 12 de la
partie I.
Avec le temps, les différences entre les corrections appliquées aux mesures de localisation GPS
visant à réduire au minimum les effets des mouvements de la radiosonde par rapport au ballon
diminueront probablement de plus en plus par rapport aux valeurs indiquées au tableau 13.5.
Toutefois, les mouvements irréguliers de la radiosonde par rapport au ballon (à la différence de
son mouvement pendulaire, relativement homogène) limitent la correspondance possible entre
deux radiosondes dans un vol d’essai. Pour la même raison, l’erreur associée à une seule mesure
de radiosonde est susceptible d’être plus importante que celle que l’on pourrait espérer obtenir
compte tenu de l’exactitude de la position de la radiosonde qu’il est possible de calculer grâce
aux systèmes de radionavigation par satellites.
Dans le cas des ballons doubles utilisés en Chine, le ballon extérieur explose souvent à une
altitude proche de 16 km. La perturbation du mouvement de la radiosonde occasionnée par cette
explosion pourrait avoir entraîné les erreurs quadratiques moyennes maximales enregistrées
aux alentours de 16 km au tableau 13.5. Dans le cadre de tests effectués au Royaume‑Uni
(60 vols) au cours de plusieurs saisons en 2009 et 2010 sur des radiosondes GPS provenant de
deux fabricants différents présents à Yangjiang, les résultats obtenus dans la basse troposphère
et la stratosphère étaient les mêmes que ceux qui sont présentés au tableau 13.5. Toutefois, les
Tableau 13.5. Erreur quadratique aléatoire (k = 2) du vecteur vent et biais systématique des
systèmes de haute qualité de mesure du vent par radionavigation GPS au cours
de la comparaison de systèmes de radiosondage haut de gamme
organisée par l’OMM à Yangjiang (Chine)
Haute troposphère Jusqu’à ±0,10 0,1 – 0,4a 0,3 – 0,9a 0,4 – 1,4a
8–17 km
100:00
90:00
80:00
70:00
Temps écoulé
60:00
50:00
40:00
30:00
20:00
10:00
0:00
–14 –12 –10 –8 –6 –4 –2 0 2 4 6 8 10 12 m/sec 5 10 15 20 25 30 35 40 45 m/sec
Figure 13.3. Exemple de profil de vent vertical, mesuré indépendamment par des radiosondes
GPS de deux fabricants différents à Camborne (Royaume‑Uni). On voit la structure à petite
échelle observable dans de nombreuses mesures correctes. Le logiciel de traitement des
radiosondes doit indiquer les moments du vol rendus moins fiables par une réception des
signaux GPS moins bonne qu’à l’ordinaire.
erreurs quadratiques moyennes du vecteur vent dans la haute troposphère se situaient entre
0,3 et 0,6 m s–1 avec une résolution verticale de 100 m, et entre 0,2 et 0,5 m s–1 avec une résolution
verticale de 300 m. Ainsi, pour ces deux systèmes, la finesse des mesures des vents dans la haute
troposphère au Royaume‑Uni offre une meilleure correspondance que pour les systèmes de
Yangjiang.
Il arrive qu’une radiosonde GPS fonctionne mal durant le vol, jusqu’à l’explosion du ballon, et
ne donne pas d’information sur les vents lorsqu’elle communique la température et l’humidité.
Parfois, aussi, le brouillage radioélectrique provenant d’une source extérieure entraîne des
problèmes et les mesures des vents peuvent présenter des erreurs importantes. Le logiciel de
traitement doit pouvoir informer l’opérateur lorsque ce type de problème survient, car il est
difficile de faire la distinction entre la structure atmosphérique réelle et les mesures présentant
d’importantes erreurs aléatoires (voir par exemple le profil des vents à la figure 13.3).
Contrairement au système terrestre LORAN‑C, le GPS fournit des données de mesure des vents
qui varient peu en fonction des conditions ionosphériques.
Les erreurs associées aux systèmes terrestres de radionavigation LORAN‑C sont dues à
l’instabilité de phase des signaux captés par la radiosonde et à la position de cette dernière
par rapport aux émetteurs du réseau. Un autre facteur à prendre en compte est la qualité de la
liaison télémétrique entre la radiosonde et le récepteur au sol. Lors d’essais au cours desquels les
radiosondes se trouvent particulièrement éloignées (à une distance d’au moins 50 à 100 km),
les erreurs de mesure du vent à l’aide de signaux de radionavigation augmentent avec la
distance, mais généralement pas davantage qu’à l’aide d’un radar primaire. La réception du
signal provenant de la radiosonde immédiatement après le lancement n’est pas toujours fiable.
Les vents mesurés par le système LORAN‑C comportent davantage d’erreurs à ce moment‑là
qu’après plusieurs minutes de vol, lorsque la trajectoire de la radiosonde s’est stabilisée.
Dans les systèmes de radionavigation LORAN‑C, l’exactitude des mesures du vent est surtout
limitée par le rapport signal/bruit à la réception du signal par la radiosonde. Le temps
d’intégration nécessaire pour obtenir des mesures fiables varie entre 30 s et 2 min avec les
signaux LORAN‑C. L’intensité des signaux provenant d’un émetteur LORAN‑C peut beaucoup
480 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Tableau 13.6. Erreur aléatoire (k = 2) et biais systématique escomptés pour les systèmes
LORAN‑C de détection des vents dans les zones où la couverture est presque optimale
fluctuer au cours d’une journée. Cela tient au fait que les variations diurnes de l’altitude et de
l’orientation des couches ionosphériques ont, dans certaines circonstances, un grand impact
sur la force du signal. Du fait des fluctuations d’intensité et de stabilité des signaux, il n’est pas
toujours possible d’obtenir de bonnes mesures du vent à toutes les heures de la journée avec le
système LORAN‑C.
Un autre facteur déterminant pour l’exactitude des mesures avec LORAN‑C est la diminution de
la précision géométrique, qui dépend de la position du récepteur de la radiosonde par rapport
aux émetteurs des signaux de radionavigation. Lorsque la radiosonde se trouve près du milieu de
la ligne de base reliant deux émetteurs, une erreur aléatoire donnée dans le décalage temporel
des signaux entraîne une faible erreur aléatoire de position, dans une direction parallèle à la ligne
de base. En revanche, la même erreur aléatoire de décalage produit une erreur de position très
importante dans la même direction si la radiosonde se trouve dans le prolongement de la ligne
de base, au‑delà de l’un ou l’autre des émetteurs. Pour obtenir des mesures bidimensionnelles
du vent horizontal les plus exactes possibles, il faut disposer d’au moins deux paires d’émetteurs
de radionavigation dont les lignes de base sont à peu près perpendiculaires, la radiosonde
étant située vers le centre du triangle formé par trois des émetteurs. Quand les conditions
réelles de fonctionnement le permettent, on capte les signaux provenant de plus de deux paires
d’émetteurs afin d’accroître l’exactitude des observations. Les techniques d’évaluation de la
cohérence des données obtenues au moyen de la méthode des moindres carrés sont utiles pour
évaluer les erreurs de mesure du vent.
Les perturbations dans la propagation des signaux émis par le réseau de radionavigation
constituent une autre source d’erreur.
Passi et Morel (1987) ont mené une étude précoce sur les erreurs de mesure du vent du
système LORAN. Les systèmes commercialisés fournissent des données de bonne qualité,
comme l’indique le tableau 13.6. La qualité des mesures effectuées à l’aide d’ondes de sol,
essentiellement, a été établie à la suite d’essais d’installation menés dans les îles britanniques
(voir Nash et Oakley, 1992). La qualité atteinte avec des émetteurs à grande distance, où les
ondes ionosphériques sont importantes, a été évaluée à partir des résultats de la phase IV de
comparaison internationale de radiosondes organisée au Japon par l’OMM (voir OMM, 1996).
Au Royaume‑Uni, le système de radionavigation LORAN‑C a cessé d’être utilisé en raison de
l’incertitude qui pesait sur l’avenir du système dans le nord‑ouest de l’Europe. Il a été remplacé
par le système GPS sur tous les sites opérationnels.
Actuellement, les mesures par radiovent les plus précises révèlent de petites variations du vent
dans l’atmosphère qui n’apparaissent pas dans les modèles de prévision numérique du temps.
Par exemple, lorsque les profils des composantes du vent mesurés par GPS sont comparés
directement avec les sorties des modèles numériques mondiaux, l’écart type des résultats
des observations/simulations par modèles numériques (k = 2) aux latitudes moyennes se
situe en général entre 4 et 6 m s–1 dans la basse troposphère, et entre 4 et 9 m s–1 dans la haute
troposphère. Ainsi, il est toujours nettement plus grand que les erreurs instrumentales sur le
vecteur indiquées au tableau 13.5 pour une résolution verticale de 300 m. Cet écart provient
partiellement d’un manque d’exactitude des valeurs communiquées pour les vents, comme
indiqué à la section 13.1.3.2.
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 481
32
30 RMS, Δt = 130 min
28 RMS, Δt = 380 min
26
RMS, Δt = 18 h
24
22 RMS, Δt = 54 h
20
18
Altitude (km)
16
14
12
10
8
6
4
2
0
1 1,5 3 6 10 20
Écarts quadratiques moyens (RMS) du vecteur vent pour des intervalles temporels définis (m s )
–1
Figure 13.4. Écarts quadratiques moyens du vecteur vent (k = 1) pour des intervalles
temporels de 2, 6, 18 et 54 heures pour 11 observations couplées, avec une résolution
verticale de 1 km, établis à la suite de la comparaison de systèmes de radiosondage haut de
gamme organisée par l’OMM à Yangjiang (Chine) en juillet 2010. La part due à l’erreur des
instruments a été supprimée.
Les écarts quadratiques moyens des vecteurs entre les mesures par radiosonde des vents en
altitude à des intervalles de 2, 6, 18 et 54 heures ont été établis à partir des séries chronologiques
de mesures produites dans le cadre de la comparaison de systèmes de radiosondage haut de
gamme organisée par l’OMM à Yangjiang (Chine) (OMM, 2011b), en appliquant la technique de
Kitchen (1989). Les résultats en fonction de l’altitude sont présentés à la figure 13.4.
L’erreur quadratique moyenne sur le vecteur vent devrait alors pouvoir s’exprimer en fonction de
l’intervalle temporel si l’on applique l’équation suivante, inspirée de Kitchen (1989):
( ) + (τ v(small scale) ( ∆t ))
2
(τ v ( ∆t ) )
2
= bv ∆tγ
2
(13.5)
où τ V(Δt) est l’écart quadratique moyen du vecteur entre les mesures du vent à un intervalle
Δt; et b V Δtγ est la fonction de structure représentant l’écart quadratique dû aux changements
intervenant avec le temps à l’échelle synoptique et à moyenne échelle, b V et γ étant des
constantes. À Yangjiang, la valeur de γ se situait entre 0,5 et 0,6 pour les mesures des vents dans
la troposphère à des intervalles de temps de 6 et 54 h. Enfin, τ V(small scale) (Δt) est l’écart quadratique
moyen des vecteurs vents en haute atmosphère provenant de structures à petite échelle, telles
que des ondes de gravité quasi inertielles, des couches turbulentes ou une structure à l’échelle
du nuage.
pas des données sur les intervalles de temps nécessaires pour réduire les écarts quadratiques
moyens de petite échelle en deçà de cette valeur. Ainsi, pour obtenir une bonne concordance
entre les mesures du vent ou pour que les mesures reflètent les conditions atmosphériques avec
une exactitude élevée à un moment donné, il faut prendre les mesures à un intervalle nettement
inférieur à 20 minutes, comme indiqué à la section 13.1.3.3.
À Yangjiang, les petites fluctuations liées aux ondes de gravité quasi inertielles sont le facteur
dominant des écarts quadratiques moyens du vecteur en fonction du temps et il n’est pas
possible d’adapter une fonction de structure aux variations à l’échelle synoptique ou moyenne en
fonction du temps, comme Kitchen l’a montré au Royaume‑Uni dans des conditions estivales. Les
écarts quadratiques moyens du vecteur à un intervalle temporel de 18 heures à Yangjiang étaient
de l’ordre de 5 à 9 m s–1, des valeurs similaires à celles qui ont été trouvées au Royaume‑Uni.
Ainsi, les erreurs de représentativité du vent sont en général surtout influencées par les
variations de petite échelle. Les variations à l’échelle synoptique et moyenne ont le plus souvent
une incidence lorsqu’elles s’associent aux structures propres aux courants‑jets dans la haute
troposphère et la basse stratosphère. De ce fait, on observe des variations entre différents sites
et les valeurs examinées ici n’offrent qu’un instantané d’un type d’emplacement et de condition
synoptique, comprenant des mesures prises alors que des typhons approchaient ou s’éloignaient
de la zone concernée.
13.6.1 Comparaison
Les systèmes de mesure du vent en altitude sont assez complexes et peuvent présenter divers
modes de défaillance. Il n’est pas rare qu’un système continue à produire une structure verticale
du vent qui semble plausible alors qu’il est partiellement défaillant. Beaucoup de ces systèmes
ont besoin d’être soigneusement alignés et entretenus pour préserver l’exactitude de la
poursuite.
Il est possible de vérifier l’exactitude des mesures du vent en consultant les statistiques de
surveillance des observations émises par les centres de prévision numérique du temps. Ces
statistiques présentent les écarts entre les mesures du vent en altitude réalisées sur les divers sites
et les champs de prévision (de fond) à courte échéance pour les mêmes emplacements. Avec
les techniques modernes d’analyse et d’assimilation des données, les erreurs d’observation ont
une certaine incidence sur les champs d’analyse météorologique. Il a été démontré que l’on peut
déceler ces erreurs de manière très fiable au moyen d’une prévision à courte échéance tirée d’une
analyse effectuée six heures avant le moment de l’observation.
Les systèmes de mesure du vent peuvent aussi être comparés avec d’autres systèmes dont on
connaît la qualité des mesures. Il faut pour cela organiser des essais spéciaux qui permettent
d’évaluer les erreurs de poursuite indépendamment des erreurs d’évaluation de la hauteur.
L’interprétation des résultats des deux types de comparaisons peut se faire au moyen des
méthodes statistiques suggérées dans la publication OMM (1989).
Les opérateurs peuvent obtenir auprès des centres principaux désignés par la Commission
des systèmes de base de l’OMM les statistiques nécessaires pour comparer les mesures
opérationnelles du vent et les champs de prévision à courte échéance des modèles de prévision
numérique du temps.
Les statistiques de surveillance ne sont pas faciles à interpréter quand elles concernent les vents
en altitude. L’ampleur des erreurs aléatoires dans les champs de prévision est comparable ou
supérieure aux erreurs attribuables aux systèmes de mesure quand ces derniers fonctionnent
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 483
correctement. Les erreurs de prévision varient selon la situation géographique et il est parfois
nécessaire de faire appel au centre de prévision numérique du temps pour être guidé dans leur
interprétation. Néanmoins, il est relativement simple de déceler les systèmes de mesure du
vent en altitude qui introduisent des erreurs aléatoires nettement plus élevées que la moyenne.
Ces dernières années, environ 6 % des systèmes exploités dans le réseau mondial ont été jugés
défectueux. Il s’agissait le plus souvent de radiothéodolites et de radars secondaires.
Les synthèses des écarts entre les observations et les champs de prévision relevés sur plusieurs
mois ou sur une année complète sont également utiles pour déterminer les erreurs systématiques
sur la vitesse et la direction du vent propres à un système donné. Un léger défaut d’alignement
des antennes de poursuite des radiothéodolites ou des radars est relativement fréquent.
Des essais spéciaux ont donné une foule d’informations sur les performances réelles des
divers systèmes de mesure du vent en altitude utilisés dans le monde. Au cours de ce genre de
comparaisons, plusieurs cibles suspendues à un même ballon sont suivies simultanément par
différents systèmes au sol. L’heure des messages d’observation des vents émis par les stations au
sol est synchronisée à moins d’une seconde près. Il est ainsi possible de comparer les mesures du
vent en fonction de l’heure en vol et de comparer indépendamment les hauteurs attribuées au
vent. L’interprétation des résultats est plus fiable si un système au moins fournit des mesures de
grande exactitude, avec des caractéristiques d’erreur bien établies.
Une série complète d’essais a été effectuée entre 1984 et 1993 dans le cadre de la comparaison
internationale de radiosondes organisée par l’OMM. La phase I s’est déroulée au Royaume‑Uni
et la phase II aux États‑Unis (OMM, 1987). La phase III a été réalisée par la Fédération de Russie
au Kazakhstan (OMM, 1991) et la phase IV au Japon (OMM, 1996). D’autres tests, qui ont été
effectués au Brésil en 2001 (OMM, 2006a) précisément pour déterminer les problèmes liés à la
radiolocalisation GPS aux tropiques, ont permis d’améliorer les systèmes de radiosonde utilisant
le GPS. Ceux‑ci ont également été éprouvés à Maurice en 2005 (OMM, 2006b), puis de manière
plus approfondie à Yangjiang (Chine) en 2010 (OMM, 2011b).
Les renseignements donnés aux tableaux 13.4, 13.5 et 13.6 reposent essentiellement sur les
résultats de cette comparaison et sur d’autres essais effectués avec les mêmes exigences que les
essais de l’OMM.
Maintenant que les systèmes de mesure du vent au moyen du GPS ont été perfectionnés, la
plupart d’entre eux peuvent être considérés comme des étalons mobiles fiables pour comparer
les mesures du vent en altitude dans des régions reculées de la planète.
13.6.2 Étalonnage
Sur les radars, on vérifie l’étalonnage de la distance oblique en utilisant les retours d’un signal
provenant d’un objet éloigné dont on connaît précisément la position. Il convient de vérifier
l’azimut de la même façon.
L’orientation des antennes de poursuite des radiothéodolites ou des radars devrait être vérifiée
régulièrement en comparant les lectures obtenues pour les valeurs indiquées par un théodolite
optique. Si l’écart moyen entre les lectures du site fournies par le théodolite et par le radar
excède 0,1°, il faudrait contrôler l’ajustement de l’antenne. Lors de la vérification de l’azimut avec
un compas, la conversion du nord géomagnétique en nord géographique exige une grande
exactitude.
13.6.3 Entretien
Les radiothéodolites et les radars sont des appareils assez complexes, dont on confie
généralement l’entretien à un technicien expérimenté. Ce dernier est chargé de l’entretien
électrique et mécanique ainsi que des réparations. Le degré de compétence du personnel et
la fréquence de l’entretien dépendent de la conception du système. Certains radiothéodolites
récents présentent une fiabilité mécanique plus grande que les anciens modèles. Il est important
de considérer les frais et la faisabilité de l’entretien lors du choix d’un système de mesure du vent
en altitude.
13.7 CORRECTIONS
Lorsque les observations de radiovent sont effectuées à l’aide d’un système radar, les données de
poursuite servent à calculer les hauteurs attribuées aux mesures du vent. Il convient de corriger
ces hauteurs pour tenir compte de la courbure de la Terre par l’équation suivante:
De plus, la direction de propagation du faisceau radar n’est pas constante, car l’indice de
réfraction de l’air diminue en moyenne avec la hauteur, tout comme la température et la vapeur
d’eau. La baisse de l’indice de réfraction provoque le fléchissement de l’onde radar vers la
Terre. Par conséquent, l’angle de site observé amène généralement à surestimer la hauteur
géométrique vraie de la cible.
Le tableau 13.7 donne l’ordre de grandeur des facteurs de correction Δzrefraction calculés par
Hooper (1986). Grâce à l’augmentation récente de la puissance de traitement des ordinateurs
associés aux systèmes au sol, il est plus facile d’utiliser des algorithmes qui calculent ces
corrections pour les radars de poursuite de grande précision. Les valeurs présentées dans le
tableau 13.7 ont été obtenues à partir des moyennes climatologiques de température et de
vapeur d’eau établies sur cinq ans à divers emplacements. Les journées où l’indice de réfraction
est particulièrement élevé, il peut être nécessaire à certains endroits d’augmenter le facteur de
correction de 30 % par rapport aux moyennes climatologiques.
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 485
Acheson, D.T., 1970: LORAN‑C Windfinding Capabilities: Wallops Island Experiments. United States Department
of Commerce, Weather Bureau. ESSA Technical Memorandum WBTM EDL 11.
de Boor, C., 1978: A Practical Guide to Splines. Springer Verlag, New York.
Edge, P., M. Kitchen, J. Harding et J. Stancombe, 1986: The Reproducibility of RS3 Radiosonde and Cossor WF Mk
IV Radar Measurements. Meteorological Office, Bracknell, OSM No. 35.
Hooper, A.H., 1986: The Calculation of Radio‑wave Refraction, with Special Reference to Data Height‑finding
Radars. Meteorological Office, Bracknell, OSM No. 17.
Kaisti, K., 1995: New low‑cost GPS solution for upper‑air windfinding. Proceedings of the Ninth Symposium on
Meteorological Observations and Instrumentation, Charlotte, Caroline du Nord (27–31 mars 1995).
American Meteorological Society, p. 16–20.
Karhunen, P., 1983: Automated windfinding developments. Preprints of the Fifth AMS Symposium on
Meteorological Observations and Instrumentation (Toronto, 11–15 avril 1983), p. 110–115.
Kitchen, M., 1989: Representativeness errors for radiosonde observations. Quarterly Journal of the Royal
Meteorological Society, 115:673–700.
Lange, A.A., 1988: A high‑pass filter for optimum calibration of observing systems with applications. Dans:
Simulation and Optimization of Large Systems (dir.: A.J. Osiadacz). Clarendon Press, Oxford,
p. 311–327.
Nash, J., 1994: Upper wind observing systems used for meteorological operations. Annales Geophysicae,
12:691–710.
Nash, J. et T.J. Oakley, 1992: Experience in the use of LORAN‑C windfinding in the United Kingdom.
Proceedings of the Twenty‑first Annual Technical Symposium, Wild Goose Association, Birmingham,
Angleterre, p. 81–88.
Organisation météorologique mondiale, 1975: Upper‑air Sounding Studies (R.E. Vockeroth). Technical Note
No. 140 (WMO‑No. 394), Volume II, Genève.
———, 1985: Meteorological Observations Using Navaid Methods (A.A. Lange). Technical Note No. 185
(WMO‑No. 641), Genève.
———, 1986: Algorithms for Automatic Aerological Soundings (A.H. Hooper). Instruments and Observing
Methods Report No. 21 (WMO/TD‑No. 175), Genève.
———, 1987: WMO International Radiosonde Comparison (UK 1984, USA 1985): Final Report (J. Nash et
F.J. Schmidlin). Instruments and Observing Methods Report No. 30 (WMO/TD‑No. 195),
Genève.
———, 1989: An algorithmic approach for improving and controlling the quality of upper‑air data
(A.A. Lange). Papers Presented at the Fourth WMO Technical Conference on Instruments and
Methods of Observation (TECIMO‑IV). Instruments and Observing Methods Report No. 35
(WMO/TD‑No. 303), Genève.
———, 1991: WMO International Radiosonde Comparison – Phase III, Dzhambul (USSR), 1989: Final Report
(A. Ivanov, A. Kats, S. Kurnosenko, J. Nash et N. Zaitseva). Instruments and Observing Methods
Report No. 40 (WMO/TD‑No. 451), Genève.
———, 1994: A new GPS rawinsonde system (D.B. Call). Papers Presented at the WMO Technical Conference on
Instruments and Methods of Observation (TECO‑94). Instruments and Observing Methods Report
No. 57 (WMO/TD‑No. 588), Genève.
———, 1996: WMO International Radiosonde Comparison – Phase IV, Tsukuba (Japan), 1993: Final Report (S. Yagi,
A. Mita et N. Inoue). Instruments and Observing Methods Report No. 59
(WMO/TD‑No. 742), Genève.
———, 2005: Studying the accuracy of AFAR‑based radar sounding system (A. Ivanov et V. Tseitlin). Papers
and posters presented at the WMO Technical Conference on Meteorological and Environmental
Instruments and Methods of Observation (TECO‑2005). Instruments and Observing Methods
Report No. 82 (WMO/TD‑No. 1265), Genève.
———, 2006a: WMO Intercomparison of GPS Radiosondes – Alcântara (Brazil), 2001 (R. da Silveira, G.F. Fisch,
L.A.T. Machado, A.M. Dall’Antonia, L.F. Sapucci, D. Fernandes, R. Marques et J. Nash).
Instruments and Observing Methods Report No. 90 (WMO/TD‑No. 1314), Genève.
———, 2006b: WMO Intercomparison of Radiosonde Systems – Vacoas (Mauritius), 2005 (J. Nash, R. Smout,
T. Oakley, B. Pathack et S. Kurnosenko). Instruments and Observing Methods Report No. 83
(WMO/TD‑No. 1303), Genève.
———, 2008: Suggestions for upgrading the pilot balloon network in West Africa and elsewhere in the
tropics (M. Douglas, J. Mejia, R. Orozco et J. Murillo). Papers and posters presented at the WMO
CHAPITRE 13. MESURE DU VENT EN ALTITUDE 487
14.1 GÉNÉRALITÉS
14.1.1 Définitions
Dans la pratique de l’observation, on considère que le terme temps englobe les observations
de l’état de l’atmosphère et des phénomènes qui lui sont associés, que l’on n’entendait pas,
initialement, mesurer quantitativement. Ces observations sont des descriptions qualitatives de
phénomènes observés dans l’atmosphère ou à la surface terrestre, comme les précipitations
(hydrométéores en chute dans l’atmosphère), les particules en suspension ou soulevées par le
vent (hydrométéores et lithométéores) ou d’autres phénomènes optiques spécialement désignés
(photométéores) ou des phénomènes électriques (électrométéores). Une description détaillée
de ces phénomènes est donnée dans la publication OMM (1975).
Les phénomènes météorologiques localisés, dont on peut trouver les définitions dans la
publication OMM (1992), constituent une classe à part. Certains phénomènes particuliers,
notamment les tourbillons de poussière et les nuages en entonnoir, sont définis et décrits dans la
section 14.2.3.
Dans les observations météorologiques, le temps est signalé sous deux formes. Le temps présent
est une description des phénomènes météorologiques qui se manifestent au moment de
l’observation. Le temps passé sert à décrire les phénomènes météorologiques importants qui
se sont produits pendant l’heure qui précède l’observation, mais qui ont cessé au moment de
l’observation.
Le présent chapitre décrit aussi les méthodes d’observation d’un élément connexe, à savoir
l’état du sol, c’est-à-dire celui de la surface terrestre résultant des phénomènes climatiques et
météorologiques récents, que l’on signale sous la forme d’une quantité d’humidité ou de la
description de toute couche de particules solides, aqueuses ou non, couvrant la surface normale.
Les observations, réalisées aux stations dotées de personnel, dites du temps présent, du temps
passé et de l’état du sol sont accompagnées de données quantitatives. Ces observations ont été
normalisées suivant des échelles qui permettent à l’observateur de choisir un terme approprié
parmi un grand nombre de descriptions établies en fonction des éléments perçus par les
observateurs humains et présentées dans la publication OMM (2011).
Les observations du temps présent et passé, de même que de l’état du sol, servent
essentiellement à décrire qualitativement des phénomènes météorologiques. Elles sont surtout
nécessaires du fait de l’influence des phénomènes sur les activités humaines et la sécurité des
transports, ainsi que de leur importance pour la compréhension et la prévision des systèmes
météorologiques synoptiques. Plusieurs autres chapitres du présent guide portent sur des sujets
connexes. La mesure quantitative des précipitations est décrite au chapitre 6 de la partie I et
l’observation des nuages au chapitre 15 de la partie I. La partie II traite de sujets particuliers
aux observations aéronautiques et maritimes, aux systèmes automatisés, aux radars et aux
atmosphériques.
Actuellement, les seuls critères d’observation des différents aspects du temps reposent sur
les capacités visuelles et auditives d’un observateur humain qualifié. Toutefois, vu le coût
élevé de l’emploi d’un gros effectif d’observateurs qualifiés, un certain nombre de Services
météorologiques ont de plus en plus recours à des systèmes d’observation automatisés, non pas
simplement pour continuer à obtenir automatiquement des observations de régions reculées
en complément de leur réseau de stations surveillées, mais aussi pour constituer leur réseau
principal d’observation.
Des recherches fondamentales (Bespalov et al., 1983) ont confirmé qu’il était possible de
déterminer les phénomènes météorologiques à partir de l’analyse logique d’un groupe de
variables. Il n’existe actuellement aucun détecteur capable de classifier à lui seul le temps présent;
pour déterminer cette caractéristique on utilise plutôt des données fournies par une variété de
capteurs (visibilité, température, point de rosée, vitesse du vent, et différenciation de la pluie et
de la neige). Les systèmes d’observation automatiques sont capables d’effectuer cette analyse
logique, mais ils diffèrent quant à leur capacité d’observer le phénomène météorologique voulu,
en fonction de leur instrumentation et du degré de complexité de leurs algorithmes. Alors que
1
La recommandation 3 (CSB‑XII) fait état de la nécessité «de transmettre des données quantitatives par opposition à
des paramètres qualitatifs dans les observations du temps présent exécutées par les stations automatiques et ce dans
les codes FM 94 BUFR et FM 95 CREX».
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 491
les systèmes automatisés ne peuvent observer tous les types de phénomènes météorologiques,
ils peuvent observer les plus importants, ce qui fait qu’ils représentent une solution rentable par
rapport à l’observateur humain compétent.
Les observations à enregistrer sous les rubriques «temps présent» et «temps passé» comprennent
les précipitations (pluie, bruine, neige, granules de glace, neige en grains, poudrin de glace et
grêle), les phénomènes obscurcissants et les particules en suspension dans l’atmosphère (brume
sèche, poussière, fumée, brume, brouillard, chasse-neige basse et élevée, tempête de poussière
ou de sable, tourbillon de poussière), les nuages en entonnoir, les grains et les éclairs.
14.2.1 Précipitations
Le caractère des précipitations peut être défini selon l’une des trois formes suivantes: averses,
précipitations intermittentes et précipitations continues. Les averses sont des précipitations
tombant de nuages convectifs distincts. Les observateurs (ou les instruments les remplaçant)
doivent aussi classer les précipitations selon trois catégories d’intensité - faible, modérée et forte -
en fonction de l’intensité même des précipitations ou d’autres facteurs connexes, telle la visibilité.
Le type de précipitations (pluie, bruine, neige, grêle) est le troisième élément important que l’on
observe en ce qui concerne les précipitations. Les observations de pluie ou de bruine à des
températures basses devraient distinguer si les précipitations se congèlent ou non. Par définition,
la pluie et la bruine verglaçantes se transforment en verglas en gelant au contact d’objets solides.
Les précipitations solides peuvent se produire sous forme de poudrin de glace, de neige en
grains, de cristaux de glace en étoile isolés, de grésil et de grêle, dont les descriptions complètes
figurent dans la publication OMM (1975).
Les intervalles de valeurs de l’intensité qui correspondent aux qualificatifs faible, modérée et
forte sont fonction du caractère des précipitations (intermittentes, continues, averses) et de leur
type (pluie, bruine, neige, grêle). Plusieurs réunions mixtes d’équipes d’experts relevant de la
Commission des instruments et des méthodes d’observation et de la Commission des systèmes
de base ont permis de dresser des tables de correspondances généralement reconnues entre
l’interprétation qualitative et subjective d’un observateur et les grandeurs mesurées par un
système d’observation automatique du temps présent. L’annexe du présent chapitre fournit un
exemple de ce type de tables et de correspondances.
2
Le seuil de détection d’intensité de la pluie est égal à 0,02 mm h–1 (voir l’annexe 1.E du chapitre 1 de la partie I).
492 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
algorithmes très poussés pour différencier divers types de précipitations. Il est par exemple
difficile de distinguer la neige mouillée ou fondante de la pluie. Il est présenté dans ce qui suit
des capteurs du type de précipitations.
Il existe différents types de capteurs du temps présent qui mesurent en particulier le type
de précipitations. La diffusion d’un faisceau lumineux par les particules de précipitations est
observée en général suivant un angle fixe. Cela permet de recueillir des informations sur la taille
des particules. Des mesures complémentaires, notamment la teneur en eau des particules, la
vitesse de chute et la température, apportent des informations qui contribuent à la détermination
de la nature des particules. À titre d’exemple, des particules relativement grosses mais de
faible teneur en eau seraient classées comme étant de la neige. Certains capteurs font état de
précipitations non identifiées lorsqu'ils ne peuvent pas en déterminer correctement le type.
Cela se produit principalement en cas de précipitations de faible intensité et lors de l’apparition
et de la cessation du phénomène. Outre le type de précipitations, ces capteurs peuvent aussi
indiquer (en fonction de leur configuration) l’intensité des précipitations, leur durée (avec alors la
possibilité de préciser si elles sont intermittentes) et la visibilité.
D’un usage répandu, ces capteurs donnent en général des résultats acceptables pour les
types de précipitations les plus courants (pluie et neige), le taux de détection variant entre
70 et 90 % (OMM, 1998) suivant la configuration précise du test et l’instrument. D’autres types
de précipitations ne sont pas bien observés, en particulier la pluie et la neige mêlées ainsi que la
grêle. Le seuil des précipitations faibles peut varier.
Disdromètre optique
Les disdromètres optiques servent aussi à déterminer le type de précipitations. Ces instruments
mesurent l’atténuation d’un faisceau lumineux horizontal (dans l’infrarouge) pour détecter les
hydrométéores. Quand une particule passe dans le faisceau lumineux, l’intensité est réduite au
niveau du récepteur. Une corrélation est établie entre l’amplitude de l’atténuation et la taille des
particules, et une autre entre la durée de l’atténuation et la vitesse de chute des particules. On
détermine le type de précipitations en comparant la distribution de la vitesse de chute d’une
série de particules détectées avec les relations connues pour différents types de précipitations
liquides, mixtes et solides.
Ces capteurs fournissent aussi en général des résultats acceptables pour les types de
précipitations les plus courants. Le taux de détection, à comparer à celui obtenu par un
observateur humain, est similaire à celui qu’obtiennent les capteurs de rétrodiffusion (OMM,
2005a). Là encore, la détection de la pluie et la neige mêlées et de la grêle pose des problèmes.
Radar Doppler
On peut aussi utiliser certains radars Doppler pour déterminer le type de précipitations. Le
faisceau émis verticalement par le radar est en partie rétrodiffusé par les hydrométéores en
mouvement. Il est ainsi possible de déterminer la vitesse de chute des particules à partir de l’effet
Doppler attribué au signal rétrodiffusé. Près du sol, il s’agit de vitesses de chute limites dont on
déduit la taille des particules. Pour déterminer le type de précipitations, certains instruments
ont un volume de mesure situé au-dessus du capteur, d’autres mesurent la vitesse de chute à
différentes altitudes au-dessus du capteur. Des mesures complémentaires sont aussi utilisées (la
température en surface, par exemple).
Il existe différents types de radars Doppler utilisés pour détecter le type de précipitations. Ils
sont généralement insensibles aux petites particules, ce qui est le cas de toutes les techniques de
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 493
mesure par radar. Certains types fournissent des résultats comparables aux capteurs mesurant la
diffusion frontale et la rétrodiffusion et aux disdromètres, à savoir des résultats acceptables pour
la pluie et la neige, mais pas pour la pluie et la neige mêlées. La grêle n’est pas observée.
Capteur d’impact
Seules la pluie et la grêle pouvant être détectées, on ne peut considérer ce type d’appareil
comme un véritable capteur du temps présent. Sa capacité de détection de la grêle le rend
cependant utile pour répondre aux besoins de certains usagers, puisque c’est là un point faible
des autres types de capteurs de temps présent.
Capteur acoustique
Le capteur acoustique détecte le son émis par l’impact d’hydrométéores. Une corrélation
est établie entre ce son et le type de précipitations. Ce type de capteur a été mis au point
en complément des capteurs du temps présent par mesure de la diffusion frontale et de la
rétrodiffusion, en particulier pour améliorer la détection de la grêle et des granules de glace.
Les premiers résultats fournis par ce capteur sont prometteurs (Wade, 2003; Loeffler-Mang,
2009).
Autres méthodes
Il est également possible d’utiliser une caméra pour surveiller le type de précipitations. Il faut
alors qu’un observateur ou un opérateur puissent visualiser, à partir d’une installation centrale,
les images transmises par différentes caméras. Cela exige un arrière-plan adapté à l’observation
des précipitations. Cette méthode nécessitant la présence d’un observateur ou d’un opérateur,
on ne peut parler de mesure automatique du temps présent ou passé.
Un capteur spécialement conçu pour détecter la pluie se congelant ou le verglas est utilisé en
exploitation (Starr et van Cauwenberghe, 1991). Il détecte l’accumulation de glace sur une
sonde. La sonde vibre à une fréquence proportionnelle à sa masse. Quand la glace colle à la
sonde, la masse de cette dernière varie et la fréquence décroît. Le capteur comprend un corps
chauffant pour dégeler la sonde à la demande. Ce capteur s’est révélé efficace pour identifier la
neige mouillée.
Il est possible d’utiliser des capteurs de givrage pour détecter les précipitations se congelant. Il
existe pour cela diverses méthodes. L’une d’entre elles consiste à mesurer la masse de la glace
s’accumulant sur une perche. Une autre fait appel à un capteur de vibration à ultrasons dont la
fréquence varie quand il est couvert de glace. Des essais importants se sont déroulés récemment
(Fikke et al., 2007). Les résultats obtenus grâce aux capteurs de temps présent s’améliorent quand
il est tenu compte des données fournies par des capteurs de givrage, en particulier en ce qui
concerne la pluie se congelant (Sheppard et Joe, 2000). Le système automatique d’observations
météorologiques utilise cette technique.
Les relevés de temps présent comprennent une indication de l’intensité des précipitations et
donc du caractère des précipitations (averses, précipitations intermittentes ou précipitations
continues). Dans de nombreux cas, ces paramètres sont mesurés par un capteur qui détecte
également le type de précipitations, mais il est également possible d’avoir recours à un capteur
494 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Ce type de capteur est décrit dans la section 14.2.1.2. En combinant le spectre granulométrique,
le nombre des particules et le type de précipitations, il est possible de calculer l’intensité des
précipitations. L’incertitude associée à ce calcul est en général plus grande que celle associée à
des méthodes plus classiques (pluviomètres à balance, pluviomètres à augets basculeurs, etc.).
En ce qui concerne l’intensité des précipitations, l’étalonnage des instruments se révèle aussi
problématique. Quand il s’agit d’obtenir une indication relativement grossière de l’intensité
(faible, forte, etc.), il est possible d’utiliser de tels capteurs. Les fabricants poursuivent leurs
recherches pour affiner ces résultats.
Disdromètre optique
Ce type de capteur est décrit dans la section 14.2.1.2. En combinant le spectre granulométrique,
le nombre des particules et le type de précipitations, il est possible de calculer l’intensité des
précipitations. Des travaux sont engagés en vue d'améliorer les résultats (voir par exemple
OMM, 2006b).
Radar Doppler
Ce type de capteur est décrit dans la section 14.2.1.2. En combinant le spectre granulométrique,
le nombre des particules et le type de précipitations, il est possible de calculer l’intensité des
précipitations. Les résultats obtenus pour l’intensité des précipitations montrent une assez bonne
corrélation (ρ = 0,9) avec les pluviomètres traditionnels quand la mesure porte sur un intervalle
de temps de 30 min (Peters et al., 2002).
Pluviomètre
Pour déterminer les caractéristiques du temps présent et les quantités de précipitations, les
systèmes d’observation utilisent des algorithmes qu’alimentent les données fournies par divers
capteurs. Cette méthode multicapteur place une contrainte sur les techniques en jeu. Les
observations utiles sont en général la mesure des précipitations, de la visibilité, de la température
de l’air, du point de rosée et du plafond. Les algorithmes se caractérisent par des fonctions de
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 495
Dans les messages qui prennent en compte les conditions atmosphériques de l’heure qui
précède l’observation, il faudrait distinguer la brume sèche de la brume ou du brouillard.
Avec la brume sèche, l’air est relativement sec, alors qu’avec la brume ou le brouillard, il y a
généralement évidence d’une forte humidité sous forme de gouttelettes d’eau ou de givre sur
l’herbe, les feuilles, etc. Si la station est équipée d’instruments de mesure, on ne peut guère
se tromper en supposant que l’obscurcissement est dû à la brume sèche lorsque l’humidité
relative est inférieure à un certain taux (80 % par exemple) et que la visibilité reste supérieure à
certaines valeurs seuils (1 km horizontalement et 2 km verticalement, par exemple). La brume se
manifeste à des taux d’humidité élevés, avec une visibilité de 1 km ou plus. Quand un message
d’observation synoptique comporte une indication de brouillard, il s’agit de brouillard ou
de brouillard glacé, la visibilité horizontale en surface étant inférieure à 1 km. L’indication de
brouillard dans les codes de temps présent et de temps passé devrait être interprétée comme
telle. Par ailleurs, dans les résumés climatologiques, toute indication d’une visibilité inférieure à
1 km est associée à du brouillard.
Le givre est causé par la solidification en glace de gouttelettes d’eau de brouillard au contact
d’objets solides dont la température est inférieure au point de congélation. Les codes du temps
présent et du temps passé ne font pas la distinction entre les différents types de givre.
La chasse-neige basse ou la chasse-neige élevée est de la neige soulevée par le vent après être
tombée. Dans le code du temps présent, il est établi une distinction entre la chasse-neige basse
et la chasse-neige élevée, la première s’appliquant à de la neige qui ne s’élève pas plus haut que
le niveau de l’œil de l’observateur.
La publication OMM (1975) devrait être à la disposition de l’observateur afin de l’aider dans ses
observations.
Le traitement complexe des valeurs mesurées utiles en tant que prédicteurs peut servir de
méthode d’identification des caractéristiques des phénomènes obscurcissants et des particules
en suspension. Cette méthode nécessite la recherche de grandeurs météorologiques associées à
la formation, l’intensification et la disparition du phénomène, de même que la détermination des
conditions seuils. Le problème de l’identification du brouillard, de la brume, de la brume sèche,
des tempêtes de neige et des tempêtes de poussière a été étudié (Goskomgidromet, 1984 et
OMM, 1985). La portée visuelle météorologique est l’élément indicateur le plus important. Parmi
les variables restantes, la vitesse du vent, l’humidité, la température et le point de rosée se sont
révélés des critères importants d’identification.
Comme cela est décrit dans le chapitre 9 de la partie I, consacré à la mesure de la visibilité, et en
particulier dans la section 9.3, il est possible d’utiliser des instruments de mesure de la visibilité
496 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
pour déterminer la portée visuelle météorologique. Il est à noter que s’ils servent à déterminer
la présence de brouillard, de brume ou de brume sèche, ces instruments peuvent être limités en
portée à quelques kilomètres. Voici trois types d’instruments servant à ces fins.
Transmissomètre
Les transmissomètres mesurent l’affaiblissement d’un faisceau lumineux sur une distance
connue. La source lumineuse est en général une lampe à décharge et la distance parcourue par le
faisceau se situe entre 10 et 200 m. En déterminant le coefficient d’atténuation de l’atmosphère,
l’instrument donne une mesure de la visibilité. Afin d’élargir le spectre de mesure, il est possible
d’utiliser deux récepteurs à des distances différentes (transmissomètres à ligne de base double).
Les transmissomètres se prêtent bien à la mesure de la visibilité et sont très répandus, en
particulier sur les aérodromes; leur exactitude diminue avec la visibilité (pour plus de détails,
voir le chapitre 9 de la partie I). Ils nécessitent une installation et une maintenance relativement
onéreuses, ainsi qu’un nettoyage régulier. Certains peuvent conserver beaucoup plus longtemps
leur exactitude opérationnelle grâce à un étalonnage automatique et à la compensation
automatique des effets de la pollution.
Ce capteur est décrit dans la section 14.2.1.2. Outre le type de précipitations, il permet aussi
de mesurer la visibilité. Il est établi une relation entre le coefficient de diffusion et l’atténuation
optique, qui est déterminée empiriquement par étalonnage en comparaison du signal d’un
transmissomètre. Les diffusomètres à diffusion frontale se prêtent bien également à la mesure
de la visibilité et sont de plus en plus répandus. Ils peuvent généralement être utilisés pour une
plus grande distance de visibilité que dans le cas des transmissomètres. Leur étalonnage n’est
pas une mince affaire et nécessite beaucoup de soin, ce qui est un inconvénient. L’installation et
la maintenance sont relativement peu onéreuses, et l’instrument ne nécessite pas un nettoyage
aussi fréquent que les transmissomètres. La fréquence de nettoyage peut même être réduite par
la compensation automatique des effets optiques de la pollution.
Lidar
Des lidars relativement compacts peuvent servir à mesurer la visibilité en vue de déterminer
la présence de brouillard. Une diode laser émet une impulsion lumineuse et le signal retour,
réfléchi par les particules constituant le brouillard ou la brume sèche, est mesuré par l’optique
de réception. La visibilité est calculée à partir de l’intensité de la lumière réfléchie et de la durée
de parcours. Le lidar mesure un spectre de visibilité relativement restreint, mais cela suffit pour
déterminer la présence de brouillard ou de brume sèche notamment.
Trombe (terrestre ou marine). Ce phénomène est un tourbillon de vent souvent violent, révélé
par la présence d’une colonne nuageuse ou d’un nuage en cône inversé (nuage en entonnoir),
émergeant de la base d’un cumulonimbus. Le nuage peut descendre jusqu’à atteindre la surface
terrestre, auquel cas l’eau, la poussière, le sable ou les débris peuvent être soulevés et produire
un «buisson» à la périphérie de l’entonnoir de trombe. Son diamètre peut varier de quelques
mètres à plusieurs centaines de mètres. Un nuage en entonnoir caractérisé est appelé trombe
terrestre ou tornade au-dessus du sol et trombe marine au-dessus de l’eau, lorsque la colonne
d’air tourbillonnante atteint la surface. Les vitesses de vent associées aux trombes terrestres les
plus violentes peuvent atteindre 150 m s–1.
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 497
Tourbillons de poussière ou de sable. Il s’agit d’une colonne d’air en rotation rapide généralement
au-dessus d’une surface sèche, poussiéreuse ou sableuse, transportant de la poussière et d’autres
débris légers provenant du sol. Les tourbillons de poussière ou de sable ont quelques mètres
de diamètre. En principe, leur hauteur varie de 60 m à 90 m. Dans les régions désertiques très
chaudes, les tourbillons de poussière ou de sable caractérisés peuvent atteindre 600 m.
Grain. Un vent violent qui s’élève soudainement, dure quelques minutes, puis disparaît s’appelle
un grain. Les grains sont fréquemment associés au passage des fronts froids. Dans de telles
circonstances, ils se produisent en ligne et sont accompagnés le plus souvent par une baisse
abrupte de la température, un changement dextrogyre du vent (dans l’hémisphère Nord) ou
lévogyre (dans l’hémisphère Sud), une augmentation de l’humidité relative et un nuage en forme
de rouleau à axe horizontal (grain en ligne).
La définition d’un orage (OMM, 1992) est un exemple de description exclusivement fondée sur
les perceptions d’un observateur humain. Le phénomène devrait être considéré comme un orage
quand on entend le tonnerre (même si on ne voit pas d’éclair).
La présence d’un nuage en entonnoir ou d’une tornade peut souvent être déterminée avec un
radar météorologique (voir le chapitre 7 de la partie II). Les radars météorologiques Doppler
modernes sont devenus très efficaces pour reconnaître les mésocyclones. Ils fournissent
rapidement davantage de détails sur ce phénomène météorologique violent que ne le ferait
l’observation visuelle seule.
Les grains peuvent être déterminés à partir de la succession discontinue de valeurs mesurées de
la vitesse du vent. Si les données d’un anémomètre sont combinées à celles d’une girouette, d’un
thermomètre, et d’un hygromètre, l’identification d’un grain apparaît alors possible.
Les orages sont principalement détectés à l’aide de compteurs d’éclairs. D’après les instructions à
l’intention des observateurs émanant de différents Services, l’intensité d’un orage (faible, modéré
ou fort) est établie en fonction du nombre d’éclairs par unité de temps auquel on peut combiner
l’intensité des précipitations ou la vitesse du vent (voir le chapitre 6 de la partie II).
On utilise les caractéristiques de l’état du ciel pour décrire l’évolution progressive de la nébulosité
totale et du plafond ainsi que du type de nuages au cours d’un intervalle de temps donné.
Par état du sol, on entend les caractéristiques de la surface terrestre résultant de phénomènes
météorologiques récents, qu’on signale sous la forme d’une quantité d’humidité ou de la
description de toute couche de particules solides, aqueuses ou non, couvrant la surface
naturelle. L’observation de l’état du sol (lettres symboliques E et E´) devrait être conforme aux
spécifications apparaissant dans la publication OMM (2011).
Le relevé de l’état du sol fait partie des données transmises sur le temps présent, dont
l’observation était exécutée exclusivement par des observateurs jusqu’à récemment. La mesure
automatique de l’état du sol est relativement nouvelle (voir, par exemple, Stacheder et al., 2008)
et peu utilisée. Certains organismes météorologiques s'attachent à normaliser les surfaces à
observer.
Les recherches ont montré qu’il était possible d’établir une différence entre les principaux types
d’état du sol en mettant à profit des phénomènes de réflexion et de diffusion (sec, humide,
mouillé, couvert de neige, de givre ou de glace) (Gaumet et al., 1991). Voici une brève description
des méthodes employées.
Diffusomètre. Il s’agit de capteurs optiques reposant sur l’analyse des phénomènes de diffusion
et de réflexion de la lumière par une surface plane. L’emploi de différentes sources de lumière
est possible. Il peut s’agir d’un faisceau de lumière blanche dont la réflexion par une plaque de
référence varie en fonction de l’état de la surface de cette plaque. D’autres capteurs, notamment
pour les besoins des réseaux routiers, analysent la réflexion d’une lumière infrarouge par le
revêtement d’une route. Dans ce cas, c’est la longueur d’onde de la lumière réfléchie qui est
fonction de l’état de la surface. Tous les capteurs ne sont pas adaptés pour répondre aux besoins
météorologiques, notamment quand la surface réfléchissante est différente d’une surface
naturelle. Ces capteurs sont en cours d’amélioration.
Capteur capacitif. Un nouveau capteur capacitif est actuellement mis au point et subit des essais.
Un tapis à trame formé de bandes conductrices est placé sur une surface (naturelle). Cela
constitue en fait un condensateur, le sol naturel agissant comme un diélectrique. La constante
diélectrique du sol varie énormément en fonction de l’humidité. La capacitance dépendant de
l’humidité de la surface considérée, il est possible de déterminer l’état du sol en mesurant les
valeurs absolues et la phase des signaux émis sur deux fréquences. Selon les premiers résultats
des essais réalisés, ce capteur, en cours de mise au point, paraît prometteur.
Ensemble de capteurs. Il s’agit d’un ensemble de capteurs, conçu en particulier pour les besoins
de la mesure des conditions routières, qui permet de déterminer l’état d’une surface. À titre
d’exemple, il est possible de déterminer la couverture de surface par détection optique, de
déterminer la présence de substances chimiques et de mesurer la température de surface et la
température du sol par mesure de la conductivité, etc. Toutes ces mesures, combinées avec des
données atmosphériques, peuvent permettre d’établir les conditions routières. Il y a lieu de noter
cependant que l’état du sol est défini comme étant l’état de la surface naturelle à un moment
donné et que la méthode dont il est question ici ne détermine pas exactement l’état du sol, mais
plutôt une propriété en relation avec celui-ci.
Caméras (+ observateur). Il est également possible d’utiliser des caméras pour déterminer l’état du
sol. Celles-ci sont alors pointées vers différentes surfaces et il appartient à un observateur ou à un
opérateur de déterminer l’état du sol. Comme on ne peut parler de mesure automatique dans ce
cas, cette méthode n’est pas étudiée ici.
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 499
Il convient de décrire en détail les aurores polaires exceptionnelles. On peut utiliser des filtres
lumineux pour améliorer la qualité des observations, ainsi que des théodolites ou des clinomètres
(alidades) pour accroître l’exactitude des mesures angulaires.
Il appartient aux observateurs de noter soigneusement tout phénomène optique qui se produit.
Dans la mesure du possible, la description écrite du phénomène devrait être accompagnée
de dessins et de photographies. Une description complète de ces phénomènes figure dans la
publication OMM (1975); certains manuels de l’observateur (par exemple: United Kingdom
Meteorological Office, 1982) contiennent des instructions concises pour l’observation des
phénomènes les plus courants.
Pour des mesures précises, le théodolite est un instrument très pratique, mais, lorsqu’on ne
dispose pas de cet instrument, on peut se servir d’un bâton gradué tenu à bout de bras. La
position d’une apparition telle qu’un faux soleil peut être déterminée en la notant par rapport
à des points de repère fixes au sol. Le diamètre d’une couronne peut être estimé en prenant
le diamètre angulaire du soleil ou de la lune comme étant approximativement égal à un
demi‑degré.
ANNEXE. CRITÈRES D’INTENSITÉ DES PRÉCIPITATIONS FAIBLES,
MODÉRÉES ET FORTES1
Mêmes critères que pour la neige (le rapport quantitatif entre la pluie et la neige ne faisant
l’objet d’aucune mesure, un choix facile s’impose).
Précipitations se congelant: Mêmes critères que pour les précipitations sans congélation.
Modérée: Flocons de neige plus gros et plus nombreux, réduisant en général la visibilité à entre
400 et 1 000 m.
Forte: Flocons de neige nombreux et de toutes tailles, réduisant en général la visibilité à moins de
400 m.
Les systèmes automatiques devraient signaler les averses et les précipitations intermittentes. Le
qualificatif «intermittent» peut se définir comme suit: un arrêt des précipitations inférieur ou égal
1
Critères recommandés par les participants à la réunion d’experts OMM sur l’automatisation des observations
visuelles et subjectives (Trappes/Paris, France, 14–16 mai 1997) et par le Groupe de travail des mesures en surface
(Genève, Suisse, 27–31 août 2001).
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 501
à 10 min entre deux périodes de précipitations, c’est-à-dire qu’en cas d’arrêt des précipitations
pendant 10 min sur la période de calcul de la moyenne mobile sur 10 min des précipitations au
cours de l’heure écoulée, il convient de signaler des précipitations intermittentes.
Il est fort possible de déterminer le phénomène de temps présent à signaler sur une période
d’observation de 3 min. Il convient pour cela de signaler, pour le temps présent, la moyenne
mobile sur 3 min la plus élevée observée au cours de la période d’observation de 10 min.
RÉFÉRENCES ET AUTRES LECTURES
Bespalov, S.M. et al., 1983: Osnovnyje voprosy razrabotki setevoj avtomaticeskoj gidrometeorologiceskoj stancii
[Aspects principaux de la conception d’un réseau de stations hydrométéorologiques
automatiques]. Trudy GGO, Gidrometeoizdat, Léningrad, 473:3–12.
Bloemink, H.I., 2004: Precipitation type detection, Present Weather Sensor: Final Report. KNMI TR259, De Bilt.
De Haij, M.J., 2007: Automated discrimination of precipitation type using the FD12P present weather sensor:
evaluation and opportunities. KNMI TR297, De Bilt.
Fikke, S., G. Ronsten, A. Heimo, S. Kunz, M. Ostrozlik, P.E. Persson, J. Sabata, B. Wareing, B. Wichura,
J. Chum, T. Laakso, K. Säntti et L. Makkonen, 2007: COST-727: Atmospheric Icing on Structures;
Measurements and data collection on icing: State of the Art, MétéoSuisse, N° 75.
Gaumet, J.L., P. Salomon et R. Paillisse, 1991: Automatic observations of the state of the soil for
meteorological applications. Preprints of the Seventh Symposium on Meteorological Observations
and Instrumentation: Special Sessions on Laser Atmospheric Studies, American Meteorological
Society (La Nouvelle-Orléans, 14–18 janvier 1991), p. J191 à J193.
Goskomgidromet, 1984: Opredelenije atmosfernych javlenij po dannym avtomaticeskich stancij, soveqanije
gruppy ekspertov GMS/MS socialisticeskich stran po teme 9.1. KR GMS/MS [Identification de
phénomènes atmosphériques à partir de données de stations météorologiques automatiques,
réunion du groupe de pays socialistes GMS/MS sur le thème 9.1], Obninsk, 24–28 août 1984,
Moscou.
International Conference on Experiences with Automatic Weather Stations, 1999: Second International
Conference on Experiences with Automatic Weather Stations (Vienne, 27–29 septembre).
Österreichische Beiträge zu Meteorologie und Geophysik, No. 20 (sur CD-ROM uniquement),
ZAMG, Vienne, Autriche.
Loeffler-Mang, M., 2009: HARE – A New Intelligent Hail Recorder for Networks and Field Campaigns. Fifth
European Conference on Severe Storms, 12–16 octobre, Landshut, Allemagne (consultable à
l'adresse http://www.essl.org/ECSS/2009/preprints/P 09- 06-loefflermang.pdf).
National Oceanic and Atmospheric Administration (NOAA), 1988: Federal Standard Algorithms for Automated
Weather Observing Systems Used for Aviation Purposes. Office of the Federal Coordinator for
Meteorological Services and Supporting Research, United States Department of Commerce,
FCM-S5-1988, Washington.
Organisation météorologique mondiale, 1975: Atlas international des nuages: Manuel de l’observation des
nuages et des autres météores (OMM-N° 407), Volume I, Genève.
———, 1985: Algorithms for automatic coding of the present and past weather by unmanned
meteorological stations (M. Mezösi, A. Simon, P. Hanák et O. Szenn). Papers Presented at the
Third WMO Technical Conference on Instruments and Methods of Observation (TECIMO-III) (Ottawa,
8–12 juillet 1985), Instruments and Observing Methods Report No. 22 (WMO/TD-No. 50),
Genève.
———, 1992: Vocabulaire météorologique international (OMM‑N° 182), Genève.
———, 1994: A comparison of two present weather systems with human observations (J.P. van der Meulen).
Papers Presented at the WMO Technical Conference on Instruments and Methods of Observation
(TECO-94). Instruments and Observing Methods Report No. 57 (WMO/TD-No. 588), Genève.
———, 1998: WMO Intercomparison of Present Weather Sensors/Systems: Final Report (Canada et France,
1993–1995) (M. Leroy, C. Bellevaux et J.P. Jacob). Instruments and Observing Methods Report
No. 73 (WMO/TD-No. 887), Genève.
———, 2002: Improvements to automated present weather reporting in the Met Office (S.G. McRobbie,
M.J. Molyneux et P.D. Shearn). Papers Presented at the WMO Technical Conference on
Meteorological and Environmental Instruments and Methods of Observation (TECO-2002).
Instruments and Observing Methods Report No. 75 (WMO/TD-No. 1123), Genève.
———, 2005a: Precipitation type from the Thies disdrometer (H.I. Bloemink et E. Lanzinger). Paper presented
at the WMO Technical Conference on Meteorological and Environmental Instruments and Methods of
Observation (TECO-2005). Instruments and Observing Methods Report No. 82
(WMO/TD‑No. 1265), Genève.
———, 2005b: Piezoelectric precipitation sensor from Vaisala (A. Salmi et J. Ikonen). Paper presented at the
WMO Technical Conference on Meteorological and Environmental Instruments and Methods of
Observation (TECO-2005). Instruments and Observing Methods Report No. 82
(WMO/TD-No. 1265), Genève.
CHAPITRE 14. OBSERVATION DU TEMPS PRÉSENT ET PASSÉ ET DE L’ÉTAT DU SOL 503
———, 2006a: WMO Laboratory Intercomparison of Rainfall Intensity Gauges (France, Italie, Pays-Bas,
2004‑2005) (L.G. Lanza, M. Leroy, C. Alexandropoulos, L. Stagi et W. Wauben). Instruments
and Observing Methods Report No. 84 (WMO/TD-No. 1304), Genève.
———, 2006b: Rainfall amount and intensity measured by the Thies laser precipitation monitor
(E. Lanzinger, M. Theel et H. Windolph). Paper presented at the WMO Technical Conference on
Meteorological and Environmental Instruments and Methods of Observation (TECO‑2006).
Instruments and Observing Methods Report No. 94 (WMO/TD‑No. 1354), Genève.
———, 2008: Results from UK Met Office investigations into new technology present weather sensors
(D. Lyth). Paper presented at the WMO Technical Conference on Meteorological and Environmental
Instruments and Methods of Observation (TECO-2008). Instruments and Observing Methods
Report No. 96 (WMO/TD-No. 1462), Genève.
———, 2009: WMO Field Intercomparison of Rainfall Intensity Gauges (Italie, 2007–2009) (E. Vuerich,
C. Monesi, L.G. Lanza, L. Stagi et E. Lanzinger). Instruments and Observing Methods Report
No. 99 (WMO/TD-No. 1504), Genève.
———, 2010: Investigations into the improvement of automated precipitation type observations at KNMI
(M. de Haij et W. Wauben). Paper presented at the WMO Technical Conference on Meteorological
and Environmental Instruments and Methods of Observation (TECO-2010). Instruments and
Observing Methods Report No. 104 (WMO/TD-No. 1546), Genève.
———, 2011: Manuel des codes (OMM-N° 306), Volume I, Genève.
Persin, S.M., 1987: Izmerrenije vysoty niznej granicy oblakov i charakteristika oblacnosti kak zadaca
paspoznavanija obrazov [Mesure du plafond nuageux et identification de la nébulosité]. Trudy
GGO, Gidrometeoizdat, Léningrad, 512:49–91.
Peters, G., B. Fischer et T. Andersson, 2002: Rain observations with a vertically looking Micro Rain Radar
(MRR). Boreal Environment Research, 7:353–362.
Sheppard, B.E. et P.I. Joe, 2000: Automated precipitation detection and typing in winter: a two-year study.
Journal of Atmospheric and Oceanic Technology, 17(11):1493–1507.
Stacheder, M., F. Koeniger, R. Schuhmann, A. Brandelik, G. Schmitt, W. Sommer et R. Fiel, 2008: A new
sensor for the automatic detection of the state of the ground. Near Surface Geophysics,
6(1):67–70.
Starr, K.M. et R. van Cauwenberghe, 1991: The development of a freezing rain sensor for automated surface
observing systems. Preprints of the Seventh Symposium on Meteorological Observations and
Instrumentation: Special Sessions on Laser Atmospheric Studies, American Meteorological Society
(La Nouvelle Orléans, 13–18 janvier 1991), p. 338 à 343.
United Kingdom Meteorological Office, 1982: Observer’s Handbook. Her Majesty’s Stationary Office,
Londres.
Van der Meulen, J.P., 2003: Present Weather – Science: Exploratory Actions on Automatic Present Weather
Observations. Final Report, E-PWS-SCI, KNMI, De Bilt, Pays-Bas, EUMETNET (consultable à
l’adresse http://projects.knmi.nl/geoss/eumetnet/E-PWS-Sci/report/PWS-SCI_final_report.
pdf).
Wade, C.G., 2003: Detecting Ice Pellets, Snow Pellets and Hail on ASOS using an Acoustic Sensor. Twelfth
AMS Symposium on Meteorological Observations and Instrumentation, Long Beach, Californie,
États-Unis d’Amérique, 8–13 février 2003.
Wauben, W., 2002: Automation of visual observations at KNMI; (I) Comparison of present weather. Papers
presented at the Symposium on Observations, Data Assimilation, and Probabilistic Prediction,
Orlando, Floride, 13–17 janvier 2002, American Meteorological Society.
TABLE DES MATIÈRES DU CHAPITRE
Page
15.1 GÉNÉRALITÉS
Observer les nuages et procéder à l’estimation ou à la mesure de leur hauteur (la distance entre
leur base et la surface terrestre) est d’une grande utilité, en particulier dans les domaines de
l’aéronautique et de la météorologie. Le présent chapitre expose les méthodes d’observation
et de mesure les plus courantes. De précieuses informations complémentaires peuvent être
trouvées dans les documents OMM (1975, 1987), qui contiennent des descriptions détaillées
des principaux types de nuages et des illustrations destinées à en faciliter l’identification. Des
informations sur les pratiques propres à la météorologie aéronautique sont données dans le
document OMM (2014).
15.1.1 Définitions
Nuage. Amas de minuscules gouttelettes d’eau, de cristaux de glace ou d’un mélange des
deux, dont la base se situe au‑dessus de la surface terrestre et qui est perceptible depuis le lieu
d’observation. Le diamètre limite des particules liquides est de l’ordre de 200 µm; les gouttes de
taille plus importante constituent de la bruine ou de la pluie.
À l’exception de quelques rares types de nuages (notamment les nuages nacrés ou nocturnes
lumineux) et des cirrus, qui apparaissent parfois dans la basse stratosphère, les nuages ne se
forment que dans la troposphère, principalement sous l’effet de la condensation de la vapeur
d’eau autour de noyaux de condensation de l’atmosphère. Les nuages se forment lors de
mouvements verticaux de l’air, entraînés par le phénomène de convection, des mouvements
ascendants imposés par le relief ou des mouvements verticaux de grande ampleur associés
à des dépressions ou des fronts. Lorsque les gradients verticaux et les conditions d’humidité
leur sont favorables, ils peuvent aussi naître de turbulences à basse altitude ou d’autres causes
mineures. Des activités humaines qui augmentent le nombre de noyaux de condensation dans
l’atmosphère, telles que l’aéronautique et l’industrie, peuvent aussi provoquer la formation de
nuages.
À des températures inférieures à 0 °C, les particules des nuages sont souvent composées
entièrement de gouttelettes d’eau surfondue, dont la température peut atteindre environ
–10 °C, dans le cas des nuages stratiformes, et –25 °C, dans celui des nuages convectifs. Aux
températures comprises entre ces limites très approximatives et environ –40 °C, de nombreux
nuages sont de nature mixte, les particules de glace prédominant aux basses températures.
Nébulosité. Fraction du ciel considérée comme couverte par des nuages d’un certain type
(nébulosité partielle) ou par des nuages de tous types. Dans les deux cas, l’unité de mesure est
l’octa (un huitième de la voûte céleste) et l’on définit la nébulosité à l’aide d’une échelle en se
référant essentiellement à l’octa le plus proche, sauf que l’on désigne, respectivement, par les
chiffres 0 et 8 un ciel totalement clair et un ciel totalement couvert, en procédant aux ajustements
correspondants pour les valeurs proches des extrémités de l’échelle.
Base des nuages. Zone la plus basse dans laquelle l’obscurcissement correspondant à la surface de
transition entre un air clair ou une brume sèche et des gouttelettes d’eau ou des cristaux de glace
modifie considérablement le profil du coefficient d’atténuation entraîné par la rétrodiffusion.
Dans l’air sous le nuage, les particules responsables de l’obscurcissement manifestent une
certaine sélectivité spectrale; dans le nuage, il n’y a quasiment aucune sélectivité, la différence
étant due à la taille des gouttelettes. La hauteur de la base des nuages est définie comme la
distance verticale au‑dessus du niveau du sol. Pour une station météorologique aéronautique, le
niveau du sol (surface) est défini comme l’altitude officielle de l’aérodrome.
506 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Type de nuages (classification). Plusieurs méthodes de classification des nuages sont utilisées.
a) L’OMM (OMM, 1975) les répartit en genres selon dix formes caractéristiques principales,
qui sont elles‑mêmes subdivisées selon les critères suivants:
iv) Le développement d’un nuage d’un nouveau genre à partir d’un nuage‑origine,
indiqué par l’ajout du suffixe «genitus» aux noms du nouveau nuage et du nuage
d’origine, dans cet ordre, si une portion seulement du nuage d’origine est touchée par
la transformation (par exemple stratocumulus cumulogenitus), et du suffixe «mutatus»
si la totalité ou une partie importante du nuage d’origine est touchée (par exemple
stratus stratocumulomutatus);
b) Une deuxième classification repose sur le niveau (étage) – supérieur, moyen et inférieur –
auquel les divers genres de nuages se situent à l’ordinaire. Dans les régions tempérées,
les limites approximatives sont les suivantes: de 6 à 12 km (20 000 à 40 000 pieds) pour
l’étage supérieur, du sol à 6 km (0 à 20 000 pieds) pour l’étage moyen, et du sol à 1,5 km
(0 à 5 000 pieds) pour l’étage inférieur. Les nuages de l’étage supérieur sont les cirrus,
les cirrocumulus et les cirrostratus; les nuages de l’étage moyen sont les altocumulus,
les altostratus (qui s’étendent souvent sur l’étage supérieur) et les nimbostratus (qui
s’étendent en général à la fois plus haut et plus bas); les nuages de l’étage inférieur sont les
stratocumulus, les stratus, les cumulus et les cumulonimbus (les deux derniers atteignant
fréquemment aussi les niveaux moyen et supérieur).
À des fins synoptiques, on classe les nuages en neuf catégories à l’intérieur de ces trois
niveaux, où ils sont désignés respectivement par les symboles CH, CM et CL . L’objectif est de
caractériser l’état du ciel plutôt que d’indiquer les différents types de nuages;
i) Sur les processus physiques de formation des nuages; on distingue, notamment les
nuages en monceaux (ou nuages en amas) et les nuages en nappe;
ii) Sur la composition des nuages (nuages glacés, nuages liquides et nuages mixtes).
Dans la publication OMM (1987), des photographies illustrent la plupart de ces formes
nuageuses.
Visibilité verticale. Distance maximale à laquelle un objet peut être vu et identifié sur la verticale,
vers le haut ou vers le bas. La visibilité verticale peut être calculée à partir du profil d’atténuation
mesuré, σ(h), comme indiqué dans la publication OMM (2010). La relation est cependant moins
simple que pour la visibilité horizontale, parce que σ peut être considéré comme une valeur
qui n’est pas constante. Néanmoins, la règle voulant que I(h = VV)/II0 = 5 % peut s’appliquer. À
partir de cette hypothèse, la visibilité verticale peut être exprimée en fonction de σ(h) dans une
équation où VV est représenté intrinsèquement, soit:
h =VV
∫ σ ( h ) dh = − ln (5 % ) ≈ 3 (15.1)
h =0
L’unité de mesure de la hauteur des nuages est le mètre ou, pour certaines applications
aéronautiques, le pied. L’unité de mesure de la nébulosité est l’octa, un octa correspondant à un
huitième de la voûte céleste recouverte par des nuages dans la perspective de l’observateur.
Les éléments qu’il est nécessaire d’observer à des fins météorologiques sont la nébulosité, le type
de nuages et la hauteur de leur base. Pour les observations synoptiques, la publication OMM
(2011) indique les règles à suivre en vue de décrire au mieux les conditions nuageuses depuis
la surface jusqu’aux niveaux élevés. De l’espace, on observe la nébulosité et la température
des amas nuageux (dont on déduit la hauteur du sommet des nuages); on peut aussi utiliser
des mesures faites depuis l’espace pour suivre l’évolution des nuages et des conditions
météorologiques.
Les exigences en matière d’exactitude sont précisées dans l’annexe 1.E du chapitre 1 de la
partie I.
15.1.4.1 Nébulosité
Par le passé, la nébulosité était mesurée par observation visuelle. Aujourd’hui, de l’avis général,
les méthodes instrumentales sont satisfaisantes et elles sont pleinement utilisées dans de
nombreuses applications pour déterminer la nébulosité et la hauteur des nuages. On détermine
la nébulosité dans chaque couche identifiée et la nébulosité totale dans la perspective du poste
d’observation.
La nébulosité totale, ou couverture nuageuse totale, est la fraction de la voûte céleste cachée par
l’ensemble des nuages visibles. Son évaluation consiste donc à estimer quelle portion de la zone
apparente du ciel est couverte de nuages.
La nébulosité partielle est la fraction de la voûte céleste cachée par un type ou une couche de
nuage, abstraction faite des autres. La somme des nébulosités partielles peut dépasser la valeur
de la nébulosité totale et être supérieure à huit octas.
L’échelle à utiliser pour chiffrer la nébulosité figure dans la table de code 2700 du document
OMM (2011), reproduite ci‑après.
Il est possible de mesurer la hauteur de la base des nuages à l’aide d’instruments. Cela se fait
couramment aujourd’hui là où cette mesure est cruciale pour des activités opérationnelles.
Toutefois, l’estimation de la hauteur de la base des nuages par un observateur humain reste une
pratique courante.
Plusieurs types d’instruments d’un usage régulier sont décrits dans le présent chapitre. En 1986,
l’OMM a coordonné une comparaison internationale entre certains d’entre eux. Le compte
rendu qui en a été fait (OMM, 1988) fournit des indications utiles sur les performances des
équipements et la précision de leurs mesures.
L’emploi d’instruments pour l’estimation de la hauteur de la base des nuages est important
et courant pour les services de météorologie aéronautique. Cette question est traitée dans le
chapitre 2 de la partie II.
À l’heure actuelle, la méthode d’observation de la plupart des types de nuages est visuelle. Des
illustrations et des instructions de chiffrement figurent à cet effet dans de nombreux ouvrages,
publiés notamment par l’OMM (OMM, 1975, 1987) ou par des Services météorologiques
nationaux.
L’endroit d’où se font les estimations devrait offrir la vue la plus étendue possible du ciel, sans
qu’aucune lumière permanente n’y perturbe les observations nocturnes. Pour réaliser ces
dernières, il est capital que l’observateur laisse à son œil le temps de s’accommoder à l’obscurité.
Dans certaines circonstances, l’estimation de la nébulosité peut bien sûr être très difficile, en
particulier la nuit. Avoir déjà observé la formation des nuages et posséder des connaissances
générales de leur structure permet à l’observateur d’obtenir les meilleurs résultats possibles. Il
peut également être utile de consulter des rapports d’aéronefs.
L’observateur devrait accorder un poids égal aux zones situées à son aplomb et à celles plus
proches de son horizon. Lorsque la répartition des nuages est très irrégulière, il est conseillé
d’observer le ciel en se fondant sur des quadrants distincts, dont les diamètres se coupent
perpendiculairement, puis d’additionner les estimations faites pour les divers quadrants afin
d’obtenir la valeur totale pour l’ensemble du ciel.
Le chiffre de code 9 signifie soit que du brouillard, une chute de neige ou un autre facteur rend
le ciel invisible, soit que l’obscurité ou une lumière parasite empêche l’estimation. Les nuits sans
lune, il reste en général possible d’estimer la nébulosité totale d’après la portion du ciel dans
laquelle des nuages estompent ou occultent complètement les étoiles, bien que la présence de
brume sèche suffise à produire le même effet à proximité de l’horizon.
L’observateur doit aussi estimer la nébulosité partielle. Il arrive, par exemple, que des nuages
bas dissimulent en partie une couche nuageuse plus élevée. De jour, on peut estimer avec une
CHAPITRE 15. OBSERVATION DES NUAGES 509
Dans les stations dépourvues d’équipements de mesure, la hauteur des nuages ne peut être
déterminée que par une estimation. En montagne, il est possible d’estimer la hauteur de leur
base lorsque celle‑ci est plus basse que les sommets voisins en se référant à l’altitude de points
topographiques relevés avec précision sur les cartes en courbes de niveau. Il est souhaitable
de garder sous la main un diagramme détaillé des altitudes et positions de tous les repères
éventuellement utilisables. Par un effet de perspective, les nuages semblent parfois reposer
sur des sommets lointains et il ne faut pas en tirer de conclusions hâtives quant à leur hauteur
au‑dessus de la station. L’observateur doit toujours faire preuve de jugement et prendre en
considération la forme et l’aspect général des nuages.
Le tableau ci‑dessous, valable pour les stations situées à moins de 150 m (500 pieds) au‑dessus
du niveau moyen de la mer, indique la gamme des hauteurs types pour la base de différents
genres de nuages dans les régions tempérées. Dans les sites d’observation nettement plus élevés
ou situés en montagne, la hauteur de la base des nuages bas au‑dessus de la station est souvent
moins importante que ne l’indique le tableau ci‑dessous.
Dans d’autres zones climatiques, en particulier dans des conditions tropicales sèches, la
hauteur de la base des nuages peut s’écarter sensiblement des gammes ci‑dessus, ce qui
rend son estimation encore plus difficile et entraîne parfois des erreurs de classification. Par
exemple, quand des observations d’aéronefs ont confirmé la présence de cumulus d’origine
convective dont les bases se trouvent bien au‑dessus de 2 400 m (8 000 pieds), voire à 3 600 m
(12 000 pieds), l’observateur au sol sous‑estime alors souvent beaucoup leur hauteur, soit
parce qu’il imagine que le cumulus est un nuage «bas» dont la base se situe en dessous de
2 000 m (6 500 pieds) et généralement de 1 500 m (5 000 pieds), soit parce que les conditions
atmosphériques se combinent à la forme du nuage pour produire une illusion optique.
La nuit, l’identification de la forme des nuages est un facteur essentiel de l’estimation directe
de la hauteur de leur base. Des connaissances météorologiques générales et une observation
attentive du temps aident grandement à juger si la base d’un nuage s’est élevée, abaissée ou
est demeurée pour ainsi dire inchangée. L’un des cas les plus épineux, qui nécessite beaucoup
d’attention et de savoir‑faire, est celui où des altostratus ont nappé le ciel dans la soirée. Déceler
l’abaissement progressif d’une telle couche nuageuse constitue une tâche ardue. Toutefois, en
descendant, la base reste rarement tout à fait uniforme et l’observateur peut souvent y discerner
de petits contrastes, sauf pendant les nuits les plus noires.
Hauteur au‑dessus du sol des bases de différents genres de nuage dans les régions tempérées
Altocumulus
Élevé
Cirrocumulus
Note:
a La hauteur de la base des nuages bas est souvent moins importante qu’indiqué pour les stations dont l’altitude
dépasse 150 m.
Le type de nuages est le plus souvent déterminé par un observateur humain. Des illustrations et
instructions de chiffrement figurent à cet effet dans de nombreux ouvrages, notamment OMM
(1975, 1987), ainsi que dans des publications des Services météorologiques nationaux.
Divers types de capteurs au sol permettent de mesurer la nébulosité totale. On parvient à estimer
celle‑ci dans de vastes zones en se servant de mesures faites dans le visible avec des radiomètres
embarqués à bord d’engins spatiaux et complétées par des images prises dans l’infrarouge,
mais le procédé laisse souvent à désirer et ne permet pas, par exemple, de distinguer les stratus
bas du brouillard. On peut estimer la nébulosité de l’étage inférieur dans le rayon d’action d’un
célomètre en mesurant la fraction de temps au cours duquel des couches déterminées ont
été observées et en supposant que les moyennes calculées sur cette base sont représentatives
des conditions autour du poste d’observation. Si cette méthode de mesure peut souvent être
considérée comme satisfaisante pour les besoins de la météorologie synoptique, elle est peu
fiable dans le domaine de la météorologie aéronautique, car elle peut entraîner d’importantes
erreurs dans l’estimation de la nébulosité au‑dessus d’un aérodrome. Une technique reposant sur
l’utilisation de données de célomètres, dite de groupage («clustering»), a été mise au point pour
les stations automatiques aux États‑Unis. D’autres pays, comme la Suède (Larsson et Esbjörn,
1995) et les Pays‑Bas (Wauben, 2002), ont mis en place des techniques similaires dans leurs
systèmes d’observation opérationnels. Pour mesurer la nébulosité, on utilise aussi des pyromètres
pouvant fonctionner dans plusieurs directions et/ou balayer le ciel, ainsi que des caméras
panoramiques spécialement conçues à cet effet.
la nébulosité. Cette méthode présente des avantages par rapport aux observations manuelles.
Les célomètres permettent d’obtenir des mesures plus cohérentes. En outre, ils peuvent fournir
plus fréquemment des données et peuvent être utilisés la nuit sans problèmes. Ils présentent
toutefois aussi des inconvénients, car d’importants écarts peuvent survenir en présence de cirrus
fins et élevés dans les situations suivantes: lorsque les performances du célomètres sont réduites,
lorsque le célomètre prend une couche humide pour la base d’un nuage, lorsqu’il ne détecte
pas la base d’un nuage ou qu’il en détecte une à la mauvais hauteur en cas de précipitations,
et lorsqu’il situe la base d’un nuage au point d’élévation le plus bas en présence d’une mince
couche de brouillard. Cette méthode nécessite que les nuages se déplacent au‑dessus du
champ d’observation de l’instrument, ce qui n’est pas toujours le cas. De plus, même si des
nuages passent bien dans le champ d’observation du célomètre, ils ne sont pas nécessairement
représentatifs de la nébulosité de l’ensemble du ciel. Ainsi, la série chronologique de la base des
nuages ne correspond pas toujours à l’ensemble du ciel. Or, c’est sur ce dernier que la mesure de
la nébulosité devrait se fonder. La concordance (avec une marge de 2 octas) entre cette méthode
et l’observation manuelle de la nébulosité totale s’établit généralement entre 80 et 90 %, selon
les résultats obtenus pour les stations côtières aux latitudes moyennes (OMM, 2006a). Toutefois,
la plupart des différences s’expliquent par la représentativité spatiale limitée des célomètres dont
la portée se réduit à la portion de l’espace situées directement au‑dessus de lui.
Chaque minute, si les hauteurs (de la base) des nuages se répartissent dans plus de cinq classes
de hauteur (au cours des 30 dernières minutes), elles sont regroupées par couches à l’aide la
méthode statistique des moindres carrés, jusqu’à ce qu’il ne reste plus que cinq classes (chaque
classe peut contenir plusieurs «échos»). Ces classes – ou agrégats – sont ensuite classées par
hauteur, de la plus basse à la plus haute. Puis, en fonction des hauteurs, le système ASOS
détermine si les classes peuvent être combinées et ajustées pour former des groupes de hauteur
significatifs sur le plan météorologique. L’algorithme sélectionne jusqu’à trois des classes ainsi
formées, appelées «couches», dont il sera fait état dans le METAR/SPECI selon les priorités
définies à l’échelle nationale en matière de couches de nuages à signaler.
La proportion du ciel qui est couverte se calcule en établissant le total des échos captés pour
chaque couche et le rapport entre ces échos et le nombre total d’échos possible. S’il y a plus
d’une couche, les échos de la première couche sont ajoutés à la seconde (et à la troisième) pour
obtenir la nébulosité totale. À des fins de comparaison, la nébulosité mesurée par l’ASOS pour
chaque couche est ensuite convertie en une fonction statistique correspondant aux données
d’observation humaine.
L’algorithme détermine par ailleurs s’il y a obscurcissement total du ciel en se fondant sur les
critères d’une faible visibilité en surface et d’un taux élevé d’«échos non définissables» aux
niveaux inférieurs.
Un algorithme de l’état du ciel a également été élaboré pour les lieux où la formation de nuages
(ou une advection) se produit régulièrement dans un endroit connu (ou à partir d’un endroit
connu) et entraîne des différences importantes de l’état du ciel au‑dessus d’un aéroport. Cet
algorithme de discontinuité météorologique utilise des données provenant de deux capteurs
établissant la hauteur de la base des nuages. Le capteur principal est situé près de la zone de
512 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
toucher des roues de la piste où se trouvent les instruments principaux. Le deuxième capteur
est généralement situé à une distance de 3 à 6 km (2 à 4 miles) du capteur principal, en amont,
dans la direction la plus probable de l’advection, ou plus près de l’endroit où l’état du ciel est
particulier. Le deuxième indicateur de la hauteur des nuages sert à détecter des différences de
l’état du ciel importantes sur le plan de l’exploitation.
Des informations complémentaires sur l’algorithme de l’état du ciel ASOS et sur ses vérifications
ont été mises à disposition par la NOAA (1988) et le Gouvernement des États‑Unis (United States
Government, 1999).
Des pyromètres, ou radiomètres infrarouges passifs, sont utilisés pour mesurer à distance la
température d’un objet à l’aide du rayonnement infrarouge qu’il émet (8–14 µm). Ils permettent
de couvrir les angles solides fondamentaux du ciel. On peut utiliser soit plusieurs capteurs
fixes (par exemple quatre) balayant chacun une partie du ciel, soit un seul capteur balayant
l’intégralité du ciel. Il est aussi possible de combiner les deux méthodes (un fabricant a conçu
un dispositif comprenant 14 capteurs couvrant 180 degrés en élévation d’un horizon à l’horizon
opposé, combinés à un mécanisme physique balayant l’azimut). Le rayonnement thermique
descendant des nuages et de la colonne d’air entre les nuages et l’instrument est mesuré et la
température de chaque angle solide balayé est calculée selon une formule faisant intervenir
les lois de Planck et de Stefan‑Boltzmann. La température du rayonnement infrarouge permet
ensuite de déterminer la présence de nuages dans chaque angle solide balayé. Il est alors
possible de déterminer la proportion du ciel contenant des nuages et d’exprimer celle‑ci sous
forme de taux de nébulosité.
Les pyromètres à balayage ne posent pas les problèmes de représentativité des mesures que
peuvent présenter les autres méthodes en fonction du nombre de points sondés. De plus, ils
permettent des observations de nuit. En revanche, cette méthode a pour inconvénient que les
«pixels» fractionnés et/ou transparents sont difficiles à classer.
Il existe des caméras spécialement conçues pour mesurer la nébulosité, qui permettent
d’observer l’ensemble du ciel, notamment à l’aide de miroirs sphériques. L’image du ciel est
analysée par un algorithme qui détermine, en mesurant la couleur de chaque pixel, si un nuage
est présent. La somme de tous les pixels donne une indication de la nébulosité.
Cette méthode permet d’éviter les problèmes de représentativité des mesures que présentent
d’autres méthodes. Certaines caméras fonctionnent toutefois avec la lumière du jour et ne
peuvent donc pas être utilisées de nuit. Les caméras effectuant des mesures infrarouges ne
présentent pas cet inconvénient, mais leur champ d’observation est plus limité et leur prix
plus élevé. Les caméras panoramiques nécessitent un entretien régulier, car il faut nettoyer les
surfaces optiques.
Le célomètre laser permet de déterminer la hauteur de la base des nuages en mesurant le temps
que met une impulsion de lumière cohérente pour parcourir la distance entre un émetteur et la
base du nuage puis revenir au récepteur (principe du lidar). Le laser est pointé verticalement vers
le ciel et, lorsque son faisceau lumineux rencontre un nuage, il est diffusé par les hydrométéores
constituant le nuage. La majeure partie du rayonnement est diffusée vers le haut, mais une
fraction est rétrodiffusée vers le récepteur, où elle est focalisée sur un détecteur photoélectrique.
Le flux radiatif rétrodiffusé vers le récepteur subit une diminution inversement proportionnelle au
carré de la distance. Le célomètre (figure 15.1) est généralement constitué de deux éléments, un
émetteur‑récepteur et une unité d’enregistrement.
L’émetteur et le récepteur sont installés dans un même caisson, où se trouve aussi le dispositif
électronique de détection et de traitement du signal. La source de lumière est généralement
un laser à semi‑conducteur dont la longueur d’onde se trouve dans le proche infrarouge.
Les surfaces optiques de l’émetteur sont disposées de façon que la source laser et le
détecteur‑récepteur soient au foyer d’un télescope classique ou newtonien. Un enduit spécial
passé sur les lentilles réduit la réflexion parasite et favorise la transmission de la lumière.
L’ouverture de l’émetteur est protégée par un verre dont la face intérieure est elle aussi
recouverte d’un produit antiréfléchissant, et inclinée de manière à faciliter l’écoulement de la
pluie.
L’agencement du récepteur est similaire à celui de l’émetteur, à ceci près qu’une photodiode
y remplace la source lumineuse et qu’il comporte un filtre optique à bande étroite qui élimine
la majeure partie du rayonnement solaire diffus pour améliorer de jour la détection du
rayonnement laser rétrodiffusé.
L’émetteur et le récepteur peuvent être montés l’un à côté de l’autre de telle manière que le
faisceau émis et le champ d’observation commencent à se chevaucher à une distance d’environ
5 m au‑dessus de l’assemblage et se superposent pleinement à quelques centaines de mètres.
Certains systèmes utilisent la même lentille pour émettre et capter le rayonnement, ce qui
permet d’éviter ce problème.
Le caisson est muni d’un dispositif de chauffage afin d’éviter la formation de condensation sur les
surfaces optiques, et de sels dessicants pour y réduire l’humidité. Il est fermé par un couvercle
dans lequel sont enchâssés des déflecteurs optiques qui empêchent le passage de toute lumière
solaire directe.
Nuage
Contrôleur
de lumière
Rx Tx
Enregistreur Processeur
Le détecteur mesure les signaux rétrodiffusés à des instants successifs. Ces «créneaux»
séquentiels correspondent au plus petit accroissement de hauteur décelable. L’existence d’un
seuil de détection rend très faible la probabilité que l’instrument ne détecte pas un nuage
existant ou en enregistre un inexistant.
L’équipement devrait être installé sur une base plane et ferme d’où la vue est parfaitement
dégagée vers le haut à l’intérieur d’un cône d’environ 30°. On peut au besoin choisir le toit d’un
immeuble à condition d’appliquer aux hauteurs mesurées les corrections voulues pour tenir
compte de l’écart avec le niveau du sol. Bien que les célomètres laser utilisés dans le secteur
opérationnel soient conçus de manière à ne présenter aucun danger pour l’œil, il convient de
veiller à ce que celui d’un observateur profane ne se trouve jamais dans la trajectoire directe du
faisceau émis.
Afin d’atténuer les effets d’une réflexion trop importante des gouttes de pluie, le faisceau et le
télescope peuvent être alignés sur un axe d’environ 5° par rapport à la verticale.
b) Verticalité insuffisante des faisceaux émis et captés: l’imprécision liée à ce type d’erreur est
négligeable tant que l’alignement entre l’instrument et le faisceau accuse un écart inférieur
à 5° par rapport à la verticale;
c) Imprécision du système de traitement du signal: la base des nuages étant en général diffuse
et très variable dans l’espace et dans le temps, on a mis au point des algorithmes complexes
afin d’en obtenir une estimation représentative à partir du signal renvoyé par le nuage.
La présence de brouillard (surmonté ou non de nuages) et de précipitations pouvant
engendrer de graves erreurs, il est important de connaître les conditions de visibilité et de
précipitations pour apprécier la valeur des informations fournies par le célomètre. Lorsqu’il
s’agit de nuages stratiformes bien définis (des stratocumulus bas, par exemple), les erreurs
de mesure ne dépendent que des algorithmes dits de «seuil» et peuvent être considérées
comme homogènes pour les célomètres d’un même modèle;
En exploitation et si la base des nuages est uniforme, on peut comparer régulièrement les
mesures des célomètres laser avec celles provenant de ballons‑pilotes, d’aéronefs et, la nuit, de
projecteurs à nuages. De nombreuses comparaisons de célomètres laser de différents fabricants
ont été réalisées, notamment lors de la comparaison internationale OMM de célomètres (OMM,
1988), où l’on a confronté les mesures de différents modèles non seulement entre elles, mais
aussi à celles des CFT et des ballons‑pilotes. La comparaison internationale a révélé qu’avec
l’application de techniques modernes, les célomètres l’emportaient en exactitude, fiabilité et
efficacité sur tous les autres moyens actuellement disponibles pour mesurer la hauteur de la base
des nuages depuis le sol.
CHAPITRE 15. OBSERVATION DES NUAGES 515
La plupart des célomètres laser comportent un dispositif intégré de diagnostic qui contrôle la
puissance du signal émis et permet d’éviter toute erreur grave de chronométrage. L’étalonnage
se borne le plus souvent à vérifier la fréquence et la stabilité de l’oscillateur principal par
comparaison avec des étalons extérieurs d’excellente qualité et à vérifier la puissance de sortie
de l’émetteur. L’étalonnage peut aussi être réalisé par comparaison (OMM, 1988). Le célomètre
peut également être pointé sur une cible située à une distance connue (par exemple une tour)
afin de confirmer la mesure de la distance réalisée par l’instrument. L’entretien courant consiste
à nettoyer les éléments optiques exposés et les panneaux extérieurs et à remplacer les filtres à air
des ventilateurs si l’équipement en est pourvu.
Le fonctionnement du CFT repose sur la mesure de l’angle d’élévation d’un faisceau lumineux à
balayage vertical au moment où une cellule photoélectrique pointée verticalement vers le haut
à une distance connue du projecteur capte une fraction de la lumière rétrodiffusée par la base
du nuage (figure 15.2). L’équipement se compose d’un émetteur, d’un récepteur et d’une unité
d’enregistrement.
L’émetteur émet un faisceau lumineux étroit (divergence d’environ 2°) dont les longueurs d’onde
sont presque entièrement comprises dans le proche infrarouge, c’est‑à‑dire entre 1 et 3 µm.
La longueur d’onde utilisée est donc petite comparée à la dimension des gouttelettes d’eau
présentes dans les nuages. Le faisceau balaie à la verticale un arc de cercle allant en général de
8 à 85°. Sa fréquence est réglée à environ 1 kHz pour améliorer le rapport signal/bruit au niveau
du récepteur grâce à des méthodes de détection s’appuyant sur les variations de phase.
2°
ge
ya
la
ba
u
sd
ite
85°
m
Li
q
50 pieds (15 m)
Ligne zéro du faisceau
8°
L’émetteur et le récepteur devraient être installés sur un terrain plat bien dégagé, à une distance
de 100 à 300 m, et fixés solidement sur des socles stables. Il est crucial que tous deux recouvrent
le même plan; on s’en assure en alignant soigneusement leurs optiques et en vérifiant le plan de
l’émetteur dans des conditions nocturnes appropriées.
L’utilisation de CFT pour mesurer la hauteur de la base des nuages peut entraîner des erreurs
imputables aux facteurs suivants:
a) Largeur du faisceau;
d) Réaction du récepteur.
Étant donné qu’avec la plupart des modèles le volume du cône d’intersection entre l’émetteur et
le récepteur devient très important quand la hauteur du nuage est supérieure à 500 m, les erreurs
dues à la largeur du faisceau sont généralement les plus graves. Les célomètres ne pouvant être
objectivement conçus selon la définition de la base des nuages donnée à la section 15.1.1, les
algorithmes utilisés actuellement se fondent sur des résultats expérimentaux et des comparaisons
avec d’autres méthodes d’estimation. Avec certains CFT, on fait appel à une technique dite de
«seuil» pour déterminer la présence de nuages; avec d’autres on s’appuie sur la détection d’un
signal «de pointe». Dans les deux cas, la sensibilité du récepteur a une incidence sur les hauteurs
mesurées et entraîne dans certaines conditions des erreurs dépassant les tolérances définies dans
le domaine opérationnel (Douglas et Offiler, 1978). Ces erreurs augmentent en général avec la
hauteur indiquée.
Les CFT sont extrêmement sensibles aux précipitations. Lorsque celles‑ci sont modérées ou
fortes, l’instrument signale parfois à tort la présence de nuages bas ou ne détectent plus aucun
nuage. Le brouillard peut quant à lui dissiper le faisceau lumineux à proximité du sol, de sorte
que le célomètre ne fournit plus aucune indication utile, même en présence d’une couche de
nuages bas.
Des CFT et des célomètres laser ont fait l’objet de comparaisons dont les résultats ont été
largement diffusés (OMM, 1988). Ces comparaisons ont montré que leurs mesures concordaient
jusqu’à des hauteurs proches de 500 m, mais que les CFT se révélaient nettement moins efficaces
en matière de détection en cas de précipitations.
Les seules opérations d’entretien incombant normalement à l’utilisateur sont le nettoyage des
vitres de l’émetteur et du récepteur et le remplacement des diagrammes. Les parties extérieures
des fenêtres en plastique des deux équipements devraient être nettoyées chaque semaine,
avec un chiffon doux et sec, en prenant bien garde de ne pas les rayer. L’alignement optique
demande à être vérifié après tout changement de l’ampoule de l’émetteur. La mise à niveau de
l’émetteur et du récepteur devrait être contrôlée environ une fois par an et, au besoin, il convient
de l’ajuster.
CHAPITRE 15. OBSERVATION DES NUAGES 517
En illuminant une petite surface sur la base d’un nuage à l’aide d’un projecteur pointé
verticalement (voir la figure 15.3) il est possible de mesurer, avec une alidade située à une
certaine distance du projecteur, l’angle d’élévation E de la tache lumineuse formée par le
faisceau lumineux. Si L est la distance horizontale connue, exprimée en mètres (ou pieds) entre le
projecteur et le poste d’observation, l’équation ci‑après permet d’obtenir, en mètres (ou pieds), la
hauteur h de la base des nuages au‑dessus du point d’observation:
h = L tan E (15.2)
La distance optimale entre le projecteur et le poste d’observation est d’environ 300 m
(1 000 pieds). Si la distance est beaucoup plus grande, la tache lumineuse devient peu visible; si
elle est beaucoup plus petite, la mesure des hauteurs supérieures à environ 600 m (2 000 pieds)
se fait moins précise. Une distance de 250 à 550 m (800 à 1 800 pieds) est généralement
acceptable.
Il est souhaitable que la ligne de vision soit bien dégagée entre le projecteur et l’alidade, qui
devraient tous deux être fixés solidement sur un socle stable. Quand ils ne sont pas au même
niveau, il faut appliquer une correction adaptée aux hauteurs calculées. Si la ligne de vision entre
le projecteur et l’alidade ne peut pas être totalement dégagée, aucun obstacle ne devrait excéder
30 m (100 pieds) de hauteur.
La plus importante source d’erreur est l’incertitude liée à la mesure de l’angle d’élévation. Les
erreurs de hauteur dues à de petites erreurs de verticalité sont insignifiantes.
( )
∆h = L ⋅ 1 cos2 E ⋅ ∆ E = L sec2 E ⋅ ∆ E (15.3)
Tache lumineuse
où E est exprimé en radians (1° = π/180 rad). Il est à noter que Δh tend vers l’infini quand
E → 90°. Si L = 300 m (1 000 pieds) et ΔE = 1°, la valeur de Δh est de 6 m (17 pieds) quand
h = 300 m (1 000 pieds), et Δh est d’environ 140 m (450 pieds) quand h = 1 500 m (5 000 pieds).
L’erreur relative sur h est donnée par:
∆h h = 1 ( sin E ⋅ cos E ) ⋅ ∆ E (15.4)
où E est exprimé en radians. Δh/h est minimale quand E = 45° (ou h = L).
Dans la mesure du possible, il convient de vérifier une fois par mois la focalisation et la verticalité
du faisceau, car le filament de l’ampoule subit de légers changements au fil du temps. À la suite
de tout remplacement d’ampoule, il faudrait également ajuster sa position, car les ampoules ne
sont pas toutes identiques.
Il faudrait vérifier la verticalité du faisceau lumineux à l’aide d’un théodolite pendant une nuit
très nuageuse, ceci en se plaçant successivement à deux endroits: l’un proche de l’alidade, l’autre
approximativement à la même distance du projecteur dans une direction perpendiculaire à la
ligne idéale reliant le projecteur à l’alidade (figure 15.4). On devrait mesurer le plus exactement
possible les azimuts du projecteur et de la tache lumineuse sur le nuage, ainsi que l’angle
d’élévation de cette dernière. Si la différence entre les azimuts relevés est A et l’angle d’élévation
de la tache lumineuse est E, l’écart ϕ du faisceau par rapport à la verticale est donné par
l’expression suivante:
φ = arctan ( tan A tan E ) ≈ A tan E
(15.5)
( où A ≈ 1° ou moins )
Lorsque la valeur de ϕ dépasse un degré (1°) dans la perspective de l’alidade ou 0,5° depuis
l’autre emplacement, les ajustements devraient être répétés jusqu’à l’obtention de la précision
requise.
On peut vérifier la focalisation du faisceau en observant pendant une nuit très couverte le
diamètre de la tache lumineuse sur le nuage le plus élevé au‑dessus de l’instrument. Au besoin,
on focalisera davantage le faisceau pour réduire ce diamètre au minimum.
Tache lumineuse
Verticale véritable
Faisceau réel
Angle ϕ
h
Source
de lumière
E
L Second
90˚ emplacement
Position
proche de
Angle A
l’alidade
Il est possible de déterminer de jour la hauteur des nuages en mesurant le temps que met un
petit ballon en caoutchouc gonflé à l’hydrogène ou à l’hélium pour aller du sol jusqu’à la base
du nuage. On considère que le ballon a atteint la base du nuage lorsqu’il semble entrer dans une
couche de brume avant de disparaître complètement.
Bien que le calcul de la hauteur de la base des nuages de moyenne altitude se fonde parfois
sur des mesures du vent effectuées en altitude par des ballons‑pilotes, la méthode du ballon
s’applique surtout aux nuages bas. Si l’observateur ne dispose pas d’instruments optiques –
jumelles, télescope ou théodolite – il devrait renoncer, sauf si le vent est très léger, à mesurer la
hauteur de la base d’un nuage dont il juge le niveau supérieur à environ 900 m (3 000 pieds). Par
vent fort, un ballon suivi uniquement à l’œil nu risque de sortir du champ d’observation avant de
pénétrer dans le nuage.
Cette méthode peut être utilisée de nuit en accrochant une lampe électrique au ballon. Pour des
raisons de sécurité, l’emploi d’une lanterne abritant une bougie est vivement déconseillé.
Il convient d’utiliser avec précaution cette méthode pour mesurer la hauteur de la base des
nuages, car la vitesse ascensionnelle moyenne d’un ballon, surtout sur les premières centaines
de mètres, peut différer sensiblement des prévisions (en raison des effets exercés par les courants
verticaux, la forme du ballon, les précipitations et les turbulences).
La détermination du type de nuages est encore largement réalisée par des observateurs humains.
Il n’existe à l’heure actuelle qu’une seule méthode d’observation automatique du type de
nuages, réservée à la détection des cumulonimbus/cumulus bourgeonnants. Cette méthode
se fonde sur les données d’un réseau de radars de mesure des précipitations et de détection de
la foudre. Les données sur les classes de réflectivité radar et le nombre d’éclairs dans une zone
déterminée sont combinées afin d’obtenir des informations sur la présence de cumulonimbus et/
ou de cumulus bourgeonnants.
Il s’agit d’une méthode nouvelle, employée par quelques Services météorologiques. Le taux de
fausses alertes est relativement élevé (voir OMM, 2006b).
520 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
On entend par visibilité verticale la distance maximale à laquelle un observateur peut voir
et identifier un objet situé directement à sa verticale. On peut la calculer à partir du profil
d’atténuation de l’atmosphère (OMM, 2010). Certains célomètres (voir les sections 15.4.1
et 15.4.2) fournissent une estimation de la visibilité verticale fondée sur la variation selon la
distance de la quantité totale d’énergie rétrodiffusée. Il a été montré dans le document OMM
(1988) que les résultats que donne cette méthode sont souvent peu fiables. En pratique, un
célomètre donne souvent des informations relatives à la visibilité verticale quand les conditions
de mesure de la base des nuages ne sont pas réunies mais qu’il est possible de capter un
rayonnement rétrodiffusé d’une certaine altitude.
RÉFÉRENCES ET AUTRES LECTURES
Douglas, H. A. et D. Offiler, 1978: The Mk 3 cloud base recorder: A report on some of the potential accuracy
limitations of this instrument. Meteorological Magazine, 107:23–32.
Larsson, B. et E. Esbjörn, 1995: Cloud Cover Algorithm. SMHI IO‑BN 1995‑01‑11, SMHI, Norrköping, Suède.
National Oceanic and Atmospheric Administration (NOAA), 1988: Federal Standard Algorithms for Automated
Weather Observing Systems Used for Aviation Purposes. Office of the Federal Coordinator for
Meteorological Services and Supporting Research, United States Department of Commerce,
FCM‑S5‑1988, Silver Spring, Maryland, États‑Unis.
Organisation météorologique mondiale, 1975: Atlas international des nuages: Manuel de l’observation des
nuages et des autres météores (OMM‑N° 407), Volume I, Genève.
———, 1987: Atlas international des nuages (OMM‑N° 407), Volume II, Genève.
———, 1988: WMO International Ceilometer Intercomparison (D.W. Jones, M. Ouldridge et D.J. Painting).
Instruments and Observing Methods Report No. 32 (WMO/TD‑No. 217), Genève.
———, 2006a: Status, evaluation and new developments of the automated cloud observations in the
Netherlands (W. Wauben, H. Klein Baltink, M. de Haij, N. Maat et H. The). Paper presented at the
WMO Technical Conference on Meteorological and Environmental Instruments and Methods of
Observation (TECO‑2006). Instruments and Observing Methods Report No. 94
(WMO/TD‑No. 1354), Genève.
———, 2006b: Status of the automatic observation on aerodrome and ongoing improvements in France
(M. Leroy). Paper presented at the WMO Technical Conference on Meteorological and Environmental
Instruments and Methods of Observation (TECO‑2006). Instruments and Observing Methods
Report No. 94 (WMO/TD‑No. 1354), Genève.
———, 2010: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2011: Manuel des codes (OMM‑N° 306), Volume I.1, Genève.
———, 2014: Guide des systèmes d’observation et de diffusion de l’information pour l’assistance météorologique à la
navigation aérienne (OMM‑N° 731), Genève.
United States Government, 1999: Automated Surface Observing System. Air Force Operational Test and
Evaluation Center: Final Assessment Report for the Federal Aviation Administration, Californie,
États‑Unis.
Wauben, W. M. F., 2002: Automation of visual observations at KNMI: (II) Comparison of automated cloud
reports with routine visual observations. Dans: Symposium on Observations, Data Assimilation and
Probabilistic Prediction. AMS Annual Meeting, 2002 Report, Orlando, Floride, États‑Unis.
TABLE DES MATIÈRES DU CHAPITRE
Page
16.1 GÉNÉRALITÉS
Le présent chapitre a pour principal objet de présenter aux lecteurs (et en particulier aux
profanes) les méthodes et les techniques particulières utilisées pour mesurer les divers
constituants de l'atmosphère, de même qu'un certain nombre de paramètres physiques qui
s’y associent. Les mesures des variables météorologiques de base présentées dans les chapitres
précédents s’avèrent souvent utiles dans ce contexte. Le Programme de la Veille de l’atmosphère
globale (VAG) a été créé au sein de l’OMM pour coordonner les mesures des composants
de l’atmosphère et des paramètres physiques connexes effectuées par les pays Membres de
l’Organisation. Davantage de détails pratiques sur les activités de mesure sont donnés dans les
rapports de la VAG et d’autres documents de référence indiqués en fin de chapitre.
Le Programme de la VAG (voir OMM, 2007b) vise à déterminer quelles mesures sont
scientifiquement adéquates pour définir l'influence croissante des activités humaines sur
l'atmosphère terrestre. Il s'articule notamment autour des grands enjeux suivants:
c) La réduction des risques inhérents à la pollution de l'air pour la santé humaine et les
problèmes liés au transport à longue distance et au dépôt des polluants atmosphériques.
De plus, les mesures des composants de l’atmosphère sont essentielles pour comprendre le bilan
radiatif de l’atmosphère et améliorer les prévisions numériques du temps.
b) Les gaz à effet de serre: dioxyde de carbone CO2 (y compris Δ14C, δ13C et δ18O dans le CO2,
et rapports oxygène/azote (O2/N2)), méthane CH4 (y compris δ13C et δD dans le CH4),
protoxyde d'azote (N2O) et composés halogénés (SF6);
c) Les gaz réactifs: ozone de surface et ozone troposphérique (O3), monoxyde de carbone
(CO), composés organiques volatils (COV), oxydes d'azote (NOx), dioxyde de soufre (SO2)
et hydrogène moléculaire (H2);
e) Le rayonnement ultraviolet;
Il est recommandé de définir un certain nombre de paramètres auxiliaires pour les mesures
effectuées aux stations de la VAG:
a) Le rayonnement solaire;
En raison des faibles rapports de mélange des constituants atmosphériques à l'état de traces,
les instruments et les méthodes utilisés pour la détermination quantitative et qualitative des
constituants de l’atmosphère sont complexes et parfois d'une application difficile. De faibles
erreurs, par exemples dans les signatures spectrales, ou des sensibilités croisées avec d’autres
composants peuvent facilement compromettre l'exactitude des mesures des constituants de
l’atmosphère. Ainsi, outre qu'il faut s’assurer du bon fonctionnement du matériel, il est essentiel
de prévoir des étalonnages réguliers, la participation à des comparaisons d’instruments, des
audits de station et des formations pour le personnel afin que les mesures soient exactes et
fiables. On ne peut obtenir de très bons résultats pour la plupart des mesures décrites ici sans
solliciter la collaboration étroite de spécialistes confirmés. Les principes fondamentaux de
l'assurance de la qualité des observations de la composition de l’atmosphère au sein de la VAG
sont décrits à la section 16.1.4.
16.1.1 Définitions/descriptions
Selon le principe de mesure et la plate-forme des instruments, trois types de mesures sont
effectués et transmis couramment, à savoir:
c) Les profils verticaux de concentration (fournis par des aéronefs, ballons, fusées, dispositifs
de télédétection de surface ou instruments embarqués sur des satellites);
La composition de l’atmosphère à proximité de la surface s’établit sur la base des résultats des
mesures (continues ou discrètes) de la quantité d’une composante particulière dans une couche
atmosphérique ne dépassant pas quelques dizaines de mètres au-dessus de la surface en un
emplacement déterminé de la surface terrestre. Les résultats des mesures de surface sont
généralement exprimés en unités de pression partielle, en concentration, en rapport de mélange
ou en titre molaire. L’utilisation d’unités qui ne font pas partie du Système international d’unités
(SI) est vivement déconseillée.
La colonne totale de l’atmosphère s’établit sur la base de la quantité totale d’une substance
particulière contenue dans une colonne verticale allant de la surface terrestre au sommet de
l’atmosphère. Les unités les plus couramment employées pour exprimer l’ozone total sont: i)
l’épaisseur de la colonne d’ozone pur à température et pression normales, soit, respectivement,
à 273,15 K et 101,325 kPa et ii) la densité de la colonne verticale (nombre total de molécules par
unité de surface dans une colonne d’atmosphère). Pour les autres constituants de l’atmosphère,
la densité de la colonne verticale ou la grandeur en moyenne de colonne sont utilisées. Il est
également courant de communiquer la teneur en une substance de la colonne partielle, par
exemple la teneur en NOx de la colonne troposphérique. Dans ce cas, la colonne verticale qui est
intégrée s’étend de la surface de la Terre à la tropopause.
Les unités ci‑après sont utilisées pour exprimer les résultats des observations des composantes de
l’atmosphère à l’état de traces:
Nombre de molécules par unité de surface: la teneur en composés atmosphériques à l’état de traces
dans une colonne verticale au‑dessus de la surface de la Terre. Encore couramment utilisée,
l’unité Dobson (UD), qui correspond au nombre de molécules d’ozone nécessaires pour créer
une couche d'ozone pur de 10 –5 m d’épaisseur à des conditions de température et de pression
normales. Exprimée sous une autre forme, 1 UD correspond à une colonne d’air contenant
quelque 2,686 8 ∙ 1016 molécules d'ozone par centimètre carré à la base de la colonne.
Fractions molaires de substances dans l’air sec (l’air sec comprend tous les types de gaz hormis la
vapeur d'eau (H2O):
L’établissement de la fraction molaire sèche exige soit de sécher des échantillons d’air avant la
mesure soit de corriger celle‑ci des effets de la vapeur d’eau. Lorsqu’il est impossible de sécher
l’échantillon ou que la correction augmenterait considérablement l’incertitude de la mesure, il
est possible de communiquer des fractions molaires humides. Cela doit être clairement indiqué
dans les métadonnées accompagnant les données enregistrées.
L’unité utilisée pour exprimer la quantité de substance est la fraction molaire de l’air sec,
communiquée en ppm (parties par million, soit en µmol/mol), ppb (parties par milliard, soit en
nmol/mol) ou ppt (parties par billion, soit en pmol/mol). Un «v» est souvent ajouté à ces unités
pour indiquer qu’il s’agit d’un rapport de mélange par volume. Lorsque l’on communique une
fraction molaire sous forme de rapport de mélange par volume, on suppose que l’atmosphère
est un gaz parfait. Les conditions idéales définies par la VAG étant parfois très éloignées de la
réalité (notamment pour le CO2), on préfère très généralement utiliser la fraction molaire, car
elle ne nécessite pas de présupposer la présence de gaz parfaits et, surtout, elle peut également
s’appliquer à des espèces en phase condensée. En règle générale, il est vivement recommandé
d’utiliser les unités du Système international.
La référence internationale (la référence primaire) pour le δ13C est le Pee Dee Belemnite de
Vienne (VPDB). Le NBS 19 et le LSVEC (Coplen et al., 2006) sont les matériaux de référence
primaires internationaux à la base de la valeur de la référence VPDB. Pour δ18O, on utilise
plusieurs références (VPDB, l'eau océanique moyenne définie à Vienne (VSMOW), air‑O2).
1
Le CO2, par exemple, se compose essentiellement de 12C16O16O, tandis que les isotopologues de moindre abondance
et de masse plus grande, allant de 45 à 49 (13C16O16O, 14C16O16O, ou 12C18O16O, les proches du 17O et les espèces à
mélange d’isotopes) se trouvent aussi dans l’atmosphère.
526 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
La déviation sert également à exprimer les variations des quantités relatives des rapports O2/N2
(et argon/azote (Ar/N2)) dans l'air:
δ ( O2 N 2 ) = ( Réchantillon Rstandard − 1) , où R = O2 N 2 (16.2)
La référence internationale concernée n’a pas encore été établie. La référence locale de l'Institut
d'océanographie Scripps (SIO), fondée sur un jeu de cylindres remplis à proximité, est la plus
utilisée dans le monde.
Dans le cas du prélèvement actif, soit les mesures peuvent se faire en continu (ou presque)2
avec de brefs temps d’intégration, soit des échantillons sont recueillis ou préparés spécialement
(dans des cylindres de verre ou d'acier inoxydable sur des filtres ou substrats sorbants), puis
analysés en différés dans des laboratoires spécialisés. La collecte d'échantillons discrets implique
leur stockage. Durant ce temps, les propriétés du flacon peuvent influencer la composition de
l’échantillon en raison d’effets chimiques ou de surface ou du fait de la perméabilité de certains
polymères de scellement. Cela exige de tester avec soin les récipients des échantillons.
Les techniques analytiques les plus utilisées (et préconisées par le Programme de la VAG pour la
détection et la quantification des constituants de l’atmosphère sous forme de traces peuvent se
résumer comme suit:
2
C’est par exemple une pratique courante dans les mesures par chromatographie des gaz.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 527
selon l’élément à mesurer ou sur plusieurs longueurs d’onde individuelles. Les lignes
d’absorption étant différentes dans les molécules ayant une autre composition isotopique,
et les formes des lignes dépendant de la composition globale du gaz, il faudrait faire en
sorte que les gaz de référence aient des propriétés similaires à l'air atmosphérique analysé.
b) La chromatographie en phase gazeuse (CPG) est une méthode physique de séparation qui
répartit les composantes pour les séparer en deux phases, l’une étant stationnaire (la phase
stationnaire) et l’autre (la phase mobile) se déplaçant dans une direction définie. Il existe
bon nombre de techniques chromatographiques et d’instruments correspondants. Pour
se prêter à l’analyse CPG, un composant doit avoir une volatilité et une stabilité thermique
suffisantes. La chromatographie en phase gazeuse consiste à vaporiser un échantillon et
à l’injecter à l’entrée d'une colonne de chromatographie. L’échantillon est entraîné au
travers de la colonne par le flux de la phase mobile du gaz inerte. La colonne elle‑même
contient une phase stationnaire liquide qui est adsorbé sur la surface d'un solide inerte.
Un détecteur de chromatographie est un dispositif utilisé pour visualiser des composants
du mélange en cours d’extraction de la colonne de chromatographie. On trouve en
général deux types de détecteurs: les détecteurs destructifs et les non destructifs. Les
détecteurs destructifs, tels que les détecteurs à ionisation de flamme (FID), entraînent une
transformation continue de l’effluent de la colonne (combustion, évaporation ou mélange
avec des réactifs), puis mesurent certaines des propriétés physiques du matériau résiduel
(plasma, aérosol ou mélange réactif). Les détecteurs non destructifs, tels que les détecteurs
à capture d’électrons (DCE), mesurent directement certaines propriétés de l’effluent de la
colonne (par exemple l’absorption dans l’UV) et laissent ainsi l'analyte reprendre sa forme
d'origine.
c) La spectrométrie de masse (SM) est une technique d’analyse qui fournit les spectres des
masses des molécules comprenant un échantillon de matériau. Les spectres servent à
déterminer la composition élémentaire d’un échantillon, ainsi que les masses de particules
et de molécules, et à définir la structure chimique des molécules. La spectrométrie de
masse repose sur l’ionisation des composés chimiques pour produire des molécules ou
des fragments de molécule chargés et sur la mesure de leur rapport masse/charge. Dans
un certain nombre d’instruments, la spectrométrie de masse peut être utilisée comme
méthode de détection pour la chromatographie des gaz.
Les méthodes de détection des gaz et des aérosols peuvent être différentes et reposer sur divers
phénomènes physiques. Les méthodes de détection applicables aux différentes propriétés des
gaz et des aérosols sont détaillées dans les sections ci-dessous.
Les techniques de mesure des principaux composés observés dans le cadre du Programme de
la VAG sont brièvement décrites dans le présent chapitre, tandis que des directives générales
sur les mesures se trouvent dans les rapports de la VAG cités dans les diverses sections. S’il
n’existe aucune directive ou procédure d’exploitation standard relative aux mesures, des liens
sont donnés qui renvoient aux informations nécessaires pour effectuer les mesures concernées.
Des informations générales relatives aux mesures des divers composés se trouvent dans le Plan
stratégique de la Veille atmosphérique globale de l’OMM: 2008–2015 (OMM, 2007b) et son
addendum (OMM, 2011b).
La télédétection par satellite des constituants atmosphériques mentionnés ci‑dessous est traitée
individuellement au chapitre 5 de la partie III.
Le système d’assurance de la qualité de la VAG vise à garantir que les relevés transmis par les
stations soient cohérents, de qualité suffisante et déterminée, étayés par des métadonnées
complètes, et représentatifs à l’échelle régionale comme planétaire du point de vue des
distributions spatiale et temporelle.
528 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
a) Des objectifs définis de qualité des données (notamment des degrés tolérables
d’incertitude pour les données, l’exhaustivité, les exigences de compatibilité, etc.);
d) La traçabilité de l’étalon primaire de toutes les mesures effectuées par des stations de la
VAG;
g) L’envoi en temps utile des données et des métadonnées connexes au centre afin de
permettre qu’une communauté plus large puisse examiner des données de manière
indépendante.
a) Évaluer, avant le stade de la mise en œuvre, l'incidence des nouveaux systèmes ou des
éventuelles modifications des systèmes existants;
b) En cas de changement de système, prévoir une période d’exploitation parallèle d’une durée
suffisante entre l’ancien système et le nouveau;
c) Maintenir en service les stations et les systèmes d’observation dont le fonctionnement est
continu.
Les membres de l’OMM gèrent cinq types de centres spécialisés (voir l’annexe) dans les six
groupes de variables de mesure (voir la section 16.1), qui constituent la base de l’assurance de la
qualité et du système d’archivage des données. Ces centres comprennent:
a) Les laboratoires centraux d'étalonnage, qui abritent les étalons et les échelles primaires;
d) Les centres mondiaux de données de la VAG, qui veillent essentiellement à diffuser les
données de la VAG et à en faciliter l’accès.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 529
Pour leurs activités relevant de l'assurance de la qualité des observations de la VAG, les
laboratoires centraux reçoivent l’appui des groupes consultatifs scientifiques compétents, dont
les tâches comprennent une aide à l’élaboration des procédures et des directives applicables
aux mesures, des objectifs en matière de qualité des données et, s’il y a lieu, des procédures
normalisées d'exploitation, de l’examen des nouvelles techniques de mesure et de la formulation
de recommandations sur leur applicabilité pour les observations de la VAG.
Il est possible de mesurer l’ozone total en ne recourant qu’à des techniques de télédétection. Les
informations les plus précises sur l’ozone total et ses fluctuations sur des sites particuliers peuvent
s’obtenir par des mesures à partir du sol, par exemple par spectroscopie solaire dans la gamme
des longueurs d’onde allant de 300 à 340 nm. Dans le cadre du Programme de la VAG, les
spectrophotomètres Dobson (conçus pour une exploitation manuelle) et les spectrophotomètres
Brewer (conçus pour une exploitation automatique) sont des instruments utilisés couramment
pour les observations de l'ozone total, offrant ainsi deux réseaux indépendants.
Les détails des mesures de l’ozone total à l’aide du spectromètre Dobson et l’assurance de la
qualité qui s’y associe sont donnés dans le document OMM (2008c). L’ozone total est observé à
l’aide de cet instrument, qui mesure les intensités relatives de paires déterminées de longueurs
d’onde dans l’ultraviolet, définies comme étant les paires de longueurs d’onde A, B*, C, C' et
D, provenant du Soleil, de la Lune ou du rayonnement du ciel au zénith. La paire de longueurs
d’onde A, par exemple, comprend la longueur d’onde 3 055 Å (en Ångström: 1 Å = 0,1 nm),
qui est fortement absorbée par l’ozone, et la longueur d’onde plus intense de 3 254 Å, qui
est relativement peu influencée par l’ozone. En dehors de l’atmosphère, l’intensité relative du
rayonnement de ces deux longueurs d’onde reste pour ainsi dire stable. En passant à travers
l’atmosphère pour arriver jusqu’à l’instrument, cependant, le rayonnement des deux longueurs
d’onde perd de l’intensité en raison de la diffusion de la lumière par les molécules d’air et les
particules de poussière; de plus, la longueur d’onde de 3 055 Å est considérablement atténuée
lorsqu’elle passe par la couche d’ozone, alors que l’atténuation de la longueur d’onde de 3 254 Å
est relativement faible. Ainsi, l’intensité relative de la paire de longueur d’onde A telle que la
détecte l'instrument varie en fonction de la quantité d'ozone présente dans l'atmosphère car, à
mesure que la quantité d'ozone augmente, l'intensité observée du rayonnement de la longueur
d'onde de 3 055 Å diminue, tandis que l’intensité du rayonnement de la longueur d’onde de
3 254 Å reste pratiquement inchangée. De ce fait, en mesurant les intensités relatives de paires
de longueurs d’onde adéquatement sélectionnées à l’aide du détecteur Dobson, il est possible de
déterminer la quantité d’ozone dans une colonne d’air verticale allant du sol à la limite supérieure
de l’atmosphère dans le voisinage de l’instrument. Le résultat est exprimé par l'épaisseur de la
couche d'ozone pur à température et pression normales.
Les résultats des comparaisons des instruments Brewer et Dobson, tout comme les
recommandations sur l’exploitation des instruments Brewer, sont communiqués dans les
rapports des consultations biennales de l'OMM sur l’exploitation, l’étalonnage et le traitement
des données des spectromètres de Brewer pour l’ozone et pour les UV (voir par exemple OMM,
2008a).
Les instruments standard (primaires) mondiaux des réseaux de Brewer et de Bobson sont
étalonnés selon la méthode des relevés ponctuels Langley à l’observatoire de Mauna Loa, à
Hawaii (tous les 2–4 ans); les étalons régionaux sont paramétrés à l'aide de l'étalon primaire tous
530 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
les 2–3 ans; et les instruments des stations sont étalonnés à l'aide des instruments standard tous
les 4 ans. Une extension de ces cycles d'étalonnage jusqu’à 5–6 ans pour les instruments utilisés
dans les stations est en cours de discussion. De plus, trois campagnes de mesures concluantes
menées selon la méthode Langley au Centre de recherche sur l'atmosphère d'Izaña, de Tenerife,
avec des instruments Dobson étalons, primaires comme régionaux, ont démontré l’opportunité
d’utiliser ce site et ce centre pour cette méthode d’étalonnage absolu.
Des mesures complémentaires de l’ozone total sont fournies par des spectromètres dans
les UV et dans le visible du type DOAS (une technique de spectroscopie d’absorption
optique différentielle, qui permet également la détection de divers gaz mineurs sous forme
de trace (tels que le NO2 et le BrO)). L’instrument français est appelé «Système d'analyse
par observations zénithales» (SAOZ), mais il repose sur le même principe que le DOAS, Ces
instruments font partie des outils de mesure utilisés dans le cadre du Réseau de détection des
modifications dans la composition de l’atmosphère (NDACC, http://www.ndsc.ncep.noaa.
gov/instr/). Comparés au réseau Brewer/Dobson, mieux établis, les procédures de mesure et
d'analyse pour les instruments du type DOAS sont moins normalisées, mais des campagnes de
comparaison ont été menées régulièrement. D’autres instruments fournissant des mesures de
l'ozone total à partir du sol (les ozonomètres russes à filtre ou ceux de type DOAS/SAOZ) ne
sont pas exploités dans le cadre du même programme d’assurance et de contrôle de la qualité
que les instruments de Dobson et Brewer. Les instruments à filtre, russes ou autres, ne sont pas
étalonnés indépendamment, mais sont rattachés aux instruments Dobson, ou Brewer. La qualité
des données de chacune des séries de mesures d’ozone total déposées au Centre mondial OMM
des données sur l’ozone et le rayonnement ultraviolet (WOUDC), établi au Canada, doit être
documentée pour les utilisateurs.
Les mesures de la distribution verticale de l’ozone peuvent s’effectuer par des méthodes actives
comme par des méthodes de détection à distance.
Les spectromètres Dobson et Brewer peuvent être utilisés pour mesurer la distribution verticale
de l’ozone en appliquant la méthode Umkehr (OMM, 2008c). L’obtention du profil d’ozone
à partir de la mesure Umkehr passe par un algorithme complexe qui exige la connaissance
des propriétés radiatives de l’atmosphère réelle. Si cette connaissance change, l’algorithme
est différent. Une observation Umkehr classique s’obtient en prenant une série de mesures
de longueurs d’onde de la paire C sur le rayonnement du ciel au zénith par temps clair le
matin ou l'après‑midi. Les mesures commencent quelques minutes avant le lever du Soleil et
se poursuivent jusqu’à ce que le Soleil se trouve à une élévation d’au moins une vingtaine de
degrés. Elles peuvent aussi commencer l’après‑midi, lorsque le Soleil se trouve à une élévation
d’au moins une vingtaine de degrés et se poursuivre jusqu’à peu après le coucher du Soleil. Le
ciel au zénith doit être dégagé de nuages pendant une période de 30 minutes à 1 heure aux
alentours du lever ou du coucher du Soleil, En particulier aux stations de basse latitude où le
Soleil se lève et monte rapidement sur l’horizon. Le reste du temps, il est souhaitable que le ciel
au zénith soit dégagé, mais toléré que des nuages le traversent de temps en temps lorsqu'aucune
mesure n'est effectuée. Les observations Umkehr ne peuvent pas se faire à une station polaire ou
à haute altitude pendant l’été lorsque le Soleil ne descend pas au‑dessous de l’horizon.
Pour pouvoir calculer la distribution verticale de l’ozone, il faut connaître la quantité totale
d’ozone présente au moment de l’observation. Plusieurs mesures d’ozone total doivent donc être
effectuées durant le matin ou l’après‑midi, en particulier si la quantité d’ozone varie relativement
vite.
Le profil d’ozone observé établi sur la base de ces mesures dépend entièrement de l'algorithme
utilisé. La méthode d’analyse des données Umkehr a été élaborée à l’original par Götz et al.
(1934). Par la suite, la méthode a été affinée par Ramanathan et Dave (1957), Mateer et Dütsch
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 531
(1964), ainsi que Mateer et DeLuisi (1992). L’algorithme Umkehr est décrit par Petropavlovskikh
et al. (2005). Les informations pertinentes sont régulièrement mises à jour à l’adresse
http://www.esrl.noaa.gov/gmd/ozwv/umkehr/.
La mesure de l’ozone effectuée par ballon léger (sonde d’ozone) est une méthode active pour
mesurer la distribution verticale de l’ozone dans l’atmosphère. D’autres méthodes actives pour
les mesures de fractions molaires de l’ozone (qui sont utilisées sur des plates‑formes d’aéronef)
sont décrites dans la section sur les gaz réactifs (voir la section 16.4.1).
Les sondes d’ozone sont de petits instruments légers et compacts, embarqués sur des ballons,
et conçus pour mesurer la distribution verticale de l’ozone atmosphérique jusqu’à une altitude
d’environ 30–35 km. Le capteur est relié à une radiosonde météorologique pour la transmission
des données à la station au sol et peut être transporté sur un petit ballon de baudruche.
Trois grandes catégories de sondes d’ozone – l’appareil Brewer Mast, la sonde à cellule de
concentration électrochimique, et la sonde à iodure de carbone – sont utilisées aujourd’hui.
Chaque type de sonde a sa propre conception.
La charge utile pèse en général environ 1 kg et peut donc être embarquée sur de petits
ballons-sondes. En règle générale, les relevés se font durant la montée, à une vitesse d'environ
5 m/s, jusqu’à ce que le ballon explose à une altitude de 30–35 km. Le temps de réponse propre
aux sondes d’ozone est de 20–30 s, de sorte que la résolution verticale en altitude du profil
vertical de l’ozone mesuré est en général de 100–150 m.
Les principes d'exploitation des sondes d'ozone et les différents aspects de l’assurance de la
qualité et du contrôle de la qualité des mesures qu’elles permettent dans le cadre de la VAG sont
détaillés dans le document OMM (2014).
Les mesures de profils d’ozone peuvent aussi être obtenues par d’autres instruments déployés
sous l’égide du NDACC. Les mesures par lidars et radiomètres hyperfréquences, qui font partie
des mesures effectuées dans le cadre du NDACC, sont précieuses pour estimer les tendances
dans la haute stratosphère et pour valider les mesures effectuées par satellite dans la haute
atmosphère. Le désavantage des mesures par détection hyperfréquence est la relativement basse
résolution verticale, mais leur portée potentielle atteint la région de la mésopause. Prises dans
leur ensemble, les données obtenues à partir du sol par les sondes, la méthode Umkehr, les lidars
et les instruments hyperfréquences sont très utiles pour évaluer la qualité des mesures du profil
d’ozone effectuées depuis l’espace.
L’ozone atmosphérique est également mesuré par des instruments embarqués à bord
d’avions ou de satellites. Les observations aériennes sont généralement réalisées au moyen de
photomètres in situ qui prélèvent en vol des échantillons d’air dans la troposphère et dans la
basse stratosphère. Les résultats obtenus sont surtout utilisés dans le cadre de campagnes de
recherche sur la chimie de l’atmosphère, mais des projets à long terme utilisent aussi des aéronefs
commerciaux, notamment MOZAIC (mesure de l’ozone, de la vapeur d’eau, du monoxyde de
carbone et des oxydes d’azote sur des appareils airbus en service), CARIBIC (aéronefs civils
destinés à l’analyse régulière de l’atmosphère à partir de boîtiers d’instruments, http://www.
caribic-atmospheric.com/) et, récemment, IAGOS (projet d’aéronefs en service pour le Système
mondial d’observation).
La surveillance à grande échelle de l’ozone atmosphérique est assurée par des instruments de
télédétection emportés par satellites. Les programmes concernés se répartissent dans deux
532 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
grandes catégories selon leur durée: les campagnes de surveillance à long terme, qui produisent
de grands jeux de données (mondiaux) destinés à l’analyse des tendances et à la cartographie
opérationnelle de l’ozone, et les missions expérimentales de durée limitée.
La quantité de tous les gaz à effet de serre est communiquée en fraction molaire sèche sur les
échelles les plus récentes résumées dans le document OMM (2012b) (situation en 2013) et revue
tous les deux ans à la réunion d’experts OMM/AIEA sur les techniques de mesure du dioxyde
de carbone, d’autres gaz à effet de serre et des traceurs correspondants. L’étalon de référence
pour les gaz à effet de serre est un jeu de cylindres d'air naturel contenant des fractions molaires
connues des gaz analysés. Les paramètres de l’étalon primaire sont transmis aux étalons de
travail des stations par l’intermédiaire des étalons gazométriques secondaires et tertiaires dans
des cylindres.
16.3.1 Dioxyde de carbone (y compris Δ14C, δ13C et δ18O dans le CO2, et les
rapports O2/N2)
Le dioxyde de carbone se mesure en général par des méthodes actives dans la couche limite de
l'atmosphère.
La plupart des mesures du CO2 de fond atmosphérique se font à l’aide d’analyseurs de gaz
non dispersifs dans l’infrarouge, mais quelques programmes utilisent une méthode de
chromatographie en phase gazeuse. La méthode de CPG exige de séparer le CO2 des autres
gaz de l’échantillon d’air, de réduire ce CO2 sur un catalyseur avec du H2 en CH4, puis de
détecter le CH4 provenant du CO2 à l’aide d’un détecteur à ionisation de flamme. Les pics
chromatographiques générés par les échantillons sont comparés à ceux des étalons comprenant
les fractions molaires connues de CO2 pour calculer la fraction molaire de CO2 de l’échantillon.
Les techniques de chromatographie en phase gazeuse ne permettent de mesurer qu’un
échantillon toutes les quelques minutes. Les analyseurs de gaz non dispersifs dans l’infrarouge
s'appuient sur le principe qui fait du CO2 un gaz à effet de serre: sa capacité d’absorber le
rayonnement infrarouge. Ils mesurent l’intensité du rayonnement infrarouge passant à travers
une cellule de l’échantillon et la comparent avec le rayonnement passant au travers d’une cellule
de référence. Il n’est pas nécessaire de connaître la fraction molaire du CO2 du gaz de la cellule de
référence. L’air de l’échantillon, pompé par des injecteurs situés à bonne distance du dispositif de
mesure, et un gaz étalon s’écoulent alternativement au travers de la cellule de l’échantillon. Une
différence de concentration en CO2 entre le gaz de l'échantillon et le gaz de référence (ou entre
les gaz étalon et le gaz de référence) contenus dans les deux cellules crée une tension qui est
enregistrée par les systèmes d'acquisition des données.
La plupart des nouvelles installations mesurent le CO2 selon des méthodes laser de spectroscopie
optique, telles que la spectroscopie infrarouge à transformée de Fourier (FTIR) ou la
spectroscopie d’absorption reposant sur des cavités de haute finesse, laquelle comprend les
techniques CRDS (spectroscopie à temps de déclin d’une cavité optique) et ICOS (spectroscopie
d'absorption en cavité résonante hors d'axe). Ces techniques présentent l’avantage d’exiger peu
d’étalonnage du fait d’une meilleure linéarité et d’une plus grande stabilité de réponse de la part
des détecteurs.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 533
La quantité de dioxyde de carbone est indiquée par la fraction molaire de l’air sec, en µmol mol–1
(qu’on abrège ppm) sur l’échelle de fractions molaires du CO2 de l’OMM (échelle du CO2 X2007
de l’OMM, situation en 2013). La vapeur d’eau influence les mesures du CO2 à deux égards: i)
les molécules d’H2O absorbent également le rayonnement infrarouge et peuvent interférer avec
la mesure du CO2; ii) les molécules d’H2O occupent du volume dans la cellule de l’échantillon,
alors que les étalons sont secs. Dans les lieux humides et chauds, 3 % du volume d’air total peut
être constitué de valeur d'eau. Il convient donc de tenir compte des effets de la vapeur d’eau lors
de la mesure du CO2. Il suffit de sécher l’échantillon jusqu’à ce que son point de rosée se situe
à –50 °C pour éliminer les interférences. Les méthodes spectroscopiques optiques novatrices
permettent souvent de déterminer simultanément la teneur en vapeur d’H2O, ce qui rend en
principe possible de corriger la dilution due aux effets de spectroscopie H2O. Toutefois, selon les
meilleures pratiques (voir OMM 2012b), on continue de préconiser le séchage de l’échantillon
pour déterminer les fractions molaires dans l’air sec, tant que la méthode consistant à de pas
sécher l’échantillon puis à procéder à une correction reste à l’étude.
Une autre technique de mesure du CO2, généralement applicable à de nombreux autres gaz à
l’état de traces, repose sur la captation d’échantillons d’air discrets dans des flacons étanches au
vide. Ces flacons sont expédiés dans un laboratoire central où la teneur en CO2 est déterminée
à l’aide d’analyseurs de gaz non dispersifs dans l’infrarouge, une technique d’analyse CPG ou
un autre instrument. Cette technique est appliquée lorsque la cadence d’échantillonnage (par
exemple une fois par semaine) se prête à la définition des gradients spatiaux et temporels du
CO2, de même qu'à titre de comparaison avec des mesures in situ dans le cadre d’une procédure
de contrôle de la qualité. La stratégie d’échantillonnage présente l’avantage que plusieurs types
de gaz peuvent être déterminés à partir du même échantillon.
Les mesures des rapports O2/N2 et des isotopes stables du CO2 (δ13C et δ18O) contribuent à la
détermination des sources et des puits de carbone entre l’océan et la biosphère. Les mesures
isotopiques s’effectuent souvent à partir des mêmes échantillons discrets qu’on utilise pour
les mesures de fraction molaire du CO2. Les étalons isotopiques sont conservés à l'Agence
internationale de l’énergie atomique (AIEA), mais les sites de mesure appartiennent au réseau
CO2 de la VAG.
Une technique de mesure pour la détermination des isotopes stables est la spectrométrie de
masse à rapport isotopique (IRMS), une spécialisation de la spectrométrie de masse dans
laquelle les méthodes de spectrométrie de masse sont utilisées pour mesurer la quantité relative
des isotopes contenus dans un échantillon donné. Le dispositif de mesure est décrit par le
laboratoire central d’étalonnage de la VAG pour les isotopes stables de l’Institut Max Planck de
biogéochimie d’Iéna (Allemagne) (http://www.bgc-jena.mpg.de/service/iso_gas_lab/pmwiki/
pmwiki.php/IsoLab/Co2InAir). Depuis quelques années, de plus en plus d’analyseurs optiques
qui communiquent les fractions molaires des isotopologues individuels sont disponibles. Ils
sont aujourd'hui d’usage courant. Beaucoup de ces instruments peuvent fournir des rapports
isotopiques avec une répétabilité d’environ 0,05 ‰ pour le δ13C du CO2 atmosphérique et sont
précieux pour les mesures continues. À la différence des techniques de spectrométrie de masse,
le calcul des valeurs de δ de ces instruments s’effectue souvent sur la base du rapport des diverses
fractions molaires mesurées figurant dans des tableaux indiquant le coefficient d’absorption
du matériau et ne se fonde pas sur des mesures directes d’un matériau standard. La teneur
isotopique de référence provient normalement d’une base de données spectroscopique (telle
que la base de données d'absorption moléculaire haute résolution HITRAN), qui est utilisée dans
l’analyse, ce qui n’offre pas une échelle commune telle que l’échelle VPDB ou la Jena Reference Air
Set (JRAS). Quelques corrections applicables aux méthodes de spectrométrie de masse, comme
celles qu’on utilise pour le 17O et le N2O, ne sont pas nécessaires, mais d’autres corrections,
notamment pour l'interférence provoquée par d’autres composantes de l’atmosphère et les
fluctuations des instruments, peuvent être requises en fonction de la méthode utilisée pour
calculer les valeurs du δ à partir de fractions molaires individuelles. Il convient d’établir la
compatibilité entre les techniques avant de publier les résultats des mesures.
Les mesures des variations du rapport O2/N2 dans l’atmosphère sont utiles pour établir les valeurs
limites que peuvent prendre les sources et les puits de CO2, ainsi que pour tester les modèles
biogéochimiques des terres et des océans. Les variations relatives du rapport O2/N2 sont très
faibles, mais peuvent maintenant être observées à l’aide d’au moins six techniques analytiques.
534 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Ces techniques peuvent se répartir en deux catégories: i) celles qui mesurent directement les
rapports O2/N2 (spectrométrie de masse et chromatographie en phase gazeuse) et ii) celles
qui reviennent à mesurer la fraction molaire de l’O2 dans l’air sec (interférométrie, analyseur
paramagnétique, sonde ampérométrique, photométrie ultraviolet du vide). Il a été convenu
de convertir les signaux de sortie bruts, indépendamment de la technique, en modifications
équivalentes exprimées en rapport molaire O2/N2. Pour les mesures de type fraction molaire,
cela exige de prendre en compte la dilution due aux variations de CO2 et, éventuellement,
d’autres gaz. Si de l’air synthétique est utilisé comme substance de référence, des corrections
peuvent aussi être nécessaires pour les différences de rapport Ar/N2. Actuellement, une dizaine
de laboratoires mesurent les rapports O2/N2. L’étalon O2/N2 est en règle générale lié à l’air naturel
fourni par des cylindres de gaz sous pression. Étant donné qu’aucune source de référence
commune n’existe, chaque laboratoire utilise son propre étalon. Il n’existe actuellement pas de
laboratoire central d'étalonnage pour l’O2/N2, de sorte qu’il n’est pas facile de communiquer
les mesures selon une échelle commune. Toutefois, plusieurs laboratoires communiquent leurs
résultats selon une version locale de l’échelle de l'Institut d'océanographie Scripps. Aucune
version n’a encore été adoptée.
La technique tendant à mesurer l’O2/N2 en prenant pour base l’air naturel stocké dans des
cylindres sous pression pour mesurer les modifications dans l’air de fond semble acceptable,
pour autant que les cylindres soient manipulés conformément aux meilleures pratiques. Il faut
notamment les placer horizontalement pour réduire au minimum le fractionnement thermique
ou gravitationnel. Néanmoins, il serait nécessaire de mieux comprendre la source de variabilité
des rapports O2/N2 fournis par les cylindres sous pression. Parallèlement, il est nécessaire de
définir des étalons primaires pour les échelles d’étalonnage dont la précision doit être d’au moins
5 par meg.
Les recommandations pour l’assurance de la qualité des mesures de CO2 (y compris pour le Δ14C,
le δ13C et le δ18O dans le CO2, et les rapports O2/N2) sont révisées tous les deux ans à la réunion
d’experts OMM/AIEA sur les techniques de mesure du dioxyde de carbone, d’autres gaz à effet
de serre et des traceurs correspondants. Le rapport (OMM, 2012b) peut être utilisé comme
référence la plus récente pour le contrôle de la qualité de l’étalonnage et des mesures.
16.3.2 Méthane
De nouveaux analyseurs s’appuyant sur des méthodes optiques pour mesurer le CH4 dans
l’atmosphère offrent une meilleure répétabilité que les méthodes de CPG, mais leur fiabilité à
long terme est encore à l’étude. De plus, lorsque des réparations sont nécessaires, celles‑ci ne
peuvent que difficilement s’effectuer sur le terrain et exigent souvent de renvoyer les pièces à
l’usine. Bien qu’il soit souvent souligné que ces instruments, qui mesurent également la vapeur
d’eau, ne nécessitent pas d’étalonnage ni de séchage des échantillons, les participants à la 13e
réunion des experts du CO2 (OMM, 2006) recommandent vivement d'étalonner régulièrement
les analyseurs et de sécher les échantillons d’air pour les amener à un point de rosée de ≤‑40 °C.
Le protoxyde d'azote se mesure en général par des méthodes actives dans la couche limite de
l'atmosphère. Des recommandations pour les mesures du N2O sont données dans le document
OMM (2009a).
Les recommandations les plus récentes pour l’étalonnage et le contrôle de la qualité des mesures
sont données dans le document OMM (2012b).
Pour le N2O, on trouve depuis peu sur le marché des analyseurs optiques, notamment des
spectromètres d’absorption à cavité de haute finesse dotés de sources laser dans le proche
infrarouge, des analyseurs FTIR et des analyseurs avec sortie de cavité hors axe (OA-ICOS) dotés
de sources laser dans l’infrarouge moyen . Leur précision dépasse celle de la chromatographie
en phase gazeuse et devrait permettre d'atteindre les objectifs de qualité des données. En
général, les premières expériences attestent d’excellentes performances; toutefois, aucune
recommandation ne peut être formulée car l'évaluation de leur applicabilité à long terme est
encore en cours.
Le SF6 se mesure en général à l’aide des techniques de CPG‑DCE, sur le même canal que le N2O.
nombre limité de gaz) et un programme fondé sur des flacons. Davantage d’informations sur
l’instrumentation et les sites d’échantillonnage sont données à l’adresse http://agage.eas.gatech.
edu, http://www.esrl.noaa.gov/gmd/hats/.
Plusieurs techniques sont utilisées pour la télédétection des gaz à effet de serre. Le Système
d’observation de la composition de la colonne totale de carbone (TCCON, https://tccon-wiki.
caltech.edu/) est un réseau de spectromètres à transformée de Fourier au sol enregistrant
directement les spectres solaires dans la région spectrale du proche infrarouge. À partir de ces
spectres, il est possible d’établir les quantités moyennes par colonne du CO2, du CH4, du N2O,
du HF, du CO, de l’H2O et du HDO. Les observations dans l’infrarouge moyen (dans le réseau
NDACC, http://www.acom.ucar.edu/irwg/) permettent de procéder à des mesures exactes des
quantités moyennes par colonne de CH4, de N2O et de CO.
Les gaz réactifs traités dans le Programme de la VAG comprennent l’ozone troposphérique et de
surface, le monoxyde de carbone, les composés organiques volatils, les composés azotés oxydés
et le dioxyde de soufre. Tous ces composés jouent un rôle décisif dans la chimie de l’atmosphère
et participent ainsi de manière non négligeable aux interactions entre la chimie atmosphérique
et le climat, soit par leur action sur l’ozone et sur l’effet oxydant de l’atmosphère, soit par la
formation d’aérosols. La base de mesure mondiale de ces gaz, en dehors de l'ozone de surface et
du monoxyde de carbone, est totalement insatisfaisante.
Différents étalons de référence et diverses méthodes s'appliquent aux gaz réactifs. Pour les gaz
plus stables, un étalon de référence peut être élaboré sous la forme d'un cylindre rempli d'air
ou d'une autre matrice avec la fraction molaire connue du gaz (par exemple, pour le CO, les
terpènes et les hydrocarbures autres que le méthane), alors que, pour d’autres (comme l’ozone
et les composés azotés oxydés), il faut nécessairement recourir aux méthodes ou instruments de
référence.
Les directives sur la mesure de l’ozone troposphérique (dont fait partie l’ozone de surface, lequel
se trouve sur la surface de la Terre) sont détaillées dans le document OMM (2013).
La fraction molaire la plus appropriée pour l’interprétation chimique comme physique des
mesures d’ozone est la fraction molaire de l’ozone dans l’air sec. Toutefois, l’ozone se mesure en
général sans séchage d’échantillon, faute de disposer d’un système efficace pour sécher l’air sans
modifier sa teneur en ozone. Il est recommandé d’associer aux mesures d’ozone des mesures
précises de la fraction molaire de vapeur d’eau pour convertir les valeurs d’ozone en fractions
molaires dans l’air sec sans en diminuer la précision.
Un certain nombre de techniques sont appliquées pour mesurer l’ozone dans l’atmosphère de
fond, notamment:
Ces diverses techniques sont passées en revue dans le document OMM (2013), où figurent
également des informations sur l’opportunité de les appliquer aux stations de la VAG. Il convient
de noter que seules les quatre premières techniques (celles qui peuvent s’appliquer in situ)
répondent au critère de traçabilité établi par la VAG dans le sens que les résultats de leurs
mesures peuvent être reliés à un étalon primaire par une chaîne d’étalonnages ininterrompue.
Parce qu’elle se caractérise par une exactitude et une précision élevées, une faible limite
de détection, une stabilité à long terme, une résolution temporelle suffisante et une facilité
d'exploitation (pratiquement aucun consommable), la technique d'absorption dans l’UV est
recommandée pour les mesures régulières de l'ozone de surface dans toutes les stations de la
VAG.
Les avantages que présentent les méthodes de chimiluminescence (ou détection par
chimiluminescence – CLD) pour mesurer l’ozone sont la rapidité du temps de réponse et une
sensibilité bien supérieure à la technologie UV. Aussi la chimiluminescence se prête‑t‑elle
bien aux mesures de l'air ambiant qui exigent une résolution temporelle élevée (notamment
les mesures en altitude). La CLD n’étant pas une méthode absolue, des étalonnages sont
nécessaires. En raison de sa relative complexité, la chimiluminescence n’est pas recommandée
pour les mesures régulières d’ozone de surface aux stations de la VAG. Toutefois, la méthode de
chimiluminescence est appropriée pour les études expérimentales de l’ozone aux stations de
la VAG dans le cadre de programmes d’une certaine ampleur, comme dispositif de sécurité ou
aux fins du contrôle et de l'assurance de la qualité, les deux techniques produisant des artefacts
différents.
Toutes les techniques électrochimiques font intervenir l’oxydation d’un iodure en iode par de
l’O3:
2 I − + O3 + H 2O → I 2 + 2 OH − + O2
Selon l’approche adoptée, l’iode formé est stabilisé par des réactions antérieures ou réduit à la
surface d’une cathode où le courant électrique est mesuré. Cette méthode, tout comme celle
de l’absorption dans l’UV, est en principe une méthode de mesure absolue. Toutefois, en raison
de certaines sources d’erreurs, telles que la surtension ou l’absence de courant, un étalonnage
s’impose.
La CRDS sans titration est une méthode expérimentale prometteuse pour les observations à venir
qui devrait être intégrée dans les études expérimentales de mesure de l’ozone dans certaines
stations de la VAG lorsque cela se justifie.
Les techniques de télédétection (DOAS, MAxDOAS, lidar) exigeraient une chaîne de traçabilité
analogue à celle qui est nécessaire pour les mesures in situ, ce qui est théoriquement possible
538 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
si l’on se fonde sur les sections efficaces de l'ozone aux longueurs d'onde particulières utilisées
dans les instruments. Le Comité ACSO, chargé d’étudier les sections efficaces d’absorption de
l’ozone, examine actuellement la question.
Le lidar (détection et télémétrie par la lumière) est une méthode de télédétection en surface
adaptée à l’observation de diverses substances à l’état de traces. Pour les mesures de l’ozone dans
la troposphère, un lidar utilise en règle générale au moins deux longueurs d'onde différentes
entre 266 nm et 295 nm. Les longueurs d'onde choisies sont plus courtes que celles qu’on utilise
pour la détection de l’ozone stratosphérique (en général entre 308 et 353 nm). En raison du plus
faible rapport de mélange de l’ozone dans la troposphère, celui‑ci doit y posséder un coefficient
d’absorption plus efficace que dans la stratosphère pour que la sensibilité soit suffisante. En cas
d’absorption excessive, l’essentiel de la lumière disparaît à basse altitude. Il est alors difficile
de recueillir des signaux de mesure à plus haute altitude. L'immense gamme dynamique du
signal rétrodiffusé dans la troposphère (qui atteint déjà plusieurs puissances de dix sur quelques
kilomètres d’altitude) pose un grave problème technique. Les mesures de l’ozone troposphérique
sont recommandées, en particulier s'il s'agit d’établir un lien entre les mesures au sol et les
mesures satellitaires aux stations de la VAG qui ont un programme de recherche étendu.
Les directives sur la mesure du monoxyde de carbone sont détaillées dans le document OMM
(2010). L’échelle du monoxyde de carbone est évaluée chaque année, de même que les échelles
des principaux gaz à effet de serre. La plupart de ces échelles sont présentées dans le document
OMM (2012b).
Le CO peut se mesurer soit in situ, soit par prélèvement en flacon puis analyse en laboratoire. Les
observations en continu in situ fournissent des informations sur la variabilité du CO à une échelle
temporelle allant de quelques secondes à une heure, en fonction de la technique de mesure. À la
différence de l’échantillonnage en flacon, les mesures en continu permettent de communiquer
les données pour ainsi dire en temps réel.
Les observations in situ peuvent se faire à l’aide de techniques d’analyse très diverses. La
radiométrie non dispersive dans l’infrarouge se fonde sur l’absorption spectrale à 4,7 µm. Elle
est fréquemment utilisée pour les mesures en continu à des emplacements reculés. Toutefois,
la dérive des instruments, la précision limitée et les longs temps d'intégration sont des facteurs
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 539
qui limitent la qualité des données qu'il est possible d'atteindre. La chromatographie en phase
gazeuse, lorsqu’elle est couplée avec certains détecteurs (notamment un détecteur à ionisation
de flamme (CPG‑FID) ou un dispositif de réduction à l’oxyde mercurique/d’absorption dans l’UV
(CPG‑HgO)), peut offrir une précision élevée et des limites de détection adéquates. Le détecteur
de réduction au HgO, dont la réponse dans la plage de concentrations du CO atmosphérique
est en général non linéaire, exige une caractérisation minutieuse et réitérée de nombreux points
de la réponse du détecteur. La technique CPG‑FID nécessite la conversion catalytique du CO en
CH4. Pour garantir la fiabilité des résultats, il convient de déterminer régulièrement l’efficacité
de la conversion catalytique. Ce type de difficultés complique les efforts fournis pour maintenir
l'étalonnage des instruments et fournir des mesures exactes. Les mesures de chromatographie
en phase gazeuse sont de nature quasi continue et ne peuvent donc permettre de détecter les
modifications rapides de fractions molaires que peuvent déceler des mesures haute fréquence.
La mesure des composés organiques volatils (COV) est complexe, car l'atmosphère comporte
de nombreuses molécules différentes. S’il est important de suivre systématiquement leur
évolution pour surveiller la qualité de l’air, les faibles concentrations de COV loin de leurs sources
impliquent que seulement quelques molécules peuvent être mesurées régulièrement dans
l’atmosphère de fond. Un ensemble de molécules recommandées pour les mesures dans le cadre
du Programme de la VAG ainsi que les méthodes de mesure conseillées figurent au tableau 16.1.
Les directives relatives aux mesures des COV sont en cours d'élaboration, d'entente avec le
réseau ACTRIS (infrastructure de recherche sur les aérosols, les nuages et les gaz à l’état de
traces) (http://www.actris.eu/). Une procédure d’exploitation standard pour le prélèvement
d’échantillons d’air à l’aide de boîtes d’acier inoxydable est décrite dans le document OMM
(2012a). Des recommandations générales sur les mesures des COV se trouvent dans le document
OMM (2007a). Des ateliers VAG COV, qui se tiennent régulièrement, réexaminent le statut des
mesures des COV dans le cadre du Programme de la VAG (http://www.wmo.int/pages/prog/
arep/gaw/4VOC_expert_meeting2012.html) et fournissent d’autres orientations sur la mise au
point de techniques de mesure, d’assurance de la qualité et d'étalons gazométriques.
540 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Tableau 16.1. Liste des COV prioritaires dans le cadre du Programme de la VAG
Durée de vie
(pour une Flacon Flacon Méthode
Molécule Importance pour la VAG
teneur en OH d’aciera de verre d’analyseb
de 106 cm –3)
1. Éthane 1,5 mois – Source de méthane ✓ ✓ CPG-FID
– Sources naturelles
– Combustion de la biomasse
– Combustible fossile
– Production océanique
(hémisphère Sud)
– Tendance de l’ampleur du cycle
saisonnier
– Indicateur de la chimie des
halogènes
Durée de vie
(pour une Flacon Flacon Méthode
Molécule Importance pour la VAG
teneur en OH d’aciera de verre d’analyseb
de 106 cm –3)
11. Sulfure de 2 jours – Importante source naturelle de ? ? CPG-FID
diméthyle soufre PTR-SM
– Précurseur d’aérosols sulfatés
– Traceur de bioproductivité marine
La technique analytique recommandée pour les monoterpènes est la CPG‑SM. Bien qu’il soit
possible de mesurer certains terpènes à l’aide d’une technologie FID, la complexité de l’analyse
chromatographique (du fait de la co‑élution des pics, en particulier en présence de composés
aromatiques) rend l’identification et la quantification des pics difficiles. La méthode CPG‑SM
présente une plus grande sensibilité.
Les hydrocarbures oxygénés, notamment les analytes 8–10 du tableau 16.1, peuvent également
être mesurés à l’aide de la CPG‑FID ou de la CPG‑SM. Il convient de prêter une attention
particulière à la préparation des échantillons (et à leur séchage) et les systèmes de prise doivent
être conçus de manière à réduire au minimum les phénomènes secondaires et les pertes de
composés, qui sont fréquentes dans le domaine de l’analyse de composés oxygénés. L’acétone
et le méthanol peuvent aussi se mesurer à l’aide de la spectrométrie de masse, par réaction de
transfert de protons (PTR‑SM). La PTR‑SM présente l’avantage d’être une méthode en temps
réel qui n’exige pas de préconcentrer les échantillons. Toutefois, cette technique est moins
sensible que les méthodes de CPG et des composés isobariques tels que l’O2H+ et le méthanol
sont susceptibles de créer des interférences. Étant donné que la stabilité des COV oxygénés dans
des échantillons ponctuels (flacons d’acier inoxydable ou de verre) reste très incertaine, mieux
vaut mesurer ces espèces en appliquant des méthodes en temps réel dans un certain nombre de
542 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
stations de mesure. Il a été indiqué que l’acétone pouvait se stocker sans difficulté dans certains
flacons. La possibilité d’analyser ce composé dans un flacon d’acier inoxydable ou de verre
devrait être explorée.
Le formaldéhyde (HCHO) n’est pas stable dans des flacons et doit être mesuré in situ. Parmi les
méthodes d’analyse envisageables figurent la méthode fluorimétrique de Hantzsch (technique
chimique par voie humide) ou la méthode DOAS. Les deux sont relativement complexes et
nécessitent que les opérateurs potentiels suivent une formation spécialisée. Il semble donc
peu probable que plus d’un petit nombre de stations au sol puissent assurer ces mesures. Les
satellites détectent régulièrement du formaldéhyde. Les données satellitaires en indiquent la
quantité totale dans la colonne verticale et l’un des objectifs majeurs du Programme de la VAG
est que des mesures soient périodiquement effectuées en surface dans des sites sélectionnés à
des fins de comparaison/étalonnage (vérification au sol).
La faisabilité des mesures de HCHO à l’aide des technologies PTR‑SM (Wisthaler et al., 2008;
Warneke et al., 2011) et QCL (Herndon et al., 2007) a été établie dans le cadre de campagnes de
mesures pour des durées limitées. Leur applicabilité à des mesures régulières à long terme n’a
pas encore été éprouvée.
Il est préférable de mesurer l’acétonitrile par CPG‑SM, car la FID est peu sensible à ce composé.
On a également effectué des mesures d’acétonitrile à l’aide de divers détecteurs spécialement
conçus pour les gaz appauvris et l’azote. De nombreuses mesures atmosphériques de
l’acétonitrile, dont il a été fait état récemment, ont été effectuées à l’aide de la PTR‑SM ou par
spectroscopie de masse en mode ionisation chimique à pression atmosphérique (AP‑CIMS). La
stabilité de l’acétonitrile dans des échantillons ponctuels étant très précaire, l’échantillonnage
ponctuel n’est pas acceptable dans le cadre de la VAG et les mesures peuvent se limiter à
quelques sites sélectionnés assurant des mesures approfondies.
Le sulfure de diméthyle (DMS) peut se mesurer par CPG‑FID, par chromatographie en phase
gazeuse utilisant un détecteur à photométrie de flamme (CPG‑FPD), par CPG‑SM et par PTR‑SM.
Toutefois, les concentrations de DMS pouvant se mesurer régulièrement dans le cadre d’analyses
standard des hydrocarbures non méthaniques, l’analyse CPG‑FID des échantillons d’air complets
serait la méthode la plus simple pour cette mesure. Il est établi dans la documentation que le
DMS est stable dans certains flacons et sa mesure est donc tout à fait possible en tant qu'élément
d’un réseau de flacons. Des mesures du DMS sont également souhaitables in situ, du moins
dans la phase précoce de l'exploitation du réseau de flacons afin de garantir la compatibilité des
méthodes.
La somme du monoxyde d’azote (NO) et du dioxyde d’azote (NO2) donne ce qu’on appelle
traditionnellement le NOx. La somme de tous les oxydes d’azote dont le nombre d’oxydation est
supérieur à 1 donne le NOy. Leur mesure dans l’atmosphère globale est très importante car le
NO a une grande influence tant sur l’ozone que sur le radical hydroxyle (OH). Le NO2 mondial
est actuellement mesuré à partir de satellites et ces mesures suggèrent que d’importantes
concentrations de ce gaz se trouvent sur la plupart des continents. Un vaste réservoir d’azote
fixé se trouve dans l’atmosphère sous forme de NOy. L’influence du dépôt de ce réservoir sur la
biosphère reste mal connue, mais pourrait être non négligeable. Il existe des techniques efficaces
de mesure in situ pour le NO et le NO2, mais la fiabilité des techniques de mesure du NOy doit
encore être améliorée. La technique CLD, largement utilisée, donne avec des convertisseurs au
molybdène (Mo) un signal entre le NO2 et le NOy qui devrait être appelé NO2(Mo) ou NO2+ (voir
ci‑dessous).
Des directives détaillées relatives aux mesures de l’azote réactif sont en cours d’élaboration,
avec la participation du réseau ACTRIS. Le présent guide se concentre essentiellement sur
le NO et le NO2, car leurs mesures, qui sont actuellement particulièrement approfondies et
solides, justifieraient la mise en place d’un système complet d’assurance de la qualité. Des
recommandations sur les mesures du NO et du NO2 se trouvent dans le document OMM (2011a).
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 543
Les mesures d’oxydes d’azote (NO et NO2) peuvent s’effectuer par des techniques passives ou
actives et par télédétection. Les techniques actives se répartissent en techniques d’intégration
et in situ: les techniques d’intégration comprennent une étape d’échantillonnage prenant
généralement la forme d’une collecte d’échantillons en phase liquide, et une analyse en différé,
alors que les mesures in situ (continues) donnent directement lieu à l’analyse de la composition
de l’échantillon d’air. Les méthodes passives sont toujours des méthodes d’intégration. Les
méthodes actives comprennent la méthode de Saltzman et des méthodes apparentées, telles que
le test de Griess ou la méthode à l’iodure de sodium. Cette dernière est notamment utilisée dans
le réseau du Programme concerté de surveillance continue et d’évaluation du transport à longue
distance des polluants atmosphériques en Europe (http://www.emep.int). En raison de la forte
réactivité des NOx, un échantillonnage en flacon est impossible.
La détection par chimiluminescence induite par de l’ozone est la plus largement utilisée des
techniques in situ. Les instruments pertinents sont en règle générale très sensibles au NO;
toutefois, ils ne peuvent pas mesurer le NO2. Aussi le NO2 doit‑il être transformé en NO avant la
détection. L’instrument exécute les mesures en mode NO, puis en mode NO + NO2. Lorsque le
rendement de la transformation est déterminé avec soin, la différence permet d’établir le rapport
de mélange du NO2. Ainsi, une haute résolution temporelle (< 10 min) est recommandée pour
garantir que l’échantillonnage s’opère avec la même masse d’air durant les mesures successives
du NO et du NOx. La transformation du NO2 en NO intervient par photolyse du NO2 aux
longueurs d’onde comprises entre deux limites (320 < λ < 420 nm) à l’aide d’un convertisseur
photolitique (PLC) associé à une lampe à arc ou un convertisseur de lumière bleue (BLC)
avec des diodes électroluminescentes (LED). Les LED ont pour avantages une durée de vie
considérablement plus longue, des rendements de conversion presque constants, leur simplicité
sur le plan mécanique et la facilité de leur mise sous et hors tension (absence de vanne ou de
volume mort supplémentaire). Leur désavantage est leur faible rendement de conversion.
Toutefois, les nouveaux convertisseurs LED offrent des rendements analogues ou même
supérieurs aux systèmes de lampe à arc traditionnels. L’utilisation de convertisseurs UV‑LED est
donc recommandée pour les mesures de NO2 de la VAG.
Outre ces méthodes, des techniques d’absorption optique ont été mises au point pour la
détection du NO2, notamment la spectroscopie d'absorption par diode laser accordable
(TDLAS), la spectroscopie d’absorption optique différentielle, la fluorescence induite par laser
(LIF), la spectroscopie infrarouge à transformée de Fourier et la spectroscopie à temps de déclin
d’une cavité optique (CRDS). Elles mesurent toutes le NO2 directement. Les améliorations de
la CRDS pour la mesure du NO2 et du NO sous la forme de NO2 après oxydation par l’ozone
semblent prometteuses, mais les mesures souffrent encore d’imprécisions au niveau du zéro.
Récemment, il a été montré que les instruments de spectroscopie laser à cascade quantique
utilisés pour la recherche se prêtaient bien aux mesures continues et directes du NO et du NO2
(Tuzson et al., 2013). Cette technique pourrait bien s’imposer à l’avenir.
Dernièrement, l’analyseur CAPS (une technique de mesure de décalage de phase induit par une
cavité optique) a été mis sur le marché. Une expérience comparative menée à bien par le réseau
ACTRIS a produit d'excellents résultats. Toutefois, la limite inférieure de détection est de quelque
50 ppt. De ce fait, l’instrument se prête très bien aux mesures de sites ruraux ou subissant
l'influence des activités humaines, mais non à celles d’emplacements reculés ayant en général
des fractions molaires de NO2 inférieures à 50 ppt.
544 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
À l’heure actuelle, aucune technique éprouvée ne peut rivaliser avec la détection par
chimiluminescence induite pour mesurer le NO dans des lieux éloignés. Les méthodes
d’intégration, passives comme actives, ne sont pas acceptées dans le Programme de la VAG en
raison de leur sélectivité et résolution temporelle insuffisantes.
Pour l’instant, le Programme de la VAG n’a pas émis de directives sur les mesures relatives au
SO2. Des recommandations d’ordre général sont formulées dans le document OMM (2001).
Cependant, une fois qu’il aura achevé la mise en place, actuellement en cours, du système
d’assurance de la qualité pour les oxydes d’azote, le Groupe consultatif scientifique de la VAG
pour les gaz réactifs prévoit d’instaurer un système identique pour le SO2 (portant notamment
sur les institutions centrales et les directives sur les mesures).
Parmi les méthodes de mesure in situ, la TMC (photométrie après réaction du SO2 avec du
tétrachloromercurate) et la fluorescence pulsée sont très largement utilisées. La première a
une exactitude élevée, mais une limite inférieure de détection élevée, et la manipulation du
mercure dans le laboratoire est dangereuse. Même si le temps de réponse d’un analyseur par
fluorescence pulsée est plus lent, sa facilité d’étalonnage, sa sûreté de fonctionnement, son
exactitude et la spécificité du SO2 le rendent préférable. Des techniques plus sensibles, faisant
appel à la chromatographie en phase gazeuse, peuvent être appliquées. Celles‑ci exigent
toutefois une grande compétence technique et une attention soutenue. La sensibilité peut
être accrue si les analyseurs à fluorescence sont équipés de filtres d’excitation plus sélectifs.
Par exemple, il est possible de connecter deux assemblages de miroirs en série et d’utiliser des
tubes photomultiplicateurs spécialement adaptés. Des corrections numériques des substances
interférant avec les mesures peuvent être apportées. Cela n’est toutefois pas nécessaire en milieu
rural ou dans de régions reculées. On peut ainsi atteindre une limite inférieure de détection de
quelque 50 ppt. Un autre accroissement de la sensibilité peut être obtenu par la mise en place
d’un second canal dans lequel seul le SO2 est extrait, ce qui permet une lecture très spécifique
après soustraction des deux canaux.
Le SO2 ayant une courte durée de vie dans l’atmosphère, il faut connaître ses sources et ses puits
pour comprendre le cycle du soufre. Le meilleur moyen d’y parvenir est d’utiliser des fréquences
d’échantillonnage inférieures à 1 heure. Ainsi, la meilleure technique pour le suivi à long terme
du SO2 consiste aujourd’hui à associer l’analyseur à fluorescence pulsée avec un échantillonnage
par filtrage. Les échantillons filtrés devraient être exposés à des intervalles déterminés, mais
suffisamment rapprochés pour permettre le contrôle en continu de la qualité de l’analyseur.
Pour l’instant, le Programme de la VAG n’a pas émis de directives détaillées sur les mesures de
l’hydrogène moléculaire.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 545
La quantité d’hydrogène moléculaire est communiquée en fraction molaire sèche sur l’échelle
la plus récente (OMM, 2012b). Le H2 peut se mesurer soit in situ, soit par prélèvement en flacon
puis analyse en laboratoire. Un exemple du système de mesure mis en place dans les stations
mondiales de la VAG est donné dans Grant et al. (2010).
Des problèmes ont souvent été rencontrés du fait de l’instabilité de l’H2 dans des gaz de
référence. Pour cette raison, il convient de se référer aux recommandations relatives à
l'étalonnage et à l’assurance de la qualité des mesures qui sont formulées dans le document
OMM (2012b).
On appelle dépôts atmosphériques humides les gaz et particules déposés par précipitation sur
la surface de la Terre. Ces gaz et particules ont des sources et compositions très variées et ils
sont en général présents sous la forme de traces dans l’atmosphère et dans les précipitations.
Ces constituants à l’état de traces sont capturés par les précipitations lorsqu’elles se forment
dans l’atmosphère et tombent sur la Terre. Une fois déposés, ils constituent une importante part
du bilan de masse des polluants liés aux transports longue distance. Ils ont une incidence sur
la chimie des précipitations, mais peuvent aussi en avoir une sur la chimie des eaux de surface
et des terres immergées sur lesquelles ils se déposent. Leurs effets, qui peuvent être directs
ou indirects, sont susceptibles d’être nocifs comme bénéfiques. Par exemple, ils constituent
un problème pour l’environnement par suite de la combustion des combustibles fossiles.
Celle‑ci intervient lorsque des oxydes de soufre et d'azote, émis au cours de la combustion,
se transforment dans l’atmosphère en sulfates et nitrates acides lors des précipitations. Les
composés sous forme de trace que l’on trouve dans les dépôts humides comprennent également
le sel de mer, des nutriments, des produits chimiques provenant des particules du sol, des
produits chimiques toxiques (organiques ou non) et des acides organiques. Des études ont
montré que certains produits chimiques trouvés dans les dépôts humides peuvent stimuler la
production biotique marine et, ainsi, risquer de lier les dépôts humides de l’atmosphère au cycle
du carbone et au changement climatique.
Les mesures relatives à la chimie des précipitations révèlent quelles substances à l’état de traces
sont présentes dans les dépôts humides, ainsi que leur quantité. Les données pertinentes
peuvent être utilisées pour évaluer la qualité de l’air et pour déterminer et suivre de près les
modifications des émissions gazeuses et particulaires dans l’atmosphère. Ainsi, les mesures
relevant de la chimie des précipitations nous renseignent sur les mouvements des constituants
à l’état de traces entre l’atmosphère et les terres émergées ou les océans. Elles sont donc
importantes, car elles contribuent à notre connaissance des cycles chimiques de ces éléments,
en particulier ceux qui sont susceptibles de nuire aux systèmes terrestre et aquatique ou à notre
climat.
Il convient de planifier avec le plus grand soin les mesures relatives à la chimie des précipitations
afin de garantir qu'elles soient représentatives. Bien que les mesures se fassent en un lieu
particulier, elles devraient refléter en moyenne les mesures susceptibles de se faire dans les
environs. D’un point de vue général, l’emplacement de prélèvement des échantillons devrait
être représentatif de l’affectation des terres dans la région. Par exemple, dans une zone dominée
par l’agriculture, le site devrait être exploité à des fins agricoles. Cette représentativité spatiale
devrait rester valable quelle que soit la saison et même l’année. Idéalement, un site devrait être
représentatif sur les plans spatial et temporel. Il convient d’éviter toute contamination localisée
de site naturel due à des activités humaines, agricoles, industrielles ou autres, de même que tout
impact local de sources naturelles telles que les rivages océaniques, les volcans et les fumerolles.
Les échantillons prélevés ne devraient pas subir l’impact d’arbres ou d’autres végétaux. Le terrain
546 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
devrait être plat et ne devrait pas être trop exposé à des vents susceptibles de compromettre la
représentativité des chutes de pluie ou de neige. Il faut également éviter que l'échantillon soit
en contact avec des êtres humains ou toute chose susceptible de modifier ses caractéristiques
chimiques. Pour veiller à la représentativité des mesures du point de vue de la chimie des
précipitations, il est nécessaire de respecter strictement les exigences liées à l’emplacement du
site, aux conditions qui prévalent sur place, à l’installation des équipements, aux protocoles
d’exploitation et à la maintenance. Ces exigences sont consignées dans le document OMM
(2004b).
L’observation de la chimie des précipitations peut se répartir en deux étapes: les activités liées à
la collecte des échantillons et les activités liées à l’analyse en laboratoire.
Le Programme de chimie des précipitations de la VAG a pour objectif principal de prélever des
échantillons de dépôts humides stricto sensu. Cela signifie que les appareils d'échantillonnage
ne sont exposés que durant les précipitations et que les substances à l’état de traces présentes
dans les échantillons ne sont déposées que par les précipitations. Les substances à l’état de traces
provenant de poussières, de particules fines ou de dépôt gazeux par temps sec sont exclues.
Cela permet d’étudier la chimie des précipitations sans que celles-ci soient contaminées par des
dépôts secs. Surtout, les méthodes et équipements pour prélever un échantillon représentatif ne
sont pas les mêmes pour les dépôts humides et pour les dépôts secs. Les processus physiques et
chimiques auxquels sont soumis les dépôts humides et les dépôts secs sont très différents.
Le meilleur moyen de garantir le prélèvement d'un l’échantillon humide stricto sensu est
d’utiliser un échantillonneur d'eau de pluie à déclenchement automatique, qui ne s’ouvre que
pendant les précipitations. Ce type d’échantillonneur se compose des éléments suivants: un
réceptacle pour recueillir les échantillons de précipitations (entonnoir et bouteille, auget, etc.),
un couvercle qui libère ou ferme l’ouverture du réceptacle, un pluviomètre, un mécanisme
d’entraînement motorisé et les commandes‑contrôles électroniques qui s’y associent, ainsi
qu’une structure de support pour loger les éléments. Le réceptacle devrait avoir un volume
suffisant pour contenir toutes les précipitations recueillies durant la période d’échantillonnage. Il
est recommandé de disposer d’un système pouvant être actionné manuellement pour les essais,
le nettoyage et la maintenance courante. Une conception modulaire donnant la possibilité de
retirer indépendamment les divers éléments, notamment le pluviomètre, permet d’accélérer
les réparations et de limiter les outils et les compétences nécessaires. Si l'on préfère ne pas
utiliser d’échantillonneur automatique, il est possible de recueillir des échantillons en ouvrant
manuellement le collecteur d'échantillons au début des précipitations, puis de le fermer dès que
celles‑ci cessent. La collecte manuelle d’échantillons, qui exige que des observateurs surveillent
les conditions météorologiques en permanence, requiert donc beaucoup de personnel.
Selon le Programme de chimie des précipitations de la VAG, la priorité absolue est de recueillir
un échantillon de dépôt humide quotidiennement (toutes les 24 heures) en récupérant
l’échantillon chaque jour à heure fixe, de préférence à 0900 (heure locale). Si les ressources
ne permettent pas de recueillir et d'analyser les échantillons chaque jour, il faut prévoir des
périodes d’échantillonnage sur plusieurs jours, pouvant aller jusqu’à une semaine. D’autres
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 547
protocoles d’échantillonnage sont décrits dans le document OMM (2004b). Recueillir les
échantillons quotidiennement permet de réduire le risque que des espèces chimiques instables
ne se dégradent ou que d’autres modifications physiques ou chimiques n’interviennent dans
l'échantillon pendant qu'il se trouve dans l’échantillonneur in situ. Cela permet non seulement
de réduire le risque de compromettre l’intégrité de l’échantillon, mais aussi d’obtenir des
données de plus grande valeur. L’analyse de la trajectoire des orages et les modèles décrivant
la relation source‑récepteur sont beaucoup moins compliqués lorsque l’on peut considérer que
les précipitations proviennent d’un seul événement météorologique. Les échantillons recueillis
sur plusieurs jours ou après une semaine risquent beaucoup plus de contenir des précipitations
provenant de plusieurs orages, intervenus dans des conditions météorologiques différentes.
De plus, les données quotidiennes peuvent être intégrées mathématiquement pour établir les
moyennes sur une semaine ou sur une plus longue période, mais il n’est pas possible de répartir
les données hebdomadaires en composantes quotidiennes sans se livrer à des suppositions très
incertaines.
Les récipients utilisés pour recueillir, stocker et expédier les échantillons devraient être
incassables et pouvoir être scellés contre les fuites de liquide ou de gaz. Il est recommandé
d’utiliser des conteneurs en polyéthylène haute densité. Tous les conteneurs doivent être
nettoyés à l’aide d’eau désionisée de qualité connue et garantie. Le rapport (OMM, 2004b) décrit
dans le détail les procédures de nettoyage des conteneurs et les mesures permettant de faire
en sorte que les exigences de propreté soient respectées sans interruption, tout au long de la
collecte, du stockage et de l’expédition des échantillons.
Les paramètres chimiques ci‑après sont recommandés pour l’analyse des échantillons
de précipitations de la VAG: le pH, la conductivité, les sulfates, les nitrates, les chlorures,
l’ammonium, le sodium, le potassium, le magnésium et le calcium. Il est recommandé de
procéder à des analyses du formiate et de l’acétate dans les zones où l’on soupçonne une teneur
élevée en acides organiques. Les teneurs en nitrites et en fluorure peuvent également jouer un
rôle important dans certaines zones, même si leur analyse n’est pas requise par la VAG à ce jour.
Les méthodes analytiques considérées comme préférables sont indiquées au tableau 16.2.
Tableau 16.2. Paramètres chimiques nécessaires pour les analyses effectuées dans le cadre du
Programme de chimie des précipitations de la VAG, et méthodes analytiques recommandées
NO2–, F– Facultatif CI
L’expérience acquise à ce jour dans le cadre des comparaisons effectuées par les réseaux
et laboratoires régionaux montre que la mesure du pH dans les précipitations est difficile,
principalement du fait de la faible force ionique des échantillons. Les échantillons peuvent
également se dégrader en raison de l’activité biologique et devraient donc être tenus au
réfrigérateur jusqu’à ce qu’ils soient portés à la température ambiante pour leur analyse. Les
mesures de pH devraient s’effectuer dans les deux jours suivant l’arrivée de l’échantillon au
laboratoire.
La conductivité d’une solution, qui est l’inverse de sa résistance spécifique, peut être mesurée
directement à l’aide d’un pont de mesure de la conductivité et d’une cellule de mesure
d’échantillons. La conductivité, qui varie en fonction de la température de la solution, dépend de
la concentration et des types d’ions libres présents dans la solution. La valeur de la conductivité
dépendant aussi de la surface de mesure des électrodes et de leur distance mutuelle, l'appareil de
mesure doit être étalonné pour obtenir la constante de cellule ou pour ajuster le conductimètre.
Une solution de KCl de concentration et de conductivité connues est utilisée pour l’étalonnage.
La conductivité est mesurée et exprimée en microsiemens par centimètre (µS cm–1), et corrigée à
25 °C. La plage de conductivité des échantillons de précipitations va de 5 à 1 000 µS cm–1. Pour
les petits volumes d’échantillons, l’aliquote servant à mesurer la conductivité peut être utilisée
pour déterminer le pH. La conductivité devrait alors être mesurée en premier lieu afin d’éviter
toute erreur due à une contamination par le sel provenant de l’électrode de pH.
b) Une cellule de conductivité (si l’on prévoit des valeurs d’échantillons de précipitations très
basses (<20 µS cm–1), il convient d’utiliser des cellules de conductivité spéciales ayant une
faible constante de cellule);
Depuis quelques années, la chromatographie par échange d’ions (CI) est largement utilisée
pour analyser les principaux anions et cations des précipitations. Elle se conjugue souvent avec la
détection électrochimique.
Les sulfates, les nitrates, les chlorures, de même que d’autres anions des précipitations sont
séparés dans une colonne d'échange d'ions en raison de leurs différentes affinités respectives
avec le matériau de l’échange. Le matériau le plus souvent utilisé pour la séparation des anions
est un polymère revêtu de sites actifs d’ammonium quaternaire. Après la séparation, les anions
passent à travers un suppresseur, qui échange tous les cations contre des ions H+. Aujourd'hui,
à la place de colonnes d’échange à cations fortement acides, on utilise des suppresseurs
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 549
Plusieurs échangeurs d’anions présentant des caractéristiques différentes ont été commercialisés.
La durée d’une analyse et la qualité de la séparation des différents signaux dépendent du type de
colonne et d’éluant, de même que de la concentration et du débit de l’éluant.
Tout anion ayant un temps de rétention similaire à celui des principaux anions de la solution peut
entraîner des interférences. Par exemple, s’il se trouve du NO2–, celui‑ci élue immédiatement
après le Cl–, ce qui peut rendre le pic asymétrique. Dans de rares cas, lorsque la concentration de
Cl– est beaucoup plus élevée que le NO3 –, elle peut aussi influencer la détermination du NO3 –. Il
convient de consulter le manuel pour voir comment divers programmes d’intégration prévoient
de résoudre le problème.
Si l’on procède avec soin, il est possible d’effectuer plusieurs milliers d'analyses avec la même
colonne de séparation des anions. La méthode la plus efficace pour protéger cette dernière
consiste à la faire précéder d’une colonne préalable. Les fabricants donnent les instructions
détaillées nécessaires dans les manuels d’utilisation des colonnes.
Le principe de la mesure des cations est le même que celui de la détermination des anions à ceci
près que des matériaux différents sont utilisés pour les colonnes et que la colonne de suppression
est souvent omise. Le matériau que l’on utilise en général pour la séparation des cations est
une résine échangeuse de cations dotée de groupes actifs fixés sur sa surface. Un capteur de
conductivité détecte les ions du sodium, de l’ammonium, du potassium, du calcium et du
magnésium sans changement de l’éluant lorsque certaines colonnes sont usées. Dans d’autres
colonnes, des cations monovalents (Na+, NH4+ et K+) sont déterminés à l’aide d’un éluant et de
cations divalents (Mg2+ et Ca2) avec un autre éluant (en raison de leur plus grande affinité avec la
résine).
Tout cation ayant un temps de rétention similaire à celui des principaux cations peut entraîner
des interférences. Par exemple, dans des échantillons ayant de hautes concentrations de Na+, le
pic du NH4+ devient asymétrique et entraîne souvent des erreurs non négligeables. Une mesure
utilisant alors davantage d'éluant dilué pourrait améliorer la distinction entre les pics.
Les ions présents dans la solution de l’échantillon sont transformés en atomes neutres dans
une flamme aéro‑acétylène. Un faisceau lumineux provenant d’une cathode creuse ou d’une
lampe à décharge sans électrode passe au travers de la flamme. En mode AAS, l’absorption de
la lumière par les atomes dans la flamme est mesurée par un détecteur selon les indications
d’un monochromateur réglé sur la longueur d’onde appropriée. L’absorption de la lumière est
proportionnelle à la concentration des ions de l’échantillon. En mode AES, on mesure la lumière
émise par les atomes excités dans la flamme. La plupart des instruments commercialisés peuvent
être utilisés dans les deux modes. La spectrométrie d'émission atomique est le mode privilégié
pour la mesure du sodium.
La spectrométrie d’absorption atomique peut entraîner une ionisation comme des interférences
chimiques. Ces interférences, causées par d’autres ions de l’échantillon, réduisent le nombre
550 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
d'atomes neutres dans la flamme. Afin d’éviter ce phénomène, on ajoute une quantité
relativement élevée d’un élément facilement ionisé aux échantillons et aux solutions
d’étalonnage. Pour la détermination du sodium et du potassium, on ajoute du césium. Pour
prévenir les interférences chimiques provenant de l’aluminium et des phosphates, il est possible
d’ajouter du lanthane aux échantillons et aux solutions d’étalonnage pour le calcium et le
magnésium.
Les acides carboxyliques présents dans les précipitations sont très instables et disparaissent
rapidement des échantillons sans conservateur. Pour générer des données fiables, il convient
d’échantillonner les précipitations quotidiennement ou lors de chaque épisode de précipitations,
et d’assurer immédiatement leur conservation par l’addition d’un biocide tel que le chloroforme
(CHCl3). En règle générale, 250 ml d’aliquote d’échantillon (ou moins pour les événements
météorologiques de faible volume) sont traités avec 0,5 ml de CHCl3. Le flacon de chaque
échantillon est alors scellé hermétiquement, puis réfrigéré jusqu’à son analyse.
Les espèces carboxyliques peuvent être analysées tant par chromatographie par échange d’ions
(CI) (à l’aide d’un éluant dilué) que par chromatographie par exclusion d’ions (IEC). Toutefois,
les acétates et les propionates co‑éluent lors de l’analyse par CI et il est alors impossible de
procéder à leur quantification. L’IEC, qui présente moins d’interférences liées à la co‑éluation
d’espèces, se prête particulièrement bien à l’analyse des échantillons de précipitations.
Pour l’analyse par IEC, des échantillons sont ajoutés à un éluant constitué d’acide chlorhydrique,
qui migre ensuite à travers une colonne de séparation, une colonne de suppression et un
détecteur. La résine de la colonne de séparation dissocie les anions selon le principe d'exclusion
de Donnan; les anions sont retenus et successivement séparés du fait de leurs pKa respectifs et
des interactions de van der Waals. Les anions des acides plus forts à faible pKa, comme le H2SO4,
le HNO3 et le HCl, sont pour ainsi dire exclus et co‑éluent rapidement dans le chromatogramme;
les anions des acides plus faibles à pKa plus élevé, comme le HCOOH et le CH3COOH, éluent plus
tard dans le chromatogramme. La colonne de suppression comprend une résine échangeuse
de cations et de l’argent sur les sites d’échange; des échanges ont lieu entre l’H+ et l’argent;
l’argent libéré réagit ensuite avec le Cl– dans l’éluant pour former du chlorure d’argent (AgCl),
qui précipite dans la colonne. Les analytes acides quittent le suppresseur dans un flux d'eau
désionisée. La détection repose sur la conductivité.
16.6 AÉROSOLS
Les aérosols atmosphériques jouent un rôle important à plusieurs égards, et notamment pour
le changement climatique, l’acidification, la qualité de l’air aux plan régional et local, et la santé
humaine. L’impact sur le climat qu’ont les aérosols découle de leurs effets radiatifs directs et de
leurs effets indirects sur les propriétés des nuages. Les problèmes régionaux comprennent leur
impact potentiel sur la vie humaine et la mortalité, de même que leur impact environnemental.
Parmi les sources importantes d’aérosols figurent les émissions urbaines ou industrielles, les
fumées provenant de la combustion de la biomasse, la formation secondaire de précurseurs
d’aérosols gazeux, le sel de mer et la poussière. Il reste à déterminer les sources naturelles de
plusieurs aérosols et leur faction organique.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 551
Le tableau 16.3 présente une liste de paramètres liés aux aérosols recommandés pour les mesures
relevant du Programme de la VAG. Les documents OMM (2003b) et OMM (2011c), en cours de
révision3, présentent l’ensemble des directives relatives aux mesures des aérosols.
Tableau 16.3. Liste exhaustive des paramètres relatifs aux aérosols recommandés pour les
mesures sur le long terme du réseau mondial
Paramètre Fréquence
d’observation
Épaisseur optique des aérosols pour plusieurs longueurs d'onde En continu
Actuellement, le prélèvement par filtrage des aérosols ambiants, suivi d’analyses en laboratoire,
reste la méthode la plus utilisée et la moins onéreuse pour déterminer la composition chimique
des aérosols, même si la présence d’artefacts est largement attestée. Les artefacts sont très
souvent liés à la présence d’espèces semi‑volatiles qui soit se condensent sur l’échantillon
(artefact positif), soit s’évaporent sur le filtre après l’échantillonnage (artefact négatif). Un certain
nombre de méthodes ont été proposées pour limiter ces artefacts, mais aucune d'entre elles ne
peut s’appliquer de manière satisfaisante à toutes les substances chimiques présentes dans les
aérosols.
3
Pour les dernières versions, voir les publications de la VAG (http://w ww.wmo.int/pages/prog/arep/gaw/gaw-
reports.html).
552 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
des espèces carbonées s’opère sur deux lignes de prélèvement différentes, car des types de
décomposeurs et de matériaux de filtrage différents sont nécessaires pour les analyses du
carbone et les espèces inorganiques. Une troisième ligne pourrait être mise en place pour le
prélèvement et l’analyse de la composition élémentaire des aérosols.
À l’évidence, les méthodes de limitation des artefacts sont relativement chères et d’une
application plutôt difficile. Dans le cadre de la VAG, compte tenu de l'éloignement et des
ressources disponibles dans certains sites, l’utilisation de décomposeurs devrait davantage être
considérée comme une recommandation que comme une exigence. Il faut être conscient que des
artefacts sont créés par l’échantillonnage, en particulier lorsque la température du système de
prélèvement dépasse 20 °C. Il convient d’en tenir compte dans les messages envoyés au Centre
mondial de données de la VAG sur les aérosols.
Les lignes d'échantillonnage de grand ou petit volume sont acceptées dans le cadre de la VAG.
Pour simplifier l’opération, il est suggéré d’utiliser une technique de différenciation pour séparer
la fraction grossière de la fraction fine. En particulier, l’un des filtres devrait être placé derrière
l’entrée sélective pour un diamètre aérodynamique de 10 µm. Un filtre parallèle devrait être placé
derrière l’entrée sélective pour la fraction fine (diamètre aérodynamique de 2,5 µm à l’humidité
relative ambiante ou 1,0 µm dans l’air sec). Le deuxième filtre produit la fraction fine, alors que
la différence entre les deux filtres donne la fraction grossière. Pour l’échantillonnage à grand
volume, l’utilisation d’échantillonneurs dichotomiques est une option intéressante permettant de
différencier la fraction fine d’aérosols de la fraction grossière.
Les échantillonneurs à faible volume sont d’une mise en œuvre plus facile. Pour les mesures
d’aérosols courantes à long terme dans les stations de la VAG, il est recommandé de prévoir
jusqu’à trois cartouches filtrantes de 47 mm de diamètre parallèlement aux échantillonneurs de
faible volume. En cas de ressources financières limitées, les priorités pour l’échantillonnage par
filtrage sont les suivantes: i) des filtres en Téflon pour les analyses gravimétriques et ioniques; ii)
des filtres en fibre de quartz pour les analyses des aérosols carbonés; et iii) des filtres en Téflon
pour l’analyse de la composition élémentaires. Chaque cartouche comprendrait idéalement deux
filtres: l’un pour les particules d’une masse totale inférieure à 10 µm de diamètre et l’autre pour la
fraction fine. Pour procéder à la séparation, il conviendrait de faire fonctionner les filtres derrière
les entrées sélectives selon la taille. Les échantillonneurs de grand volume sont en général plus
chers et il est souvent difficile de faire fonctionner plus d’un ensemble d’échantillonneurs en
parallèle. Il est donc recommandé d’utiliser des échantillonneurs grand volume avec des filtres en
fibre de quartz tant pour les analyses inorganiques que pour les analyses carbone élémentaire/
carbone organique. Il convient de noter que les décomposeurs pour échantillonneurs grand
volume ne sont pas disponibles sur le marché.
Aucune recommandation n’a été formulée sur la période d’échantillonnage, qui dépend
dans une très large mesure du site. En général, les courtes périodes d’échantillonnage (entre
24 et 48 heures) fournissent des informations qui sont plus facilement utilisables dans des
modèles et devraient être privilégiées par rapport aux périodes de plus d'une semaine,
même discontinues. Les filtres devraient être retirés de l’unité d’échantillonnage peu après le
prélèvement, puis conservés à une température comprise entre 0 °C et 5 °C si les analyses ne
peuvent être réalisées immédiatement. Il convient de faire passer régulièrement des échantillons
témoins afin de déceler d’éventuelles souillures. Idéalement, pour les préparer, on monte les
filtres dans l’unité d’échantillonnage sans activer la pompe. Il est recommandé de faire passer un
échantillon témoin tous les dix échantillonnages.
Pour chaque station de la VAG recueillant des aérosols, il est vivement recommandé de se fonder
sur une liste des mesures chimiques fondamentales: i) masse; ii) principales espèces ioniques;
iii) composants carbonés; et iv) aérosols sous forme de poussière.
Le système TEOM (microbalance à élément conique oscillant) est largement utilisé pour mesurer
la masse des aérosols. Cet instrument fournit des mesures en continu et peut offrir des données
de haute résolution temporelle. La température recommandée pour le TEOM d’origine est 50 °C.
Or, selon les observations, les composants semi‑volatils des aérosols échappent aux mesures
du TEOM à cette température. L’explication la plus probable est que les composés organiques
semi‑volatils, les nitrates et l’eau s’échappent des aérosols durant l’échantillonnage. Dans les
nouveaux modèles de TEOM, la température d’exploitation a été baissée à 30 °C pour réduire
les pertes de composants semi‑volatils. De plus, l’instrument peut indiquer des masses négatives
à la suite de variations subites de l’humidité relative ambiante. De nouvelles modifications ont
été apportées pour sécher les particules d’aérosols avant la mesure, afin de réduire l’effet de
l’humidité relative ambiante.
La concentration des principales espèces inorganiques est l’une des informations décisives
recommandées pour les stations de la VAG. Les principales espèces ioniques comprennent les
sulfates, les nitrates, les chlorures, le sodium, l’ammonium, le potassium, le magnésium et le
calcium. Cette sélection se fonde sur le fait que les procédures analytiques pour ces espèces sont
maintenant bien établies. Surtout, dans la plupart des conditions atmosphériques, ces ions sont
considérés comme ceux qui contribuent le plus à la masse des aérosols; leur mesure est donc
très importante pour l’établissement de la masse des aérosols. Comme mentionné plus haut,
les mesures quantitatives des nitrates par filtrage restent problématiques et s’associent à des
incertitudes.
élaborée pour l’ACSM ou d’autres instruments de l’AMS, mais cette méthode, qui s’avère adaptée
à la surveillance à long terme, amènera assurément une révision des procédures de spéciation
chimique des aérosols à l’avenir.
La concentration des espèces carbonées (avec tant la fraction élémentaire que la fraction organique)
est également l’une des informations essentielles qu’il est recommandé d’obtenir aux stations de
la VAG. Les espèces carbonées restent celles qui sont le moins bien comprises et, parmi tous les
composants chimiques des aérosols, les plus difficiles à caractériser. La masse totale de carbone
dans les aérosols peut se répartir en trois fractions: les carbonates inorganiques, le carbone
organique (CO), et une troisième fraction, qui, sans être clairement définie, porte différents
noms dans la littérature scientifique: carbone élémentaire (CE), carbone noir et carbone suie
ou réfractaire. Petzold et al. (2013) ont recommandé d’user d’une terminologie appropriée
pour les espèces liées au charbon noir afin de clarifier les termes utilisés dans le domaine de la
recherche atmosphérique; selon eux, le terme «charbon noir» ne devrait être utilisé que dans un
sens qualitatif et les termes portant sur la technique de mesure devraient être utilisés dans les
rapports visant à communiquer des résultats quantitatifs. Selon cette terminologie, les méthodes
thermo‑optiques peuvent être utilisées pour établir le carbone total (CT) et la fraction carbone
organique/carbone élémentaire (CO/CE) dans les filtres atmosphériques pour aérosols. Lors de
l'application de méthodes optiques, la composante absorbant la lumière est appelée équivalent
carbone noir, même si la méthode optique n’est pas propre au carbone.
La mesure des composantes du CT– CO et CE – est plus difficile que celle du CT (Schmid et
al., 2001). La distinction entre les fractions se fait par volatilisation/pyrolyse sous température
contrôlée. L’étape suivante est l’oxydation catalytique produisant du CO2 et la détection
par technologie NDIR ou, dans certains instruments, une nouvelle réduction catalytique du
CO2 produisant du CH4 et, enfin, la détection par FID. On applique divers programmes sous
température contrôlée. Actuellement, la VAG recommande d'utiliser l'une des trois techniques
thermo‑optiques suivantes: le protocole d'instrumentation de surveillance IMPROVE (Interagency
Monitoring of Protected Visual Environments) (Chow et al., 1993; Chow et al., 2005), le protocole
de l’Institut national américain pour la sécurité et la santé au travail (National Institute for
Occupational Safety and Health‑NIOSH) (Birch et Cary, 1996), et le protocole européen des
supersites pour les recherches sur les aérosols atmosphériques EUSAAR‑2 (European Supersites
for Atmospheric Aerosol Research) (Cavalli et al., 2010). On obtient en général une relativement
bonne concordance entre les protocoles IMPROVE, NIOSH et EUSAAR‑2 pour la détermination
du CT, alors qu’ils diffèrent nettement pour la détermination du CE (Chow et al., 2001). Le CE
correspondant à une relativement petite fraction du CT, la détermination du CO par les trois
protocoles est aussi une méthode comparable. De l’avis général, les protocoles IMPROVE et
EUSAAR‑2 se prêtent mieux aux sites appartenant à une région non urbaine, tandis que le
NIOSH est appliqué à des échantillons de sites urbains à l'Agence américaine de protection de
l'environnement (EPA). L’utilisation d’IMPROVE ou d’EUSAAR‑2 peut donc sembler préférable
à celle de NIOSH pour les stations mondiales éloignées de la VAG. L’utilisation des protocoles
EUSAAR‑2 et IMPROVE pour déterminer le CE peut conduire à des résultats différents, mais
elle devrait être privilégiée par rapport à d’autres techniques. Lorsqu’une autre méthode est
appliquée pour mesurer le CO, il est recommandé de procéder à une détermination régulière du
CO à l’aide d’une des méthodes thermo‑optiques afin que les résultats puissent être comparés.
Cela vaut aussi pour les techniques AMS, tant qu’un protocole normalisé n’aura pas été établi.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 555
Les aérosols sous forme de poussière peuvent être échantillonnés relativement facilement, sans
poser les problèmes qui s’associent aux composantes semi‑volatiles des aérosols, comme les
substances organiques ou le nitrate d’ammonium. Pour les stations de la VAG, il est recommandé
d’appliquer une méthode d’analyse multiélément pour déterminer la composante de poussières
minérales. Il faudrait analyser les filtres en Téflon pour y rechercher au moins quatre des
principaux éléments crustaux, l’aluminium (Al), le silicium (Si), le fer (Fe), le titane (Ti) et le
scandium, ainsi que les éléments voisins, le sodium (Na), le magnésium (Mg), le potassium (K)
et le calcium (Ca). Aucune méthode d’analyse particulière n’est recommandée, car il en existe
suffisamment, notamment l’analyse par émission X induite par protons (PIXE), l’analyse par
activation neutronique instrumentale (INAA), la fluorescence, l’AAS et l’ICP‑SM. Ces techniques
présentent en général une sensibilité élevée aux éléments crustaux. Toutes les techniques ne
peuvent pas révéler tous les éléments requis et, selon leurs disponibilités, il peut être nécessaire
d’en combiner deux ou davantage.
L’examen des propriétés radiatives ci‑après des aérosols, à plusieurs longueurs d’onde et sur
l’intégralité du spectre visible, est utile pour les études climatologiques.
b) L’épaisseur optique des aérosols (δ, voir la section 16.6.5), définie comme l’intégrale sur la
colonne verticale du coefficient d’extinction de la lumière par les aérosols.
c) L’albédo à diffusion unique des aérosols (ωo), défini comme σsp/(σap + σsp), décrit les
contributions relatives de la diffusion et de l’absorption à la totalité de l’extinction de la
lumière. Les aérosols qui se caractérisent par la diffusion (comme l’acide sulfurique) ont des
valeurs de 1, alors que ceux qui sont essentiellement des absorbeurs (come le carbone noir)
ont des valeurs de l'ordre de 0,3.
d) Les modèles de transfert radiatif nécessitent en règle générale l’une des deux propriétés
intégrales de la distribution angulaire de la lumière diffusée (fonction de phase): le
facteur d’asymétrie (g) ou la fraction diffusée vers le haut (β). Le facteur d’asymétrie est
556 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
e) Le coefficient de diffusion massique des espèces i, (αsi), est utilisé dans les modèles de
transport chimique pour évaluer les effets radiatifs des prévisions du modèle pour chaque
espèce chimique. Il se calcule souvent comme la pente de la courbe de régression linéaire
liée au coefficient de diffusion de la lumière des aérosols (σsp) et la concentration massique
des espèces chimiques (bien que la régression linéaire multiple soit préférée, afin de
prendre en compte la covariance de certaines espèces chimiques). Ce paramètre s’exprime
en m2 g–1.
f) Le coefficient d’absorption massique pour les espèces i, (αai), est utilisé dans les modèles de
transport chimique pour évaluer les effets radiatifs des prévisions du modèle pour chaque
espèce chimique. Il se calcule souvent comme la pente de la courbe de régression linéaire
liée au coefficient d’absorption de la lumière des aérosols (σap) et la concentration massique
des espèces chimiques (bien que la régression linéaire multiple soit préférée, afin de
prendre en compte la covariance de certaines espèces chimiques). Ce paramètre s’exprime
en m2 g–1.
Des instruments pouvant déterminer le coefficient d’absorption de la lumière par les aérosols
avec une haute résolution temporelle ont également été commercialisés. Ils s’appuient sur le taux
de variation de la transmission par un filtre en fibre à mesure que les particules se déposent sur
celui‑ci. Les méthodes reposant sur des filtres nécessitent un étalonnage, qui est difficile, car la
relation entre la variation de la transmission de la lumière et l’épaisseur optique de l’absorption
par les aérosols sur le filtre dépend de nombreux facteurs, dont la nature du filtre particulier et la
propension des particules à diffuser la lumière.
Un instrument d’usage courant est l’aéthalomètre. Au départ, il était étalonné sur la base
d’une masse équivalente de carbone noir et non de sa propriété fondamentale à l'origine de
sa réponse: l'absorption de la lumière par l’aérosol. Les premiers aéthalomètres ont une très
basse résolution spectrale, tandis que les modèles plus récents offrent des mesures très fines sur
plusieurs longueurs d’onde.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 557
L’amélioration récente d’une autre technique appliquée pour établir le coefficient d’absorption
de la lumière par les aérosols, la spectroscopie photoacoustique, offre une solution de rechange
prometteuse aux méthodes à fibre. Bien qu’elle ne soit pas aussi sensible, la photoacoustique
permet de déterminer le coefficient d’absorption de la lumière par les aérosols pendant que les
particules flottent dans l’air, ce qui supprime les artefacts introduits par le dépôt de particules
sur un filtre. La méthode photoacoustique peut être utilisée dans des régions où les niveaux
d'absorption de la lumière sont relativement élevés, ainsi que pour l'étalonnage de référence des
instruments à filtre.
Les noyaux de condensation (NC) peuvent être détectés à la suite de la condensation d’eau
ou d’une autre vapeur condensable (souvent un alcool tel que le butanol) d’une atmosphère
sursaturée sur la particule. La sursaturation dans les compteurs de noyaux de condensation
(CNC), également appelés compteurs de particules de condensation (CPC), est en règle générale
relativement grande, soit d'environ 150 %, ce qui permet la détection de particules ne dépassant
pas quelques nanomètres de diamètre.
Des méthodes optiques sont en général appliquées pour détecter les gouttelettes apparaissant
lors du processus. Les premiers compteurs exigeaient un comptage manuel, soit in situ, soit
après photographie. Le compteur Nolan‑Pollak et d'autres compteurs qui s'en sont inspirés
(notamment le compteur Gardner) s’appuient sur la détermination de l’extinction optique du
nuage qui s’est constitué. Certains compteurs s’appuient sur l’observation photométrique de la
lumière diffusée par les gouttelettes. La méthode la plus satisfaisante est le comptage individuel
des particules condensées dans un flux continu. Celle‑ci est à la base des méthodes de CNC
qui ont été mises au point à partir du modèle conçu par Bricard et al. (1976). Ce procédé est
employé dans la plupart des CNC commercialisés actuellement. Il présente l’avantage d'indiquer
directement les concentrations de NC jusqu'à environ 105 cm–3 (même si cette limite n'est en
général pas atteinte par des compteurs plus simples et meilleur marché).
mesure des aérosols de la VAG, mais les stations dotées des instruments requis pour les appliquer
devraient avoir un programme de détection des aérosols très avancé, assorti des procédures
pertinentes de documentation, d'étalonnage et de contrôle de la qualité.
Les mesures des noyaux de condensation des nuages (NCN) visent à déterminer la concentration
et à établir la climatologie des particules susceptibles de produire des gouttelettes de nuage au
degré de sursaturation propre aux nuages naturels, c’est‑à‑dire à moins de 1 %. En raison de la
complexité des mesures, il est recommandé de ne procéder à la détermination des NCN qu’aux
stations de la VAG ayant un programme très avancé d’analyse des aérosols. Par le passé, les
mesures des NCN effectuées dans le cadre du Programme de la VAG s’appuyaient pour la plupart
sur des chambres statiques à gradient thermique, qui se prêtent bien à un échantillonnage de
relativement basse fréquence et une détermination (différentielle) de basse résolution du spectre
de NCN. Les instruments utilisant un flux continu offrent une autre méthode. L’un d’eux, qui a
été commercialisé, est actuellement déployé dans un nombre croissant de stations de la VAG. Les
méthodes de mesure qui permettent de comparer les temps de formation des gouttelettes avec
la situation dans les nuages réels sont préférables.
L’épaisseur optique des aérosols (AOD) s’obtient par des observations de la transmission
spectrale de l’atmosphère. L’éclairement spectral du Soleil I à une longueur d’onde donnée peut
s’exprimer comme:
I = I 0 exp ( −mδ ) (16.3)
L’AOD correspondant pour ainsi dire à la différence entre deux chiffres plus importants, elle
est sensible à de petites erreurs d’étalonnage et, à moins forte raison, aux méthodes choisies
pour modéliser les autres éléments. Une incertitude détectable de 1,5 % sur l’étalonnage,
correspondant à une incertitude de 0,015 sur l’épaisseur optique à la masse d’air optique unitaire,
ne devrait pas être dépassée pour les observations de l'AOD (OMM, 2005).
Les longueurs d’onde et les passe‑bandes utiles pour l’AOD, qui ne comportent pour l’essentiel
pas de facteurs d’extinction variables (la vapeur d’eau et le NOx), mais présentent une vigoureuse
extinction de l’ozone gazeux, ont été recommandées par l’OMM (2003a). Le Réseau de référence
pour la mesure du rayonnement en surface et le GAW‑PFR (un réseau de radiomètres à filtre de
précision conçus pour l’observation de l’épaisseur optique des aérosols) utilisent quatre canaux
AOD de 368, 412, 500 et 862 nm. Si certains réseaux utilisent des longueurs d’onde particulières,
sélectionnées en fonction de leurs besoins particuliers (validation de capteurs embarqués sur des
satellites, modélisation…), la plupart d’entre eux peuvent normalement procéder à des mesures à
500 ±3 nm et à 865 ±5 nm.
Les mesures de l’éclairement spectral du Soleil sont en général effectuées à l’aide de radiomètres
à pointage solaire (photomètres solaires) montés sur les deux axes d’un dispositif de poursuite du
Soleil, avec une fréquence d’échantillonnage de 1 par minute afin de permettre un contrôle de
la qualité objectif et des algorithmes de filtrage des nuages. Un contrôle de la qualité homogène
est plus difficile à obtenir avec des photomètres solaires manuels.
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 559
Des radiomètres à arceau d’ombrage rotatifs à filtre mesurent l’éclairement spectral global
et diffus sur diverses bandes de longueurs d’onde. L’éclairement normal direct obtenu en
calculant la différence entre le rayonnement global et le rayonnement diffus, corrigé de la
distance zénithale du Soleil, peut être utilisé pour établir l’AOD de la même manière qu’avec les
photomètres solaires.
Des instruments plus perfectionnés, tels que des radiomètres balayant toute la voûte céleste,
peuvent être utilisés pour inférer des propriétés optiques supplémentaires des aérosols de la
colonne, y compris la répartition granulométrique, l’albédo à diffusion unique ou la fonction de
phase, à l'aide de modèles complexes d'inversion mathématique.
Les photomètres solaires, les arceaux d’ombrage et les radiomètres célestes sont commercialisés
par plusieurs constructeurs. Des services centralisés4 d’évaluation des données et d’étalonnage
sont offerts pour les instruments standardisés par des réseaux planétaires tels que le Réseau
robotique de mesure des aérosols (AERONET), le GAW‑PFR et SKYNET (OMM, 2005).
Le principe fondamental du lidar est le suivant: une impulsion laser est émise dans l’atmosphère,
où elle heurte des molécules de gaz et des particules; une petite quantité de cette énergie est
rétrodiffusée dans la direction du système récepteur, en général un télescope, puis transférée
vers un photodétecteur et un photomultiplicateur. Le signal électrique produit est proportionnel
à l’énergie optique reçue, qui dépend du nombre, de la distance et de la concentration des
diffuseurs et des absorbeurs qui se trouvent dans l’atmosphère sur la voie du faisceau lumineux.
Les techniques lidar permettent de caractériser les aérosols atmosphériques du point de vue
des profils verticaux de leurs coefficients d’extinction et de rétrodiffusion, du ratio lidar, de leur
épaisseur optique et de leurs propriétés microphysiques telles que la forme, l’indice de réfraction
et la granulométrie, sur les échelles temporelles de l’ordre de quelques minutes seulement et des
échelles verticales de l’ordre de quelques mètres seulement.
Les observations par lidar sont d'une bien plus grande portée si les données sont utilisées dans
le cadre d’un réseau. Les réseaux lidar sont essentiels pour étudier les aérosols à grande échelle
spatiale et pour suivre les phénomènes liés à leur transport et à leur modification. Plusieurs
réseaux lidar contribuent aux activités de la VAG: le Réseau asiatique de lidars d’observation des
poussières et des aérosols (AD‑NET), le Réseau de lidars d’Amérique latine (ALINE ou LALINET),
le réseau lidar de la Communauté des États indépendants (CIS‑LINET), le Réseau européen
de lidars de recherche sur les aérosols (EARLINET), le Réseau de lidars à micro‑impulsions
(MPLNET), le Réseau de détection des modifications de la composition de l’atmosphère
(NDACC) et le réseau de lidars de la NOAA pour la science et la technologie de la télédétection
coopérative (CREST). Ces réseaux sont coordonnés dans le cadre du Réseau d’observation lidar
des aérosols relevant de la VAG (GALION; OMM, 2008b).
Il existe plusieurs techniques lidar différentes, qui se distinguent par la conception particulière
des instruments et, surtout, par le processus de diffusion des faisceaux laser dans l’atmosphère.
Le lidar de rétrodiffusion élastique est le plus simple des lidars d’observation des aérosols: la
longueur d’onde du faisceau rétrodiffusé est identique à celle de l’impulsion et la magnitude du
signal reçu sur une voie donnée dépend de la section efficace de rétrodiffusion des diffuseurs le
long de cette voie. Les longueurs d'onde d'exploitation sont en général 355, 532 et 1 064 nm. Le
produit d’un lidar de rétrodiffusion est en général le profil vertical du coefficient de rétrodiffusion
des aérosols. On calcule ce dernier sur la base d’un ratio lidar hypothétique, c’est‑à‑dire du
rapport extinction/rétrodiffusion, qui est le plus souvent constant sur tout le profil et s’établit en
général sur la base de données relatives à la climatologie que fournissent les mesures d’un lidar
4
Pour davantage de détails, voir le site Web du Centre mondial de recherche et d’étalonnage concernant l’épaisseur
optique (à l’adresse http://w ww.pmodwrc.ch/worcc/index.html).
560 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
Raman (décrit ci‑dessous). Dans ce sens, il faut souligner que, sans une hypothèse de départ
sur le ratio lidar, ce type de système lidar ne peut pas fournir de données quantitatives sur la
rétrodiffusion des aérosols.
Lidar de dépolarisation
Les lidars de dépolarisation sont des lidars de rétrodiffusion dotés de canaux pour la détection de
deux constituants parallèles de polarisation croisée du rayonnement rétrodiffusé. Ils fournissent
ainsi des informations quantitatives sur la forme des particules, contribuant considérablement
à la classification des aérosols, de même qu’à l'identification des nuages fins qui contaminent
les profils. Un canal de dépolarisation permet de distinguer les cendres volcaniques et d’autres
particules d’aérosol. Les longueurs d'onde d'exploitation sont en général 355 et 532 nm. Les
systèmes lidar de dépolarisation doivent être étalonnés avec exactitude.
Lidar Raman
La technique du lidar à haute résolution spectrale (HSRL) offre des mesures étalonnées de
l’épaisseur optique des aérosols, de l’extinction et de la rétrodiffusion. Les mesures sont calculées
à partir du rapport entre la diffusion des particules et la diffusion particulaire mesurée. Cela
fournit un étalonnage absolu, insensible aux poussières ou aux précipitations sur la fenêtre de
sortie. Un champ de vision angulaire très étroit réduit la contamination de sources aberrantes
comme les contributions de diffusion multiple. L’étroit champ de vision, associé à une largeur de
bande optique étroite, élimine presque tout bruit de fond dû à la lumière solaire diffusée.
Célomètres
Les célomètres sont en fait des lidars à rétrodiffusion élastiques qui, grâce à une source lumineuse
(une diode laser), émettent un faisceau dans l’infrarouge (dont la longueur d’onde est en général
de 905 ou de 1 064 nm). Le faisceau est de basse énergie, mais la fréquence de répétition est
élevée (les unités étant de l’ordre du µJ d’énergie pour l’impulsion et du kHz pour la fréquence)
et ils détectent le rayonnement élastique rétrodiffusé par les nuages et les précipitations. Les
célomètres sont des dispositifs de télédétection autonomes et prêts à l’emploi. Utilisés en surface,
ils sont conçus pour mesurer la hauteur de la base des nuages et peuvent aussi mesurer les
signaux rétrodiffusés par les aérosols. Les célomètres peuvent offrir des informations qualitatives
sur la distribution verticale des aérosols. En règle générale, les instruments plus anciens, qui sont
aussi moins puissants, peuvent à peine détecter les couches d’aérosols dans l’atmosphère, tandis
que les nouveaux modèles sont fréquemment utilisés pour détecter les cendres ou les poussières
volcaniques, de même que pour suivre les mouvements des gaz éjectés (sous la forme de cendres
ou de poussières).
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 561
Toutes ces techniques lidar peuvent fournir des produits de données utilisables pour suivre de
près la distribution spatiale et temporelle des aérosols jusqu’à la haute troposphère ou la basse
stratosphère. Ils peuvent les caractériser d’un point de vue dynamique ou microphysique. Les
lidars sont surtout limités par la pluie, le brouillard dense et les nuages épais (leur épaisseur
optique est supérieure à 2–3). La gamme d’altitudes couverte par les lidars a pour limite
inférieure l’altitude de chevauchement (altitude où il y a un plein chevauchement entre
les signaux du transmetteur et du récepteur), qui se situe en général entre 250 et 500 m
au‑dessus du sol, mais peut aussi s’élever jusqu’à 2 km dans le cas de modèles particuliers. La
limite supérieure de la gamme d’altitudes dépend fortement de la puissance du laser et de la
conception optique, mais elle peut se situer à 25–30 km pour les systèmes haute puissance. Il est
difficile de donner une estimation générale de l'exactitude des divers produits lidar, car ceux‑ci
dépendent beaucoup du modèle particulier et des conditions météorologiques. En moyenne,
l'incertitude pour les coefficients d'extinction et de rétrodiffusion est d'environ 20 % (dans le cas
du lidar Raman ou du HSRL). L’extraction des propriétés microphysiques n’est possible que si les
données optiques ont des incertitudes inférieures à 20 %–30 %.
Produits des lidars d’observation des aérosols (voir le tableau 16.4 pour davantage de détails):
a) Propriétés géométriques:
ii) Paramètres optiques intensifs: ratio lidar, rapport de dépolarisation rectiligne des
particules (δa), exposant lié à la rétrodiffusion en Ångström (Å β, exposant lié à
l’atténuation en Ångström (Å α);
Tableau 16.4. Instruments lidar liés à des techniques lidar particulières au sol
(il convient de noter que (d) = seulement le jour)
Épais-
Propriétés seur Propriétés
Techniques lidar Ratio
géo- βa αa optique Åβ Åα Typeb micro-
particulières au sol lidara
métriques des physiques
aérosols
Célomètrec ✓ ✓d
Lidar de ✓ ✓
rétrodiffusion (1-λ)
1‑longueur d’onde
Lidar de ✓ ✓ ✓
rétrodiffusion
(m-λ)e pour
plusieurs
longueurs d’onde
+ photomètre
solaire
+ photomètre
sol. + lidar de
dépolarisation
spectrale +
photomètre
sol. + lidar de
dépolarisation
Épais-
Propriétés seur Propriétés
Techniques lidar Ratio
géo- βa αa optique Åβ Åα Typeb micro-
particulières au sol lidara
métriques des physiques
aérosols
Lidar Raman M-λe + ✓ ✓ ✓g ✓g ✓g ✓g ✓ ✓ ✓g
photomètre solaire
La répartition planétaire des sources et des puits des radionucléides naturels (7Be, 10Be, 210Pb et
222
Rn) et des radionucléides d’origine anthropique (85Kr) est relativement bien connue. Le 7Be et
le 10Be sont produits par les interactions entre les rayons cosmiques dans la haute troposphère
et la basse stratosphère. Le 222Rn émane de la surface de la Terre du fait de la désintégration
de l’uranium présent dans le sol. Le 210Pb est produit dans la basse troposphère du fait de
la désintégration du 222Rn. L’essentiel du 85Kr présent dans l’atmosphère est libéré durant le
retraitement des combustibles nucléaires. Les atomes de 7Be, de 10Be et de 210Pb se fixent sur des
particules d’aérosols de diamètre inférieur au micron et sont ainsi des traceurs d’aérosols dans
l’atmosphère. Le 222Rn et le 85Kr, qui sont inertes des points de vue chimique et physique, se
comportent comme des gaz rares dans l’atmosphère.
Les mesures de radionucléides ne sont pas une priorité dans le cadre du Programme de la VAG.
Des recommandations d’ordre général sont formulées à cet égard dans les documents OMM
(2001) et OMM (2004a).
ANNEXE. LES INSTITUTIONS CENTRALES DE LA VAG
H2 MPI‑BGC JMA
Ozone total JMA (A/O)a NOAA‑ESRL,b NOAA‑ESRL,b ECc BoM,b EC,f DLRg
ECc NOAA‑ESRL,b
IZO,c JMA,b
MOHp,b MGO,d
OCBA,b SAWS,b
SOO‑HKb
SO2 JMA
Établissements d’accueil
Birch, M.E. et R.A. Cary, 1996: Elemental carbon‑based method for monitoring occupational exposures to
particulate diesel exhaust. Aerosol Science and Technology, 25:221–241.
Bricard, J., P. Delattre, G. Madelaine et M. Pourprix, 1976: Detection of ultra‑fine particles by means of a
continuous flux condensation nuclei counter. Dans: Fine Particles (dir.: B.Y.H. Liu), Academic
Press, New York.
Cavalli, F., M. Viana, K.E. Yttri, J. Genberg et J.‑P. Putaud, 2010: Toward a standardised thermal‑optical
protocol for measuring atmospheric organic and elemental carbon: the EUSAAR protocol.
Atmospheric Measurement Techniques, 3:79–89.
Chow, J.C., J.G. Watson, L.‑W.A. Chen, G. Paredes‑Miranda, M.‑C.O. Chang, D. Trimble, K.K. Fung,
H. Zhang et J. Zhen Yu, 2005: Refining temperature measures in thermal/optical carbon
analysis. Atmospheric Chemistry and Physics, 5:2961–2972.
Chow, J.C., J.G. Watson, D. Crow, D.H. Lowenthal et T. Merrifield, 2001: Comparison of IMPROVE and
NIOSH carbon measurements. Aerosol Science and Technology, 34:23–34.
Chow, J.C., J.G. Watson, L.C. Pritchett, W.R. Pierson, C.A. Frazier et R.G. Purcell, 1993: The DRI thermal/
optical reflectance carbon analysis system: Description, evaluation, and applications in U.S. air
quality studies. Atmospheric Environment, 27A(8):1185–1201.
Coplen, T.B., W.A. Brand, M. Gehre, M. Gröning, H.A.J. Meijer, B. Toman et R.M. Verkouteren, 2006: New
Guidelines for δ13C Measurements. Analytical Chemistry, 78(7):2439–2441.
Götz, F.W.P., A.R. Meetham et G.M.B. Dobson, 1934: The vertical distribution of ozone in the atmosphere.
Proceedings of the Royal Society of London, A145(855):416–446.
Grant, A., C.S. Witham, P.G. Simmonds, A.J. Manning et S. O’Doherty, 2010: A 15 year record of
high‑frequency, in situ measurements of hydrogen at Mace Head, Ireland. Atmospheric
Chemistry and Physics, 10:1203–1214 (consultable à l’adresse http://www.atmos-chem-phys.
net/10/1203/2010/acp-10-1203-2010.pdf).
Heath, D.F., A.J. Krueger et H. Park, 1978: The solar backscatter ultraviolet (SBUV) and total ozone mapping
spectrometer (TOMS) experiment. Dans: The NIMBUS‑7 User’s Guide (dir.: C.R. Madrid), NASA
Goddard Space Flight Center, Greenbelt, Maryland.
Herndon, S.C., M.S. Zahniser, D.D. Nelson Jr., J. Shorter, J.B. McManus, R. Jiménez, C. Warneke et
J.A. de Gouw, 2007: Airborne measurements of HCHO and HCOOH during the New England
Air Quality Study 2004 using a pulsed quantum cascade laser spectrometer. Journal of
Geophysical Research, 112(D10S03).
Jaroslawski, J., 2013: Improvement of the Umkehr ozone profile by the neural network method: analysis of
the Belsk (51,80° N, 20,80° E) Umkehr data. International Journal of Remote Sensing,
34(15):5541–5550.
Mateer, C.L. et J.J. DeLuisi, 1992: A new Umkehr inversion algorithm. Journal of Atmospheric and Terrestrial
Physics, 54(5):537–556.
Mateer, C.L. et H.U. Dütsch, 1964: Uniform Evaluation of Umkehr Observations from the World Ozone Network,
Part I – Proposed Standard Evaluation Technique, NCAR, Boulder, Colorado.
National Institute for Occupational Safety and Health, 2014: Elemental Carbon (Diesel Particulate):
Method 5040 (consultable à l’adresse http://www.cdc.gov/niosh/docs/2003-154/method-
6000.html).
Organisation internationale de normalisation/Commission électrotechnique internationale (CEI), 2008:
Incertitude de mesure – Partie 3: Guide pour l'expression de l'incertitude de mesure, ISO/IEC Guide
98-3:2008, y compris Suppl. 1:2008/Cor 1:2009, Suppl. 1:2008, Suppl. 2:2011, Genève
(équivalant à: Comité commun pour les guides en métrologie (JCGM), 2008: Évaluation des
données de mesure – Guide pour l’expression de l’incertitude de mesure, JCGM 100:2008, corrigé en
2010).
Organisation météorologique mondiale, 2001: Global Atmosphere Watch Measurements Guide. Global
Atmosphere Watch Report No. 143 (WMO/TD‑No. 1073), Genève.
———, 2003a: Quality Assurance in Monitoring Solar Ultraviolet Radiation: the State of the Art (A.R. Webb).
Global Atmosphere Watch Report No. 146 (WMO/TD‑No. 1180), Genève.
———, 2003b: WMO/GAW Aerosol Measurement Procedures: Guidelines and Recommendations. Global
Atmosphere Watch Report No. 153 (WMO/TD‑No. 1178), Genève.
———, 2004a: 1st International Expert Meeting on Sources and Measurements of Natural Radionuclides Applied to
Climate and Air Quality Studies (Gif‑sur‑Yvette, France, 3–5 juin 2003). Global Atmosphere Watch
Report No. 155 (WMO/TD‑No. 1201), Genève.
568 PARTIE I. MESURE DE VARIABLES MÉTÉOROLOGIQUES
———, 2004b: Manual for the GAW Precipitation Chemistry Programme (Guidelines, Data Quality Objectives and
Standard Operating Procedures) (dir.: M.A. Allan). Global Atmosphere Watch Report No. 160
(WMO/TD‑No. 1251), Genève.
———, 2005: WMO/GAW Experts Workshop on a Global Surface‑based Network for Long Term Observations of
Column Aerosol Optical Properties (dir.: U. Baltensperger, L. Barrie et C. Wehrli) (Davos, Suisse,
8–10 mars 2004). Global Atmosphere Watch Report No. 162 (WMO/TD‑No. 1287), Genève.
———, 2006: 13th WMO/IAEA Meeting of Experts on Carbon Dioxide Concentration and Related Tracers
Measurement Techniques (dir.: J.B. Miller) (Boulder, Colorado, États‑Unis d'Amérique,
19–22 septembre 2005). Global Atmosphere Watch Report No. 168 (WMO/TD‑No. 1359),
Genève.
———, 2007a: A WMO/GAW Expert Workshop on Global Long‑Term Measurements of Volatile Organic Compounds
(VOCs) (Genève, Suisse, 30 janvier‑1er février 2006). Global Atmosphere Watch Report No. 171
(WMO/TD‑No. 1373), Genève.
———, 2007b: WMO Global Atmosphere Watch (GAW) Strategic Plan: 2008–2015. Global Atmosphere Watch
Report No. 172 (WMO/TD‑No. 1384), Genève.
———, 2008a: The Tenth Biennial WMO Consultation on Brewer Ozone and UV Spectrophotometer Operation,
Calibration and Data Reporting (dir.: C.T. McElroy et E.W. Hare) (Northwich, Royaume‑Uni,
4–8 juin 2007). Global Atmosphere Watch Report No. 176 (WMO/TD‑No. 1420), Genève.
———, 2008b: Plan for the Implementation of the GAW Aerosol Lidar Observation Network GALION (J. Bösenberg
et R. Hoff) (Hambourg, Allemagne, 27–29 mars 2007). Global Atmosphere Watch
Report No. 178 ( WMO/TD‑No. 1443), Genève.
———, 2008c: Operations Handbook – Ozone Observations with a Dobson Spectrophotometer (rév.: R.D. Evans).
Global Atmosphere Watch Report No. 183 (WMO/TD‑No. 1469), Genève.
———, 2009a: Guidelines for the Measurement of Methane and Nitrous Oxide and their Quality Assurance. Global
Atmosphere Watch Report No. 185 (WMO/TD‑No. 1478), Genève.
———, 2010: Guidelines for the Measurement of Atmospheric Carbon Monoxide. Global Atmosphere Watch
Report No. 192 (WMO/TD-No. 1551), Genève.
———, 2011a: WMO/GAW Expert Workshop on Global Long‑term Measurements of Nitrogen Oxides and
Recommendations for GAW Nitrogen Oxides Network (S. Penkett, S. Gilge, C. Plass‑Duelmer et
I. Galbally) (Hohenpeissenberg, Allemagne, 8–9 octobre 2009). Global Atmosphere Watch
Report No. 195 (WMO/TD-No. 1560), Genève.
———, 2011b: Addendum for the Period 2012–2015 to the WMO Global Atmosphere Watch (GAW) Strategic Plan
2008–2015 (dir.: J. Klausen). Global Atmosphere Watch Report No. 197, Genève.
———, 2011c: WMO/GAW Standard Operating Procedures for In‑situ Measurements of Aerosol Mass Concentration,
Light Scattering and Light Absorption (dir.: J.A. Ogren). Global Atmosphere Watch Report
No. 200, Genève.
———, 2012a: Standard Operating Procedures (SOPs) for Air Sampling in Stainless Steel Canisters for Non‑Methane
Hydrocarbons Analysis (R. Steinbrecher et E. Weiß). Global Atmosphere Watch Report No. 204,
Genève.
———, 2012b: 16th WMO/IAEA Meeting on Carbon Dioxide, Other Greenhouse Gases and Related Measurement
Techniques (GGMT‑2011) (dir.: G. Brailsford) (Wellington, Nouvelle‑Zélande, 25–28 octobre
2011). Global Atmosphere Watch Report No. 206, Genève.
———, 2013: Guidelines for Continuous Measurements of Ozone in the Troposphere (I.E. Galbally et
M.G. Schultz). Global Atmosphere Watch Report No. 209 (WMO‑No. 1110), Genève.
———, 2014: Quality Assurance and Quality Control for Ozonesonde Measurements in GAW (H.G.J. Smit et
ASOPOS Panel). Global Atmosphere Watch Report No. 201, Genève.
Petropavlovskikh, I., P.K. Bhartia et J. DeLuisi, 2005: New Umkehr ozone profile retrieval algorithm
optimized for climatological studies. Geophysical Research Letters, 32(L16808).
Petzold, A., J.A. Ogren, M. Fiebig, P. Laj, S.‑M. Li, U. Baltensperger, T. Holzer‑Popp, S. Kinne, G. Pappalardo,
N. Sugimoto, C. Wehrli, A. Wiedensohler et X.‑Y. Zhang, 2013: Recommendations for reporting
"black carbon" measurements. Atmospheric Chemistry and Physics, 13:8365–8379.
Programme concerté de surveillance continue et d’évaluation du transport à longue distance des polluants
atmosphériques en Europe, 2014: EMEP Manual for Sampling and Chemical Analysis, Norwegian
Institute for Air Research, Kjeller (consultable à l’adresse http://www.nilu.no/projects/ccc/
manual/index.html).
Ramanathan, K.R. et J.V. Dave, 1957: The calculation of the vertical distribution of ozone by the Götz
Umkehr Effect (method B). Annals of the International Geophysical Year, V(1):23–45.
Schmid, H., L. Laskus, H.J. Abraham, U. Baltensperger, V. Lavanchy, M. Bizjak, P. Burba, H. Cachier, D. Crow,
J. Chow, T. Gnauk, A. Even, H.M. ten Brink, K.P. Giesen, R. Hitzenberger, C. Hueglin,
CHAPITRE 16. MESURE DE LA COMPOSITION DE L’ATMOSPHÈRE 569
Page
1.1 GÉNÉRALITÉS
1.1.1 Définition
Une station météorologique automatique est une «station météorologique où les observations
sont effectuées et transmises automatiquement» (OMM, 1992a).
Une station météorologique automatique est équipée d’une unité centrale d’acquisition des
données qui lit ou reçoit les mesures effectuées par les instruments. Les données fournies par les
appareils de mesure autonomes, une fois recueillies de cette manière, sont traitées soit sur place,
à la station météorologique automatique, soit ailleurs, par le concentrateur central du réseau
par exemple (OMM, 2010a). Les stations météorologiques automatiques peuvent être conçues
comme un système intégré d’appareils de mesure divers comprenant une unité d’acquisition
des données et une unité de traitement des données. On fait habituellement référence à un tel
ensemble d’instruments, d’interfaces et d’unités de traitement et de transmission en parlant de
«système automatique d’observation météorologique» ou encore de «système d’observation
automatique en surface». L’usage a voulu que s’impose l’expression «station météorologique
automatique», alors qu’il ne s’agit pas, par définition, d’une «station» à part entière. Dans le
présent chapitre, l’expression en question, souvent abrégée en «station automatique» couvre
cette notion de système.
1.1.2 Objet
b) De produire, dans le cas des stations pourvues de personnel, des données en dehors des
heures normales de travail;
d) D’assurer l’homogénéité des réseaux par une normalisation des techniques de mesure;
h) D’exécuter des mesures et de transmettre les données à une fréquence élevée, voire en
continu.
Les types, l’endroit, la composition, la fréquence et le moment des observations, ainsi que les
exigences générales en la matière, sont déterminés dans les publications OMM (2010b, 2011c).
576 PARTIE II. SYSTÈMES D’OBSERVATION
Si l’on admet que les stations automatiques sont réellement des stations météorologiques
lorsqu’elles produisent des données d’une exactitude comparable à celle des stations
traditionnelles, les exigences en matière d’exactitude énoncées dans le chapitre 1 de la partie I
du présent guide s’appliquent également aux stations météorologiques automatiques.
Le texte du présent chapitre doit être considéré parallèlement aux chapitres de la partie I portant
sur la mesure de diverses variables météorologiques et, en particulier, aux chapitres 1, 2 et 3 de la
partie IV portant respectivement sur la gestion de la qualité, l’échantillonnage et la réduction des
données.
Il n’est pas toujours satisfaisant de se fier aux fournisseurs de matériel pour déterminer les
contraintes d’exploitation. La Commission des instruments et des méthodes d’observation
(CIMO) donne les conseils qui suivent aux Membres de l’OMM et, en conséquence, à tout
Service qui procède à des mesures météorologiques.
Lorsqu’ils envisagent la mise en œuvre de nouveaux systèmes de mesure dans des stations
météorologiques automatiques, les Services météorologiques devraient:
a) Ne mettre en service que des systèmes pour lesquels ils disposent d’une documentation
suffisamment précise en ce qui concerne les possibilités et les caractéristiques de ces
systèmes ainsi que les algorithmes utilisés1;
b) Retenir ou développer l’expertise technique leur permettant de définir les systèmes qui leur
conviennent et de déterminer si les possibilités, caractéristiques techniques et algorithmes
de ces systèmes correspondent bien à leurs besoins2;
c) Étudier minutieusement les besoins des utilisateurs et associer ces derniers à la conception
des systèmes automatiques;
f) Élaborer des guides et une documentation détaillés à l’intention de tous les utilisateurs;
h) Consulter les utilisateurs, tels que les autorités aéronautiques, et collaborer avec eux tout
au long du processus, de la conception des stations météorologiques automatiques à leur
exploitation proprement dite;
1
Recommandation 2 (CIMO‑XII), formulée par la CIMO lors de sa douzième session (1998).
2
Recommandation 2 (CIMO‑XII).
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 577
Les Services météorologiques sont priés aussi d’affiner la définition de leurs besoins en matière
d’automatisation des observations visuelles et subjectives classiques, et à l’égard des évolutions
des codes de transmission, notamment en ce qui concerne3:
a) Les domaines d’application pour lesquels ils n’ont plus besoin de données;
b) Les domaines d’application pour lesquels ils ont besoin de données nouvelles ou
différentes;
c) La définition d’un ordre de priorité s’agissant des données que doivent fournir les stations
météorologiques automatiques.
b) Coopérer avec les concepteurs d’instruments et de systèmes afin qu’ils publient et diffusent,
pour un large usage et dans l’optique d’une éventuelle normalisation, des descriptions
des algorithmes de traitement de données employés dans les systèmes pour calculer les
variables météorologiques;
c) Faire des tests rigoureux sur les nouveaux algorithmes et systèmes afin de les évaluer
et de diffuser les résultats des tests sous forme de caractéristiques de fonctionnement à
l’intention des utilisateurs des observations;
d) Évaluer avec soin, en procédant à des essais sur le terrain et à des comparaisons, le rapport
entre les nouveaux algorithmes et systèmes et les méthodes d’observation utilisées
jusque‑là, établir les fonctions de transfert qui assureront la continuité et l’homogénéité des
données et en informer les usagers.
Dans le cadre d’un projet d’installation d’une station automatique qui devra servir notamment
à fournir des données destinées à alimenter les relevés climatologiques, et afin de garantir
l’intégrité, l’homogénéité et l’utilité des jeux de données climatologiques, il importe de prendre
les mesures qui suivent (voir OMM, 1993):
3
Recommandation 5 (CIMO‑XII), formulée par la CIMO lors de sa douzième session (1998).
4
Recommandation 2 (CIMO‑XII).
5
Recommandation 3 (CIMO‑XII), formulée par la CIMO lors de sa douzième session (1998).
6
Voir aussi OMM (2010a), section 3.2.1.4.4.4 c): «Une année de mesures parallèles est insuffisante: une période d’au
moins deux ans est préférable, la durée souhaitable dépendant toutefois de la région climatique».
578 PARTIE II. SYSTÈMES D’OBSERVATION
(Il est conseillé d’installer un ombromètre pour qu’il fonctionne en parallèle avec le
pluviomètre automatique.)
b) Il y a lieu de tenir à jour des métadonnées précises sur toutes les stations météorologiques
automatiques7;
d) Il y a lieu de définir avec précision les besoins actuels et futurs des utilisateurs de données
climatologiques et d’en tenir compte dans les spécifications des observations automatisées
que doivent exécuter les stations météorologiques automatiques8;
Les stations météorologiques automatiques répondent à divers besoins allant d’une simple aide
aux observateurs dans le cas des stations pourvues de personnel, au remplacement intégral des
observateurs dans le cas des stations entièrement automatiques. Il est possible de classer les
stations automatiques en divers groupes fonctionnels, mais une telle classification devient vite
impraticable du fait que ces groupes se chevauchent fréquemment. Il est possible en revanche
d’établir un classement général en stations qui produisent des données en temps réel et en
stations qui enregistrent des données en vue d’une analyse en différé ou hors ligne. Il n’est pas
rare, cependant, qu’une même station automatique assure ces deux fonctions.
Station automatique produisant des données en temps réel. Station qui fournit aux utilisateurs
d’observations météorologiques des données en temps réel, en général à des moments
prédéterminés, mais aussi en cas d’urgence ou sur demande émanant de l’extérieur. Des
utilisations caractéristiques en temps réel seraient la production de données à usage synoptique
et le suivi de situations critiques, en rapport notamment avec les tempêtes, le niveau des cours
d’eau et la hauteur des marées.
Station automatique produisant des données en différé. Station qui enregistre les données sur place,
sur des supports informatiques internes ou externes, avec affichage éventuel des données.
L’intervention d’un observateur est nécessaire pour transmettre les données mémorisées aux
utilisateurs distants. Les stations de ce type sont en général des stations climatologiques ou des
stations fournissant simplement une aide aux observateurs.
Il est possible d’équiper ces deux types de stations de moyens permettant d’introduire et de
corriger manuellement des observations visuelles ou subjectives ne pouvant être effectuées de
7
Voir la section 1.1.3 du chapitre 1 de la partie I.
8
Voir l’annexe 1.E du chapitre 1 de la partie I.
9
Voir par exemple OMM (1997), en particulier la partie II, intitulée Implementation and user training considerations.
10
Ibid.
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 579
façon entièrement automatique, par exemple les observations du temps présent et du temps
passé ou les observations très coûteuses, notamment la hauteur des nuages et la visibilité. On
peut qualifier ces stations de partiellement automatiques ou de semi‑automatiques.
Le coût d’une station automatique pouvant être très élevé, il est possible d’utiliser les installations
d’une telle station à diverses fins pour répondre aux exigences et aux besoins communs et
spécifiques de plusieurs applications, telles que la météorologie, l’hydrologie et la climatologie
synoptiques, aéronautiques et agricoles. On peut aussi s’en servir pour remplir des fonctions
relevant de domaines particuliers tels que la sécurité des centrales nucléaires, le contrôle de la
qualité de l’air et de l’eau et la météorologie routière. Certaines stations automatiques sont ainsi
des stations polyvalentes.
Une station météorologique automatique fait généralement partie d’un réseau de stations
météorologiques qui transmettent chacune des données traitées à un système central de gestion
de réseau en passant par divers moyens de transmission. Comme les tâches à exécuter par ce
système sont intimement liées aux tâches des stations automatiques, dont elles sont souvent
complémentaires, les spécifications fonctionnelles et techniques du système et des stations
automatiques devraient être bien coordonnées.
Lorsqu’on planifie la mise en place et l’exploitation d’un réseau de stations automatiques, il est
de la plus grande importance d’envisager les divers problèmes que posent les installations de
maintenance et d’étalonnage et leur organisation, ainsi que la formation du personnel technique.
Les considérations relatives à la densité des réseaux, qui dépendent des applications mises en
œuvre, ne relèvent pas du présent guide. Par ailleurs, la sélection des sites et l’exposition des
stations ont une influence considérable sur les performances des stations et doivent être étudiées
avant l’installation.
a) Sur une aire d’observation standard, dont les dimensions ne devraient pas être inférieures à
25 m de côté (chapitre 1 de la partie I; OMM (2010a)), une série de capteurs automatiques
installés suivant des emplacements recommandés, ces capteurs étant reliés à une ou
plusieurs unités de collecte de données à l’aide d’interfaces ou, dans le cas d’un système
automatique d’observation météorologique, un ensemble de capteurs groupés, sans effet
l’un sur l’autre, directement reliés à une unité centrale par des câbles blindés, des fibres
optiques ou des liaisons radio;
b) Une unité centrale qui permet l’acquisition des données émanant des capteurs et leur
conversion sous une forme assimilable par ordinateur, leur traitement correct au moyen
d’un système piloté par microprocesseur, selon des algorithmes définis, leur stockage
temporaire et leur transmission à des utilisateurs d’informations météorologiques situés à
distance;
c) Des périphériques tels qu’une source d’énergie électrique stabilisée alimentant les
divers éléments de la station, une horloge temps réel et un matériel de contrôle intégré
permettant de vérifier l’état des organes essentiels de la station. S’ajoutent à cela, en vue
d’applications spécifiques, des terminaux locaux permettant d’introduire manuellement et
de corriger des données, des écrans de visualisation et des imprimantes ou des appareils
enregistreurs.
580 PARTIE II. SYSTÈMES D’OBSERVATION
Les interactions de plus en plus nombreuses entre la société et l’atmosphère conduisent à une
évolution des besoins: demande d’un plus grand nombre de stations et de variables à mesurer,
transmissions plus fréquentes, nouvelles formes de présentation des données et meilleures
performances. Le matériel et les logiciels existants doivent ainsi être adaptés à de nouvelles
exigences. Cela ne peut se faire que si les stations automatiques sont bien conçues sur une base
modulaire. Les adaptations et les essais sont souvent plus complexes que prévu. Une station
automatique bien conçue comporte des fonctions préétablies qui permettent de modifier la
configuration et les paramètres du système. D’autres caractéristiques souhaitables sont une
possibilité d’alimentation de secours, de l’espace disponible dans les armoires d’installation,
des interfaces de communication en réserve, une capacité inexploitée de traitement et un
environnement logiciel adaptable. La partie I de la publication OMM (1997) fournit des conseils
sur la façon d’établir les spécifications relatives au fonctionnement des stations météorologiques
automatiques.
1.2.1 Capteurs
Les caractéristiques météorologiques exigées des capteurs employés dans des stations
automatiques ne sont pas très différentes de celles des capteurs équipant les stations
d’observation dotées de personnel. Il convient de se reporter à ce sujet aux recommandations
figurant dans les chapitres pertinents de la partie I du présent guide. Les mesures exécutées par
la plupart des stations automatiques étant commandées à distance, les capteurs doivent être
robustes et relativement sans entretien et devraient être dépourvus de défauts intrinsèques qui
puissent engendrer des erreurs systématiques ou des incertitudes dans l’échantillonnage des
variables à mesurer. De façon générale, les capteurs qui conviennent sont ceux qui produisent
des signaux électriques. Un grand nombre de capteurs de performance et de qualité (ainsi que
de coût) variables fonctionnent correctement avec des systèmes automatiques d’acquisition
de données. Les progrès sont fréquents: certains améliorent les performances de capteurs
existants alors que d’autres sont souvent fondés sur de nouveaux principes physiques. Selon leurs
caractéristiques de sortie, les capteurs peuvent être classés en capteurs analogiques, numériques
ou intelligents.
Capteurs analogiques. Capteurs produisant un signal de sortie le plus souvent sous la forme d’une
tension, d’une intensité, d’une charge, d’une résistance ou d’une capacité. Les signaux de base
sont traités pour être convertis en tension.
Capteurs numériques. Capteurs produisant un signal numérique dont l’information est contenue
dans un bit ou dans un groupe de bits, ou des impulsions ou une fréquence.
Au sujet des capteurs météorologiques, on trouvera dans la partie I du présent guide une
description complète de l’aspect général et des types de capteurs, des techniques de mesure,
des unités, des échelles, de l’exposition, des sources d’erreur, de l’étalonnage et de l’entretien. La
CIMO vient en aide aux Membres en organisant régulièrement des comparaisons internationales
d’instruments. Les résultats de ces comparaisons peuvent être intéressants pour évaluer les
diverses techniques de mesure. Depuis 1968, la CIMO fait appel à des questionnaires pour
obtenir des renseignements sur la mise au point d’instruments; elle publie tous les quatre
ans un rapport ayant pour titre Instrument Development Inquiry (Enquête sur la mise au point
d’instruments). Ce rapport contient des informations sur les instruments en cours de mise au
point et sur ceux mis en service. On trouvera des renseignements sur les éléments nouveaux
et sur les leçons tirées de l’exploitation dans les comptes rendus de colloques nationaux, dans
des revues et des magazines, ainsi que dans les comptes rendus des conférences techniques
organisées régulièrement par la CIMO. Ces conférences techniques s’accompagnent
d’expositions d’instruments météorologiques, où les constructeurs présentent leurs dernières
créations. Les résultats des comparaisons organisées par la CIMO, les rapports susmentionnés et
les comptes rendus des conférences techniques de la CIMO sont publiés par l’OMM dans la série
des rapports consacrée aux instruments et aux méthodes d’observation. Il est recommandé, afin
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 581
On trouvera ci‑après quelques indications précises concernant les capteurs destinés aux stations
météorologiques automatiques. L’exactitude des mesures que l’on peut obtenir dans des
conditions d’exploitation est indiquée dans l’annexe 1.E11 du chapitre 1 de la partie I du présent
guide. Les valeurs figurant dans cette annexe sont mises à jour au fur et à mesure que la CIMO
dispose de nouveaux résultats expérimentaux dans le domaine, selon les besoins. L’exactitude
de calibrage devrait être améliorée par un facteur au moins égal à 2 en tenant compte de la
transformation linéaire de la courbe de réponse. La résolution des capteurs devrait être trois fois
meilleure environ que les valeurs requises (ce qui inclut les performances de l’interface).
Pression atmosphérique: Il existe une grande variété d’appareils, fondés pour la plupart sur l’emploi
d’une capsule anéroïde, d’un fil vibrant ou d’un quartz, qui fournissent un signal électrique de
sortie sous forme analogique ou numérique. On peut se référer à la publication OMM (1992b)
en ce qui concerne les capteurs numériques. Concevoir une station automatique et établir ses
spécifications sont des tâches qui exigent une mûre réflexion au sujet des principaux problèmes
que constituent les effets néfastes de la température, de la dérive à long terme, des vibrations et
de l’exposition. Les effets de la température sont importants et ne sont pas toujours entièrement
compensés par des circuits intégrés à cet effet. Les capteurs de pression, dont l’exactitude subit
une dérive intrinsèque à long terme, en général de 0,2 à 0,3 hPa sur six mois, nécessitent un
étalonnage régulier. Les effets des vibrations et des chocs mécaniques sur les résultats produits
par les capteurs de pression sont importants, surtout dans le cas des applications maritimes des
stations météorologiques automatiques. En raison de la vulnérabilité de la plupart des capteurs
de pression d’emploi courant aux effets d’une exposition aux éléments extérieurs, il est courant
d’enfermer ceux‑ci dans un petit boîtier étanche et thermostabilisé se trouvant à l’intérieur de
l’enceinte de l’unité centrale. Dans certains pays, le capteur est relié à l’extérieur du boîtier par
un tube muni d’une tête de pression statique. Pour les applications aéronautiques ou dans les
stations isolées, conditions nécessitant un niveau élevé d’exactitude et de fiabilité, les stations
sont équipées d’au moins deux capteurs de pression.
Température: Les thermomètres les plus couramment utilisés dans les stations météorologiques
automatiques sont des thermomètres à thermistance ou à résistance électrique en métal pur. Les
thermomètres à résistance de platine (100 Ω à 0 °C) ont une excellente stabilité à long terme et
peuvent être considérés comme des capteurs de premier choix.
Les thermomètres électriques ont en général une constante de temps courte. Lorsqu’on les
échantillonne au moyen de circuits électroniques rapides, à la faible variation d’amplitude du
signal liée à la variation de température, s’ajoutent des fluctuations de haute fréquence Pour
éviter ce problème, on peut employer des capteurs ayant une constante de temps longue ou
amortir artificiellement leur réponse au moyen d’un circuit approprié afin d’allonger la constante
de temps du signal de sortie, ou encore établir numériquement la moyenne des signaux de sortie
échantillonnés dans l’unité centrale. Il est nécessaire de linéariser les thermomètres à résistance.
Cela peut se faire au moyen de circuits appropriés intégrés dans les modules de conditionnement
des signaux ou par des algorithmes logiciels. Il est vivement recommandé de linéariser la
caractéristique des thermistances. La protection des capteurs contre les effets du rayonnement
est d’une grande importance. Des écrans de protection contre le rayonnement adaptés à la
taille des capteurs sont largement utilisés et, dans les stations météorologiques automatiques,
remplacent les abris de Stevenson à ventilation naturelle. Pour obtenir des mesures exactes, il
faudrait ventiler artificiellement les écrans avec de l’air circulant à une vitesse d’environ 3 m s–1, en
veillant cependant à bien éviter que des aérosols et la bruine se déposent sur le capteur et créent
les conditions d’un thermomètre mouillé.
11
Rédigée lors de la réunion du Groupe d’experts des besoins en matière d’exactitude pour l’exploitation (1991) et
dont l’inclusion dans le présent guide a été approuvée lors de la quarante‑quatrième session du Conseil exécutif
(1992).
582 PARTIE II. SYSTÈMES D’OBSERVATION
Humidité: On trouvera dans la publication OMM (1989a) une description très complète des
capteurs d’humidité employés dans les stations météorologiques automatiques.
Des capteurs capacitifs et à résistance d’un prix relativement faible, qui mesurent directement
l’humidité relative, sont largement employés dans les stations automatiques, mais leurs
performances risquent toujours d’être détériorées par la présence de polluants, d’où la nécessité
de filtres spéciaux de protection. Des comparaisons ont permis d’établir qu’il faut procéder à
des corrections supplémentaires pour les mesures effectuées au‑dessous de 0 °C, même si les
capteurs sont équipés de circuits de compensation de la température, et que des problèmes
d’hystérésis se produisent en cas de saturation.
Des détecteurs de point de rosée, tels que les détecteurs à chlorure de lithium saturé et les
détecteurs à miroir refroidi, sont également employés dans les stations automatiques. Le
principal inconvénient des détecteurs à chlorure de lithium est leur sensibilité aux pannes de
courant: une interruption d’alimentation nécessite une intervention sur place. Les détecteurs
de point de rosée optiques sont considérés comme les plus prometteurs, mais il faut poursuivre
les recherches afin de mettre au point un dispositif de bonne qualité permettant le nettoyage
automatique du miroir.
Les problèmes que pose la faible valeur de la constante de temps sont encore plus graves
dans le cas des capteurs d’humidité que dans celui des capteurs de température. Comme les
thermomètres, les capteurs d’humidité de tout type doivent être installés derrière des écrans
de protection contre le rayonnement. Il faudrait donner la préférence à des écrans à ventilation
forcée, de construction semblable à ceux employés pour la mesure de la température. Des
erreurs sensibles sont possibles du fait de problèmes d’aspiration et de nettoyage.
La CIMO recommande également que dans le cas de nouveaux systèmes, il soit possible
d’obtenir les écarts types de la vitesse et de la direction du vent avec une résolution de 0,1 m s–1 et
de 10° respectivement.
On se sert fréquemment, comme capteur intelligent, d’un système de mesure du vent produisant
un signal numérique transmis en série et équipé d’un ou de plusieurs écrans d’affichage
numérique qui permettent de visualiser directement les variables opérationnelles (pics de vent,
moyennes sur 2 et 10 min, direction du vent et extrêmes).
Précipitations: Le matériel de mesure des précipitations le plus couramment utilisé dans les
stations météorologiques automatiques est le pluviomètre à augets basculeurs. Les pluviomètres
de ce type sont rapidement souillés par les feuilles d’arbres, le sable, les fientes d’oiseaux,
etc. Il faut donc les installer soigneusement dans les stations automatiques rarement visitées.
Il convient de chauffer correctement les diverses parties des pluviomètres qui fonctionnent
au‑dessous de 0 °C, ce qui risque de provoquer de sérieux problèmes d’alimentation électrique
dans le cas des stations automatiques alimentées par batterie. Il faudrait prendre garde, dans
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 583
le cas des pluviomètres chauffés, aux erreurs dues aux pertes par évaporation. Une exactitude
d’observation de 5 à 10 % est considérée comme excellente. On peut améliorer l’exactitude d’un
pluviomètre en l’entourant d’un pare‑vent adapté (par exemple un écran Nipher). On trouvera
dans la publication OMM (1994) une comparaison de divers pluviomètres.
Insolation: Il existe divers types d’appareils qui enregistrent la durée d’insolation pour la
transformer en signaux électriques. On peut, à cet égard, se référer à la publication OMM
(1989b). L’OMM a adopté un seuil de 120 W m–2 d’insolation effective pour l’éclairement
énergétique direct du soleil, ce qui résout un problème à long terme. Les capteurs d’insolation
laissés longtemps sans entretien posent un problème: les salissures qui s’accumulent sur les
fenêtres des capteurs provoquent des modifications apparentes du seuil d’insolation.
Rayonnement: En principe, la plupart des capteurs de rayonnement exploités dans les stations
traditionnelles peuvent être reliés à un système automatique. Le principal problème technique
est que ces capteurs sont en général des appareils analogiques qui produisent, comme signal
de sortie, de très faibles tensions à variation continue. Ces tensions sont très sensibles aux
interférences électromagnétiques dues aux câbles qui transmettent les signaux, ce qui implique
de prendre des précautions pour réaliser une mesure. L’accumulation de salissures sur la fenêtre
des instruments est encore plus critique pour la mesure du rayonnement (qui est une mesure
absolue) que pour celle de l’insolation. On considère que le dépôt de poussière sur le dôme
des pyranomètres provoque une baisse d’exactitude de 2 % (à l’exclusion des jours de gel ou
de rosée). C’est pourquoi il est difficile d’envisager l’emploi de tels appareils à des endroits non
visités pendant plusieurs jours. On peut obtenir une exactitude d’observation (en moyenne
journalière) de l’ordre de 5 %.
Hauteur des nuages: Actuellement, la mesure de la hauteur des nuages dans les stations
météorologiques automatiques se fait essentiellement à l’aide de célomètres (laser). On trouvera
dans la publication OMM (1988) une évaluation des systèmes actuellement employés. Il existe
encore des difficultés à traiter les signaux transmis automatiquement par les capteurs afin de
produire des mesures exactes de la hauteur de la base des nuages dans les conditions très
diverses rencontrées dans la nature, notamment en cas de pluie ou de neige. Une autre difficulté
est due au fait que les capteurs ne mesurent la hauteur des nuages que sur une zone très réduite
située directement au‑dessus d’eux. De telles informations, transmises à des utilisateurs à
distance, risquent de donner une image dangereusement incorrecte de la couverture nuageuse,
surtout si les données doivent être utilisées en aéronautique. Il est possible d’éliminer ce
problème en faisant appel à des algorithmes pour évaluer la nébulosité pendant des intervalles
de traitement de 30 minutes. Dans certains pays, le rôle du célomètre se limite à une aide à
l’observateur qui observe lui‑même le ciel. Les célomètres, qui consomment habituellement
une grande quantité d’énergie, ne peuvent généralement être employés que dans des endroits
normalement desservis en électricité. Par ailleurs, l’accumulation de neige, de poussière ou
d’autres salissures sur les fenêtres par lesquelles s’effectuent l’entrée et la sortie du faisceau de
lumière visible ou infrarouge peut nuire à leur bon fonctionnement.
Visibilité: Il existe une grande variété d’instruments qui permettent de mesurer la visibilité dans
les stations météorologiques automatiques. À cet égard, on pourra se référer à la publication
OMM (1990).
Il est possible d’établir une distinction entre les transmissomètres et les diffusomètres. Les
transmissomètres qui offrent une grande exactitude sont utilisés surtout sur les aérodromes
alors que les diffusomètres mesurant la rétrodiffusion ou la diffusion avant et les diffusomètres
intégrés, qui offrent une exactitude de mesure moindre, mais sont aussi moins coûteux, sont
plus courants dans les autres stations automatiques. Les deux types d’appareils existent dans
des versions pouvant être alimentées par des batteries, ce qui en autorise l’emploi à des endroits
isolés non alimentés en courant alternatif, notamment par un réseau de distribution. Cependant,
ils consomment beaucoup d’énergie et, à moins d’être alimentés par une source auxiliaire de
courant, ils ne peuvent normalement pas être utilisés plus de quelques semaines sans que les
batteries soient renouvelées.
584 PARTIE II. SYSTÈMES D’OBSERVATION
Dans la majorité des stations automatiques existantes, toutes ces fonctions sont exécutées par
un système piloté par microprocesseur, installé dans une enceinte à l’épreuve des intempéries,
aussi près que possible des capteurs, ou à l’intérieur d’un bâtiment. Si l’unité centrale est placée
à proximité des capteurs, le traitement sur place réduit le nombre de données à transmettre
et permet de présenter ces données sous une forme adaptée à la transmission directe par des
voies de communication. Dans un tel cas, cependant, l’unité centrale est sensible aux pannes
d’électricité et doit être protégée du milieu extérieur dans lequel elle fonctionne. Si l’unité
centrale est placée à l’intérieur d’un bâtiment, il est généralement possible de la raccorder à une
alimentation secteur et de la faire fonctionner comme si elle se trouvait dans un environnement
normal de bureau. Cependant, une telle configuration exige l’emploi de longs câbles
d’interconnexion et de conditionneurs de signaux.
Selon les conditions et les besoins locaux, les diverses fonctions de l’unité centrale peuvent être
exécutées par des éléments distincts. Dans ce cas, ces éléments disposent chacun de leur propre
microprocesseur et du logiciel approprié. Ils peuvent être installés à divers endroits dans la
station et communiquent les uns avec les autres par l’intermédiaire de liaisons et de procédures
bien établies de transfert de données entre processeurs. Ils fonctionnent de manière dépendante,
l’unité de traitement des données étant l’unité principale. On peut prendre comme exemple
l’installation d’une ou de plusieurs unités d’acquisition de données à proximité de capteurs,
reliées à l’élément de traitement ou de transmission de l’unité centrale par l’intermédiaire d’une
ou de plusieurs lignes téléphoniques permettant la transmission numérique de données. Ces
unités peuvent se composer d’un seul capteur (par exemple un capteur intelligent tel qu’un
célomètre laser), de plusieurs capteurs semblables (par exemple des thermomètres) ou de
plusieurs capteurs différents.
Conditionnement du signal
Câbles de raccordement des capteurs: Les signaux électriques émanant de capteurs, transmis à un
système d’acquisition de données, peuvent subir des bruits indésirables. La gêne provoquée par
ces bruits dépend du rapport signal‑bruit et de l’application considérée. Les signaux numériques
sont relativement insensibles au bruit en raison de leur caractère discret (et de leur niveau
élevé). En revanche, les signaux analogiques subissent l’influence directe de perturbations à
relativement bas niveau. Les principaux mécanismes de transmission de signaux parasites sont
le couplage capacitif et le couplage inductif. Pour réduire les erreurs dues au couplage capacitif,
on peut employer des câbles blindés et placer un matériau conducteur (au potentiel de la terre)
entre les câbles d’interconnexion et la source de parasites. On peut également faire appel à des
paires torsadées pour réduire efficacement le couplage électromagnétique.
Protection contre les surtensions: Si une station météorologique automatique risque de subir
des surtensions accidentelles, il est indispensable d’installer un dispositif de protection pour
éviter une éventuelle destruction du matériel. Les surtensions peuvent être dues à des champs
magnétiques, à l’électricité statique et, surtout, à la foudre.
Émetteurs à deux fils: Il est parfois souhaitable de préamplifier les signaux de bas niveau
à proximité des capteurs pour conserver un rapport signal‑bruit maximal. Ce type de
conditionnement peut s’obtenir au moyen d’un émetteur à deux fils. Les émetteurs de ce type
ne font pas qu’amplifier le signal d’entrée, ils assurent également son isolation et le transforment
en un courant fort (généralement compris entre 4 et 20 mA). La transmission de courant permet
d’envoyer des signaux à une distance d’environ 1 500 m.
Isolation numérique: Des modules électriques servent à acquérir des signaux numériques d’entrée
tout en éliminant le rapport galvanique établi entre la source de signaux et le matériel de mesure.
Ces modules ne font pas qu’isoler, ils transforment aussi les signaux d’entrée en niveaux de
tension normalisés pouvant être lus par le matériel d’acquisition de données.
Isolation analogique: Des modules d’isolation analogique servent à protéger le matériel des hautes
tensions, à couper les boucles de terre et à supprimer les signaux importants de mode commun.
Trois types d’isolation analogique sont couramment employés de nos jours: le couplage capacitif
ou condensateur d’isolation, d’un faible prix, le couplage optique, qui donne de bons résultats
pour un prix raisonnable, et la liaison par transformateur, précise et donnant une isolation élevée,
mais plus chère.
Filtrage par filtre passe‑bas: On se sert de filtres pour séparer les signaux voulus des signaux
indésirables. Les signaux indésirables sont le bruit, la captation de fréquences parasites émises
par une ligne de courant alternatif, les interférences dues aux émetteurs de radio et de télévision
et les signaux ayant une fréquence supérieure à la moitié de la fréquence d’échantillonnage.
On emploie en général un filtre passe‑bas pour éliminer ces sources d’erreurs indésirables, en
excluant la partie du spectre où des signaux recherchés n’existent pas.
Résistances: Des modules spéciaux sont utilisés pour transformer une résistance, telle que celle en
platine des thermomètres, en tension de sortie linéarisée et pour produire le courant de sortie
nécessaire à cette transformation. Il est à noter que le passage à un signal linéaire peut être une
source d’inexactitude, critique pour certaines applications.
Pour que les différents types de capteurs météorologiques puissent être desservis, le matériel
servant à cette fonction se compose de divers canaux d’entrée‑sortie qui correspondent à
l’ensemble des caractéristiques des signaux électriques de sortie des capteurs et des modules de
conditionnement. Le nombre total de canaux de chaque type, qui dépend des caractéristiques
de sortie des capteurs, est déterminé par le type d’application considéré.
Les tâches d’acquisition de données sont l’exploration des canaux et la numérisation des
signaux qui en émanent. Un commutateur cyclique est un simple commutateur qui permet à
un seul convertisseur de desservir plusieurs canaux d’entrée analogiques. Ces commutateurs
peuvent être commandés par un logiciel qui choisit un canal donné dont les signaux sont à
traiter à un moment défini. Le convertisseur transforme les données analogiques d’origine
en données assimilables par l’ordinateur (numériques, en codes binaires). La résolution
analogique‑numérique s’exprime en bits. Une résolution de 12 bits correspond environ à 0,025 %
de la gamme ou échelle complète analogique‑numérique, une résolution de 14 bits à 0,006 % et
une résolution de 16 bits à 0,001 5 %.
Ports numériques de type parallèle: L’ensemble des canaux est groupé essentiellement en blocs de 8
ou 16 bits, avec possibilités d’extension. Ces blocs servent à l’analyse de bits individuels ou d’état,
ou alors à la saisie des signaux de capteurs émettant des signaux numériques en parallèle (par
exemple des girouettes émettant en code Gray).
Impulsions et fréquences: Le nombre de canaux est généralement limité entre deux et quatre. Des
appareils caractéristiques de ce type sont les capteurs de vitesse du vent et les pluviomètres
(à augets basculeurs). On fait appel à des compteurs basse et haute vitesse qui cumulent les
impulsions dans des mémoires spécialisées de l’unité centrale. Un système qui enregistre les
impulsions ou l’état sous tension‑hors tension d’un transducteur s’appelle un enregistreur
d’événement.
Ports numériques de type série: Il s’agit de canaux individuels d’entrée‑sortie série asynchrone
permettant l’échange de données avec des capteurs intelligents. Ces canaux permettent des
transmissions traditionnelles entre appareils à courte distance (RS232: plusieurs mètres) ou
à longue distance (RS422/485: plusieurs kilomètres). Divers capteurs ou systèmes de mesure
peuvent partager une même ligne et un même port d’entrée, l’accès à chacun des capteurs se
faisant séquentiellement au moyen de mots codés.
Le matériel de traitement de données est le cœur de l’unité centrale. Ses principales fonctions
sont la commande centralisée des entrées‑sorties en provenance ou en direction de l’unité
centrale et le traitement de l’ensemble des données en entrée au moyen du logiciel approprié.
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 587
Son fonctionnement est piloté par microprocesseur. Les microprocesseurs ne modifient en rien
les principes des mesures météorologiques et les pratiques en matière d’observation, mais ils
permettent aux constructeurs de concevoir autrement des fonctions techniques qui rendent les
mesures plus faciles, plus rapides et plus fiables et d’accroître les possibilités des instruments,
surtout en ce qui concerne le traitement des données. L’adoption de microprocesseurs réduit
considérablement le coût du matériel associé à certaines applications. Il est à noter, cependant,
que les possibilités qu’ouvrent les microprocesseurs conduisent très souvent à une augmentation
rapide et fortement sous‑évaluée du coût de mise au point des logiciels.
1.2.3 Périphériques
polyvalent et complet, il n’y a que le secteur qui puisse assurer une alimentation suffisante, il
faudrait quand même prévoir une alimentation de secours, au moins pour l’horloge système, le
processeur et la mémoire non rémanente, qui peut contenir des données récentes nécessaires au
redémarrage automatique de la station.
Horloge temps réel: Une horloge temps réel programmée sur 24 heures, alimentée par pile,
afin que l’heure soit maintenue même en cas de panne de courant, est un élément essentiel
du matériel assurant le traitement de données. L’exactitude des horloges employées dans les
stations automatiques nécessite une attention particulière si l’on veut que les affichages, les
intervalles d’échantillonnage et les indications horaires demeurent corrects. Dans certaines
stations, on fait appel à un dispositif qui synchronise l’horloge par rapport à des signaux de
référence diffusés par radio ou par rapport au système de positionnement global (GPS).
Contrôleur intégré: Les éléments essentiels d’une station météorologique automatique comportent
souvent des composants dont le mauvais fonctionnement ou la défaillance peuvent réduire
sérieusement la qualité des données de sortie principales ou leur enlever toute utilité. L’inclusion
de circuits qui contrôlent automatiquement l’état de ces composants est un moyen efficace
de vérifier constamment leurs performances en cours de fonctionnement. En voici quelques
exemples: un détecteur de panne d’alimentation qui relance le processeur et évite l’interruption
des fonctions de la station à la suite d’une panne de courant, un contrôleur de séquence qui
vérifie si les microprocesseurs fonctionnent correctement, des circuits de test qui contrôlent
l’état de fonctionnement de sous‑systèmes de la station — batteries, chargeurs, aspirateurs
(enceintes des capteurs de température et d’humidité), numériseurs, appareils de chauffage,
etc. Les données sur l’état de ces éléments peuvent s’afficher automatiquement sur le site ou être
introduites dans l’unité centrale en vue du contrôle de la qualité et de la maintenance.
Écrans d’affichage et terminaux locaux: Les contraintes d’exploitation exigent souvent que certaines
observations soient introduites ou corrigées manuellement, comme c’est le cas dans les stations
semi‑automatiques. Selon les caractéristiques requises et la conception de la station, divers
types de terminaux locaux sont employés dans ce but: un simple afficheur numérique à diodes
électroluminescentes avec clavier, faisant partie intégrante de l’unité centrale, un écran avec
clavier ou même un petit ordinateur personnel installé à un endroit éloigné, mais à l’intérieur
d’un bâtiment. Pour la maintenance, on se sert parfois de terminaux portatifs spéciaux,
enfichables directement dans la station. Pour des applications particulières telles que celles des
stations automatiques d’aéroport ou des stations fournissant une aide aux observateurs, des
écrans d’affichage numériques permettent de visualiser les données à un ou plusieurs endroits
sur le site. On peut aussi ajouter dans la station une imprimante ou des enregistreurs graphiques.
Lorsqu’on conçoit une station météorologique automatique ou qu’on en définit les spécifications,
il faut savoir que le coût de mise au point et d’essai des logiciels sera l’un des postes financiers
les plus lourds de l’ensemble. À moins d’en soigner particulièrement la conception préliminaire
et de respecter une discipline rigoureuse lors du codage, un ensemble complexe de logiciels
perd rapidement de sa souplesse et devient difficile à gérer. Des modifications mineures des
caractéristiques requises, telles que celles qu’exige souvent l’installation d’un nouveau capteur,
la modification d’un code ou la modification de critères de contrôle de la qualité, entraînent
fréquemment des transformations approfondies et très coûteuses des logiciels.
En général, on peut établir une distinction entre le logiciel d’application, qui consiste en des
algorithmes permettant le traitement correct des données selon les caractéristiques requises par
l’utilisateur, et le logiciel de base, inhérent à la configuration du microprocesseur et qui permet
de mettre au point et de faire tourner les programmes d’application.
On trouvera des conseils sur la mise au point d’algorithmes pour les stations automatiques dans
la section 1.1.3 ci‑dessus. La conception d’algorithmes destinés aux stations météorologiques
automatiques synoptiques a été décrite dans la publication OMM (1987). Les algorithmes de
traitement des données sur le vent de surface font l’objet de la publication OMM (1991), tandis
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 589
que la publication OMM (2003) est consacrée aux algorithmes que les Membres de l’OMM
utilisent. Des renseignements détaillés sur l’échantillonnage, la réduction des données et le
contrôle de la qualité figurent en outre dans les chapitres appropriés de la partie IV du présent
guide.
Dans les systèmes récents, on fait de plus en plus appel à des systèmes d’exploitation multitâches
et multi‑utilisateurs travaillant en temps réel et ayant fait leurs preuves, qu’on ne trouvait
auparavant que sur des mini‑ordinateurs. Ces systèmes d’exploitation travaillent en temps réel,
car toutes les opérations sont commandées par des interruptions matérielles ou logicielles. Ils
sont multitâches, car plusieurs tâches peuvent être exécutées presque simultanément selon une
priorité prédéterminée. Ils sont multi‑utilisateurs, car divers utilisateurs peuvent avoir accès à un
système presque simultanément. Le réalisateur de logiciels peut consacrer toute son attention à
la mise au point de programmes d’application dans le langage de son choix, laissant au système
d’exploitation le soin de s’occuper des fonctions très difficiles et complexes de commande et
d’exécution des tâches.
Les fonctions de traitement que doivent exécuter soit l’unité centrale, soit les interfaces des
capteurs, soit une combinaison des deux dépendent dans une certaine mesure du type de
stations météorologiques automatiques considéré et de son but. En général, une partie ou
l’intégralité des opérations suivantes sont nécessaires: l’initialisation, l’échantillonnage des
signaux de sortie des capteurs, la transformation de ces signaux en données météorologiques,
la linéarisation, l’établissement de moyennes, la saisie manuelle d’observations, le contrôle de la
qualité, la réduction des données, la composition et le contrôle des messages, la mémorisation,
la transmission et l’affichage des données. L’ordre dans lequel ces fonctions sont disposées n’est
qu’approximativement séquentiel. Le contrôle de la qualité peut être effectué à diverses étapes:
dès après l’échantillonnage, à la suite du calcul des variables météorologiques ou après la
saisie manuelle des données et la composition des messages. Faute de vérification de la qualité
des données et du contenu des messages, les données fournies par les stations automatiques
risquent fort de contenir des erreurs non détectées. Si la linéarisation peut être effectuée par le
capteur ou le module de conditionnement du signal, elle devrait toujours avoir lieu avant le calcul
d’une valeur moyenne.
L’exécution du logiciel d’application est gérée par un ordonnanceur qui commande les tâches
à exécuter et le moment de leur exécution. L’aperçu que nous donnons ci‑après du logiciel
d’application d’une station météorologique automatique se limite à certains aspects pratiques
propres à ce type de stations.
590 PARTIE II. SYSTÈMES D’OBSERVATION
1.3.2.1 Initialisation
L’initialisation est le processus qui prépare l’ensemble des mémoires, établit tous les paramètres
d’exploitation et lance le logiciel d’application. Pour pouvoir démarrer une opération normale,
le logiciel doit d’abord prendre connaissance de certains paramètres spécifiques, notamment
les paramètres propres à la station (numéro de code, altitude, latitude et longitude), la date
et l’heure, l’emplacement physique du capteur dans la section d’acquisition de données, le
type et les caractéristiques des modules de conditionnement des signaux, les constantes de
conversion et de linéarisation pour la traduction des signaux émanant du capteur en valeurs
météorologiques, les valeurs limites absolues et les valeurs limites du taux de variation en vue
du contrôle de la qualité ou encore l’implantation du fichier de mise en mémoire tampon. Selon
la station, l’ensemble ou une partie de ces paramètres peuvent être introduits ou modifiés
localement par les utilisateurs grâce à des menus interactifs s’affichant sur un terminal. Dans
la dernière génération de stations automatiques, l’initialisation peut même être effectuée
à distance, par exemple par un système central de gestion de réseau ou par un ordinateur
personnel éloigné. En plus d’une initialisation complète, il faudrait programmer une initialisation
partielle qui puisse rétablir automatiquement un fonctionnement normal, sans perte des
données mémorisées, après une interruption temporaire due au réglage de l’horloge temps réel,
à une opération de maintenance ou d’étalonnage ou à une panne de courant.
L’échantillonnage se définit comme le processus consistant à obtenir une suite bien espacée
de mesures d’une variable. Lors du traitement numérique des signaux émanant d’un capteur
météorologique, la question se pose de savoir avec quelle fréquence il faudrait échantillonner ces
signaux. L’important est de veiller à ce que la séquence d’échantillons représente correctement
les variations sensibles de la variable atmosphérique à mesurer. Une règle empirique
généralement acceptée consiste à procéder à au moins un échantillonnage par intervalle de
temps égal à la constante de temps du capteur. Cependant, vu la fréquence élevée associée à
certaines variables météorologiques, il faudrait d’abord procéder à un filtrage ou à un lissage
correct en choisissant des capteurs possédant une constante de temps adéquate ou en utilisant
des techniques de filtrage et de lissage appliquées par les modules de conditionnement des
signaux (voir le chapitre 2 de la partie IV).
a) Que les échantillonnages pratiqués pour calculer les moyennes soient réalisés à des
intervalles réguliers qui:
ii) Ne devront pas être supérieurs à la constante de temps d’un filtre analogique
passe‑bas placé à la sortie du capteur à réponse linéaire rapide;
iii) Devront être suffisamment nombreux pour que l’incertitude relative à la moyenne des
échantillons soit ramenée à un niveau acceptable, par exemple qu’elle soit inférieure à
celle qui correspond à l’exactitude requise pour la moyenne de la variable;
b) Que les échantillons qui serviront à estimer les extrêmes soient prélevés à intervalles au
moins quatre fois plus fréquents que ceux prévus aux alinéas i) ou ii) ci‑dessus.
12
Recommandation 3 (CIMO‑X), formulée par la CIMO lors de sa dixième session (1989).
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 591
La conversion de données brutes consiste à transformer les signaux électriques produits par
les capteurs ou les modules de conditionnement des signaux en valeurs météorologiques. Ce
processus exige l’application d’algorithmes de conversion qui font appel à des constantes et à
des fonctions de transfert définies au cours des procédures d’étalonnage.
Il est important de comprendre que certains capteurs sont fondamentalement non linéaires,
autrement dit que leurs signaux de sortie ne sont pas directement proportionnels aux variables
atmosphériques mesurées (comme dans le cas d’un thermomètre à résistance), que certaines
mesures subissent l’influence de variables extérieures suivant une relation non linéaire (les
résultats produits par certains capteurs de pression et d’humidité étant par exemple influencés
par la température) et que, même si le capteur est linéaire en soi ou comporte des circuits
de linéarisation, il n’y a pas de relation linéaire entre les variables mesurées et la variable
atmosphérique considérée (par exemple, le signal de sortie d’un célomètre à faisceau tournant
équipé d’un photodétecteur et d’un codeur d’angle de rotation qui indique l’intensité de la
lumière rétrodiffusée en fonction de l’angle donne la hauteur des nuages de façon non linéaire).
Il est ainsi nécessaire d’introduire des corrections pour tenir compte de la non‑linéarité des
algorithmes de conversion dans la mesure où les modules de conditionnement des signaux
ne le font pas. La linéarisation est particulièrement importante lorsqu’il faut calculer des
valeurs moyennes sur une certaine période. En effet, lorsque le signal émanant d’un capteur
n’est pas constant durant la période d’établissement de la moyenne, la séquence d’opérations
«établissement d’une moyenne suivi d’une linéarisation» peut donner des résultats différents
de la séquence «linéarisation suivie de l’établissement d’une moyenne». La bonne procédure à
suivre est d’établir uniquement la moyenne de variables linéaires.
b) Les données sur le vent, sauf celles sur les rafales, soient transmises sous forme de moyennes
sur deux ou dix minutes, obtenues après linéarisation du signal de sortie des capteurs.
Les moyennes ainsi obtenues, qui doivent être considérées comme les valeurs «instantanées»
des variables météorologiques à employer dans la plupart des applications opérationnelles, ne
devraient pas être confondues avec les échantillons bruts instantanés émanant des capteurs
ni avec les valeurs moyennes sur de plus grandes périodes qu’exigent certaines applications.
Dans la mesure où cela est applicable, des moyennes sur une minute sont proposées comme
valeurs instantanées correctes pour la plupart des variables. Il existe des exceptions: la mesure
du vent (voir b) ci‑dessus) et celle des vagues (moyenne sur 10 ou 20 minutes). Compte tenu
des écarts que peuvent présenter les observations des rafales maximales obtenues à partir de
systèmes de mesure du vent ayant des temps de réponse différents, il est recommandé que les
caractéristiques de filtrage d’une chaîne de mesure du vent soient telles que les rafales maximales
indiquées correspondent à une moyenne sur trois secondes. C’est la moyenne la plus élevée
sur trois secondes qu’il convient de transmettre. Dans la pratique, cela exige que les signaux de
sortie du capteur soient échantillonnés et que la moyenne mobile sur trois secondes soit calculée
au moins une à quatre fois par seconde.
13
Recommandation 6 (CIMO‑IX), formulée par la CIMO lors de sa neuvième session (1985).
592 PARTIE II. SYSTÈMES D’OBSERVATION
Certaines grandeurs en particulier, qui nécessitent une conversion pour le calcul des moyennes,
sont indiquées dans le chapitre 2 de la partie IV.
Pour certaines applications, il est nécessaire de mettre au point des programmes interactifs qui,
à partir de terminaux, permettent aux observateurs d’introduire et de corriger des observations
visuelles ou subjectives pour lesquelles il n’existe pas de capteurs automatiques dans la station.
Ces observations sont essentiellement celles du temps présent et passé, et de l’état du sol, ainsi
que d’autres phénomènes particuliers.
Outre les données météorologiques instantanées, obtenues directement à partir des données
échantillonnées à la suite d’une conversion appropriée, d’autres variables météorologiques
opérationnelles et données statistiques sont à calculer. La plupart sont fondées sur des valeurs
instantanées mémorisées alors que pour d’autres, les données sont obtenues avec une fréquence
plus élevée d’échantillonnage, par exemple pour le calcul des rafales. Comme exemples de
réduction de données, citons le calcul du point de rosée à partir des valeurs de l’humidité relative
et de la température ou encore la réduction de la pression au niveau moyen de la mer. Les
données statistiques comprennent les extrêmes sur une ou plusieurs périodes (par exemple pour
la température), les cumuls (par exemple pour les précipitations) sur des périodes définies (allant
de quelques minutes à plusieurs jours), les moyennes sur des périodes différentes (données
climatologiques) et les valeurs intégrées (rayonnement). Ces variables et grandeurs peuvent
être calculées au niveau de la station automatique ou alors par le système central de gestion de
réseau qui offre normalement une puissance de calcul supérieure.
La CIMO participe à un vaste programme d’enquêtes qui vise à la normalisation des algorithmes
pour toutes les variables et dont les résultats sont publiés dans OMM (2003).
Comme suite à l’enquête qu’elle avait lancée en 1952 (OMM, 1954) sur les méthodes de
réduction de la pression employées par ses Membres, l’OMM a conclu que la «formule
internationale» (fondée sur la formule de Laplace ou les tables d’Angot) ainsi que des méthodes
«simplifiées» étaient en usage (voir l’exemple des stations situées à faible altitude16, au chapitre 3
de la partie I du présent guide). Cette enquête a conduit à une étude de la normalisation des
méthodes de réduction qui a donné pour résultat une équation générale de réduction de la
pression recommandée en tant que norme17 (OMM, 1964). On a pu observer par la suite que,
outre la méthode recommandée, la «formule internationale» et des méthodes faisant appel à des
formules simplifiées continuaient d’être utilisées dans la pratique (OMM, 1968).
Les spécifications fonctionnelles font souvent état de la nécessité de coder les messages
météorologiques conformément au Manuel des codes (OMM, 2011b). Selon le type de
message et les éléments à coder, la production de messages peut se faire de façon entièrement
automatique ou semi‑automatique. La production entièrement automatique suppose que tous
les éléments à coder sont des données mesurables alors que la production semi‑automatique
exige l’intervention d’un observateur chargé de noter des observations visuelles ou objectives
14
Recommandation 7 (CIMO‑IX), formulée par la CIMO lors de sa neuvième session (1985).
15
Recommandation 7 (CIMO‑X), formulée par la CIMO lors de sa dixième session (1989).
16
Recommandation 13 (CIMO‑I), formulée par la CIMO lors de sa première session (1953) et adoptée par le Conseil
exécutif à sa quatrième session (1953).
17
Recommandation formulée par le Comité de travail II sur la réduction de la pression créé par la CIMO lors de sa
première session (OMM, 1954, partie 2).
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 593
telles que le temps présent et passé, l’état du sol et le type de nuages. Il ne faudrait pas
sous‑estimer l’importance des algorithmes de codage de messages, dont la mise au point exige
des efforts considérables, tout comme leur mise à jour, lorsque la structure des messages est
modifiée par des règlements internationaux, régionaux et nationaux. Ces algorithmes occupent
une quantité considérable de mémoire, qui peut être critique pour des stations aux performances
limitées. Il est à noter que les données d’observation peuvent être transmises à un système
central de gestion de réseau qui, normalement, offre davantage de puissance informatique pour
le codage des messages.
Dans une station météorologique automatique, le contrôle de la qualité, réalisé à l’aide d’un
matériel et de programmes appropriés, a pour objet de limiter automatiquement le nombre
d’observations inexactes et d’observations manquantes. On atteint ces deux objectifs en veillant
à ce que chaque observation soit calculée à partir d’un nombre suffisamment élevé d’échantillons
de données dont la qualité est contrôlée. On peut ainsi isoler et exclure les échantillons
comportant d’importantes erreurs parasites, ce qui permet de poursuivre les calculs sans qu’ils
soient faussés par ces échantillons.
Le contrôle de la qualité vise à garantir la qualité et l’uniformité des données fournies par les
stations automatiques. Il consiste en un ensemble de procédures définies avec soin portant
essentiellement sur les pratiques de maintenance, les réparations, l’étalonnage et les vérifications
de la qualité des données. Il n’existe actuellement aucune norme en la matière s’appliquant aux
divers types de stations météorologiques automatiques, ce à quoi il conviendrait de remédier en
mettant au point un ensemble de procédures normalisées avec une documentation appropriée.
Dans les stations automatiques modernes, les résultats des procédures de contrôle de la qualité
des capteurs indiquant pourquoi une mesure est suspecte ou erronée et les résultats des
autocontrôles matériels effectués par un contrôleur intégré sont stockés dans des mémoires
tampons de service. L’affichage visuel de tels indicateurs d’état est très pratique pour les
opérations de maintenance sur site. La transmission à partir d’un réseau de stations automatiques
vers un système central de gestion de réseau du contenu de ces mémoires, soit en annexe
aux messages d’observation réguliers, soit sous forme de messages de service transmis à des
fréquences établies ou sur demande, constitue une approche intéressante de la maintenance du
matériel météorologique.
L’emploi de procédures en temps réel pour le contrôle de la qualité des données émanant
de stations automatiques est fortement conseillé. Le chapitre 1 de la partie IV présente les
recommandations détaillées à ce sujet, tandis que la publication OMM (1993) fait état des
procédures normales de contrôle de la qualité. On trouvera ci‑après une description pratique des
recommandations pertinentes.
Contrôle distinct
Il s’agit ici de contrôler chaque échantillon d’un capteur le plus tôt possible en cours
de traitement en tenant compte des fonctions de réponse du capteur et du module de
conditionnement du signal, afin d’obtenir une valeur plausible et une variation également
plausible.
Valeur plausible: Il s’agit de vérifier en gros si la valeur mesurée respecte les limites absolues de
variabilité. Ces limites dépendent de la nature de la variable ou du phénomène météorologique
considéré, mais aussi de la plage de mesure du capteur et du matériel d’acquisition de données.
Il est possible de procéder à des contrôles supplémentaires par rapport à des limites qui sont
fonction de la région géographique, de la saison et du moment de l’année. Des valeurs limites
s’appliquant à ces contrôles supplémentaires sont proposées dans les tableaux 6.3 à 6.9 du
chapitre 6 de la publication OMM (1993). Les contrôles permettent d’établir un classement des
valeurs obtenues: correctes, erronées ou suspectes.
594 PARTIE II. SYSTÈMES D’OBSERVATION
Variation plausible: Il s’agit de vérifier si la variation par rapport à un niveau précédent acceptable
est plausible. L’efficacité de ce contrôle dépend de la cohérence dans le temps ou de la
persistance des données. C’est aux données ayant une haute résolution temporelle (fréquence
d’échantillonnage élevée) que les contrôles de ce type s’appliquent le mieux, car dans ce cas, la
corrélation entre échantillons adjacents augmente avec la fréquence d’échantillonnage. Il est clair
qu’il est difficile de déterminer à quel rythme une variable atmosphérique peut évoluer, compte
tenu des caractéristiques de réponse du capteur considéré. Il est possible d’effectuer d’autres
contrôles de cohérence temporelle en comparant les données transmises dans deux messages
consécutifs. On trouvera dans la publication OMM (1993) les tolérances concernant la variation
de la température de l’air, du point de rosée et de la tendance barométrique, selon les intervalles
de temps séparant les mesures à des fins synoptiques (1, 2, 3, 6 et 12 heures).
Contrôle commun
Il est possible de procéder au contrôle de cohérence interne d’une variable par rapport
à d’autres en se fondant sur des principes physiques et météorologiques établis. En voici
quelques exemples: le point de rosée ne peut pas être supérieur à la température ambiante; des
précipitations en l’absence de nuages au‑dessus du point considéré ou après que des nuages
viennent de passer sont fort improbables; une vitesse du vent non nulle avec une variance de
la direction du vent égale à zéro indique une possibilité d’anomalie du capteur de direction du
vent, tandis qu’une vitesse moyenne du vent nulle avec une variance de la direction du vent
différente de zéro indique une possibilité d’anomalie d’un capteur de vitesse du vent.
Lorsqu’une grandeur relevée par un observateur est saisie dans une station automatique, les
contrôles distincts et communs, indiqués ci‑dessus, peuvent être effectués. Certains contrôles
spéciaux de cohérence sont proposés dans la publication OMM (1993) à propos des éléments
suivants: temps présent par rapport à la visibilité; temps présent par rapport à la nébulosité;
nébulosité par rapport aux données sur le temps et les nuages; temps présent par rapport à
la température de l’air; temps présent par rapport au point de rosée; hauteur des nuages par
rapport au type de nuages; et état de la mer par rapport à la vitesse du vent.
Contrôle du matériel
Le vieillissement du matériel, l’apparition de situations dans lesquelles le matériel n’a pas été
testé, un manque d’entretien, les pannes, etc., tendent à nuire au bon fonctionnement d’une
station météorologique automatique. Il importe donc qu’une station automatique dispose d’un
appareillage intégré destiné à contrôler en automatique et de façon périodique ses éléments
matériels, les résultats ainsi obtenus étant soit mis à la disposition du personnel compétent,
soit mémorisés dans des mémoires tampons de service. Les mémoires en question peuvent
être consultées et les données d’état devraient être employées pour établir un classement des
mesures: correctes, erronées ou suspectes.
Dans le cas de stations météorologiques automatiques équipées d’un logiciel de codage des
messages et de transmission de ceux‑ci par le Système mondial de télécommunications, il est
essentiel que tous les contrôles indiqués ci‑dessus soient effectués très soigneusement. Il faudrait
également vérifier si les règlements concernant les caractères, le nombre et la structure des
messages, etc. sont respectés. Des dispositions appropriées sont à envisager si certaines valeurs
sont classées comme suspectes.
Les données traitées et celles relevées par des observateurs, y compris les données d’état
émanant du contrôle de la qualité (données de service) doivent être mises en mémoire tampon
ou mémorisées pendant un certain temps à la station. Il faut pour cela qu’une base de données
appropriée soit mise à jour en temps réel. Le nombre de champs dans la base de données et la
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 595
Selon les besoins en matière d’observations et le type de stations, les données peuvent être
transmises à intervalles réguliers de la mémoire principale de la station à d’autres types d’unités
de stockage, notamment amovibles.
a) Transmission en réponse à des ordres extérieurs, ce qui est le mode le plus élémentaire:
on possède ainsi une meilleure maîtrise sur la station, notamment pour l’initialisation,
le réglage et la remise à l’heure de l’horloge temps réel, l’invalidation des capteurs
défectueux, le transfert sélectif de bases de données, etc. À la réception et après contrôle
de transmission d’un ordre extérieur, un ordonnanceur de tâches lance la tâche ou le
sous‑programme voulu correspondant à l’ordre;
Communication unidirectionnelle
Communication bidirectionnelle
non seulement aux heures synoptiques ou chaque heure, mais aussi de façon ponctuelle quand
un prévisionniste ou un hydrologiste a besoin de connaître les conditions météorologiques
qui règnent au moment même en un ou plusieurs lieux. Comme précédemment, les stations
automatiques déclenchent le processus de transmission en temps réel de messages d’urgence
quand les conditions l’exigent. La communication bidirectionnelle permet aussi à la station isolée
d’envoyer des messages d’ordre pour modifier son mode de fonctionnement ou pour déclencher
le téléchargement d’un nouveau logiciel d’exploitation sur son processeur.
La transmission au sein d’un tel réseau peut être assurée par l’intermédiaire de lignes terrestres
ou d’ondes radioélectriques (en particulier pour les sites très isolés) voire les deux. Il y a
tout intérêt à faire appel à un prestataire de services en télécommunications qui se charge
entièrement de la maintenance du réseau et probablement des interfaces de communication, et
réponde en outre rapidement aux avis de panne émanant du responsable du réseau de stations
météorologiques automatiques. Il est à noter qu’il est bon de pouvoir déterminer de quel côté de
l’interface de communication (station automatique ou circuits de télécommunications) se situe
une panne, ce qui peut poser problème. Les réseaux de stations automatiques utilisent souvent
des liaisons téléphoniques, via le réseau téléphonique public commuté, dont le coût est fonction
de la distance et de la durée des appels, ainsi que des tarifs pratiqués par le fournisseur d’accès
local. Une autre solution consiste à créer un réseau de type «réseau privé» utilisant des lignes
louées spécialisées d’une qualité bien définie. En voici les avantages: le temps de traitement de
la commutation disparaît, il est possible de disposer d’un débit bien supérieur et il y a peu de
doutes sur la maintenance effective des circuits. Le coût de la location est fonction de la longueur
de la ligne et non pas du volume des données. Les coûts sont plus importants que dans le cas
d’un réseau commuté quand le volume des données est relativement faible.
Les réseaux numériques avec intégration de services mis en place par bon nombre de
compagnies de télécommunications offrent la possibilité de transmissions phoniques, de
données et vidéos en modulation par impulsions et codage par l’intermédiaire des câbles et
centres de commutation de réseaux téléphoniques publics commutés évolués. Un canal de
base permet ainsi la transmission de données à un débit de 64 kbit/s, suivant les protocoles de
commutation par paquets X.25 ou en relais de trame. Les circuits numériques offrent une grande
sécurité pour la transmission des données.
données. Il y a lieu de prévoir un moyen de mettre fin à coup sûr à la communication une fois que
les données sont rassemblées à destination, car, en cas de défaillance de la station automatique,
la ligne reste ouverte, ce qui se traduit par un supplément de coût indésirable.
Le relayage de trames est un protocole à commutation de paquets utilisés pour les échanges
intersites dans le cadre d’un réseau étendu, permettant un débit de données qui se situe entre
64 kbit/s et 2 Mbit/s, voire plus en fonction de la qualité de la liaison. Par opposition à une
liaison point à point par ligne directe, une commutation entre réseaux intervient entre la station
météorologique automatique et l’ordinateur central. En réalité, une ligne directe est reliée à un
nœud dans le réseau de données à relais de trames et l’emplacement distant est doté d’une ligne
directe vers un nœud à relayage de trames. L’utilisateur dispose ainsi d’un réseau privé virtuel.
Dans ce cas, les coûts diminuent et ne sont fonction ni du volume de données, ni de la durée
de la communication. Il faut noter toutefois que, dans certaines régions, le relayage de trames
cède la place à des technologies plus récentes et plus rapides, notamment au mode de transfert
asynchrone (ATM). Le protocole ATM tente de combiner à la fois les avantages des réseaux à
commutation de circuits pour la garantie qu’ils offrent s’agissant de la livraison des données et
ceux des réseaux à commutation de paquets pour leur fiabilité et leur efficacité.
Protocole de transmission
Une décision s’impose: faut‑il choisir une liaison à commutation de circuits, moins onéreuse, avec
un accès au réseau de télécommunications à partager avec d’autres utilisateurs, ou louer une
ligne spécialisée, bien plus chère, mais qui offre des communications fiables, à grande vitesse et
en temps réel? Avec le réseau à commutation de circuits, il faut s’attendre à une certaine latence,
le délai d’établissement de la liaison pouvant atteindre quelques secondes, ce qui, cependant,
ne pose pas de difficulté particulière aux protocoles de commutation de paquets. Les critères
qui contribueront à fixer le choix sont notamment la fiabilité des communications, le volume
de données à échanger que contiennent chaque message ou les téléchargements spéciaux
requis par les stations isolées, ainsi que la nécessité de disposer des données en temps réel pour
les besoins de l’exploitation. La saisonnalité des besoins a aussi une influence sur le choix du
mode de communication. Si, par exemple, des données météorologiques qui déterminent les
conditions routières ne sont essentielles que quelques mois par an, mais sont fournies par une
station connectée toute l’année au réseau par une liaison spécialisée, alors le coût global par
message est élevé. En réalité, le prix du message est fonction des formules tarifaires appliquées
par le fournisseur d’accès et varie suivant des facteurs tels que le débit, la distance de liaison,
la durée de la communication et le fait que les modems soient ou non mis à disposition par ce
fournisseur. Les fournisseurs d’accès locaux seront tout disposés à donner tous les détails au sujet
des services qu’ils proposent.
598 PARTIE II. SYSTÈMES D’OBSERVATION
Outre les programmes d’affichage de données pour les diverses fonctions citées ci‑dessus, les
caractéristiques de fonctionnement indiquent souvent la nécessité d’afficher certaines données
localement sur des afficheurs à diodes électroluminescentes, sur les terminaux existants ou sur
des écrans spéciaux, avec mise à jour en temps réel ou sur demande. On peut prendre comme
exemple les stations météorologiques automatiques installées sur des aérodromes ou dans des
centres de surveillance de l’environnement. Dans certains pays, l’impression de données ou
l’enregistrement graphique par des enregistreurs papier est obligatoire.
Le choix du site d’une station automatique est une tâche très difficile; il reste d’ailleurs beaucoup
de recherches à faire dans ce domaine. Selon le principe général, une station devrait fournir
des mesures qui sont et restent représentatives de la zone avoisinante, dont l’étendue dépend
de l’application météorologique considérée. Les directives actuelles concernant les stations
traditionnelles s’appliquent aussi aux stations automatiques. C’est pourquoi nous renvoyons le
lecteur à la partie I du présent guide ainsi qu’à d’autres guides et manuels de l’OMM (2010a,
2010b, 2014).
Certaines stations météorologiques automatiques ne sont visitées que rarement. C’est le cas
de stations terrestres ou maritimes difficiles d’accès. Le prix de construction de telles stations
peut être très élevé, et le coût de desserte de celles‑ci peut impliquer des frais supplémentaires.
Ces stations sont parfois alimentées en électricité par des sources très peu fiables ou à partir de
sites ne disposant pas d’une alimentation électrique permanente. Il faudrait prévoir que des
appareils de télécommunications y seront installés. Il faut également prendre en compte des
mesures de protection (contre la foudre, les inondations, le vol, le vandalisme, etc.) et les stations
doivent évidemment pouvoir supporter des conditions météorologiques extrêmes. Le coût de
systèmes susceptibles de fonctionner dans toutes les conditions prévisibles pour une station
automatique est prohibitif. Il est donc essentiel, avant de concevoir une station ou d’en établir
les spécifications, de bien comprendre le milieu dans lequel elle sera appelée à fonctionner.
Il faudrait, très tôt dans le processus de planification, procéder à une analyse détaillée de
l’importance relative des caractéristiques météorologiques et techniques requises afin que les
sites puissent être choisis et considérés comme convenables avant que des sommes importantes
soient consacrées à leur construction.
Une station météorologique automatique, qui fait généralement partie d’un réseau de stations
météorologiques, transmet les données traitées ou les messages à un système central de gestion
de réseau par l’intermédiaire de divers moyens de télécommunication. L’établissement des
caractéristiques fonctionnelles, et donc des spécifications techniques, d’un système central est
une tâche complexe, souvent sous‑estimée. Celle‑ci exige une collaboration étroite entre les
concepteurs de stations, les spécialistes des télécommunications, les spécialistes des logiciels
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 599
et les utilisateurs des données. Des décisions doivent être prises quant aux tâches à exécuter
par le système central et par les stations. En effet, selon les applications, certaines fonctions
d’une station automatique peuvent être attribuées au système central, qui dispose de plus de
puissance et de mémoire. On peut prendre comme exemple de longs calculs mathématiques,
tels que ceux nécessaires pour la réduction de la pression atmosphérique et le codage des
messages météorologiques. Les mémoires tampons des stations automatiques peuvent être
réduites à un minimum opérationnel si les données sont régulièrement transmises au système
central. Il est bon de définir, dans un premier temps, les caractéristiques fonctionnelles à la fois
du système central et des stations automatiques, pour qu’elles concordent, avant d’en définir les
caractéristiques techniques.
La composition d’un système central de gestion de réseau dépend en grande partie des
fonctions à exécuter, mais aussi des installations locales. On peut faire appel à de puissants
ordinateurs personnels ou postes de travail multitâches et multi‑utilisateurs travaillant en temps
réel. On peut aussi employer les systèmes de télécommunications et de traitement existants. Les
systèmes centraux de gestion de réseau sont de plus en plus souvent intégrés à un réseau local,
ce qui permet de distribuer et de faire exécuter les tâches à l’endroit le plus pratique, par les
personnes les plus compétentes.
Les principales fonctions d’un système central de gestion de réseau sont l’acquisition de données,
y compris le décodage des messages en provenance du réseau de stations automatiques, la
télécommande et la télémaintenance des stations, le contrôle du réseau et de la qualité des
données, le retraitement des données pour répondre aux besoins des utilisateurs, l’accès à la
base de données du réseau, l’affichage des données et leur transfert vers des utilisateurs internes
ou externes. Ce transfert peut s’effectuer par le Système mondial de télécommunications si les
données sont échangées sur le plan international.
Ce sujet est approfondi dans le chapitre 1 de la partie IV. Il est recommandé aux opérateurs de
réseaux18:
a) D’établir et de mettre à l’essai des systèmes de surveillance des mesures en temps quasi
réel qui testent à intervalles réguliers les valeurs obtenues par rapport aux champs analysés
correspondants du même emplacement de mesure;
18
Recommandation 5 (CIMO‑IX), formulée par la CIMO lors de sa neuvième session (1985).
600 PARTIE II. SYSTÈMES D’OBSERVATION
c) Le retraitement des données pour exclure ou traiter d’une autre façon les données signalées
comme étant erronées ou suspectes par les fichiers de service des stations météorologiques.
Des algorithmes de contrôle qui permettent de tester régulièrement les valeurs reçues, dans
l’espace et dans le temps, par rapport à un champ numérique analysé constituent des outils
très puissants pour identifier les erreurs et lancer, selon le besoin, des opérations de recherche
ou de correction. Les faibles fluctuations turbulentes de la pression atmosphérique et le
degré de confiance avec lequel on peut supprimer les influences géographiques locales en
normalisant toutes les observations par rapport à un niveau de référence commun font de la
pression atmosphérique un candidat idéal pour ce type de contrôle de la qualité. En établissant
la moyenne dans l’espace et dans le temps des observations, on devrait également pouvoir
soumettre d’autres variables à cette analyse. De toute manière, il y a lieu de tenir soigneusement
compte des effets orographiques.
1.6 MAINTENANCE
La maintenance doit s’adapter pour tenir compte de l’évolution rapide de la technologie, mais
aussi du problème de la disponibilité des pièces de rechange après quelques années. En effet, il
arrive souvent que les frais de réparation et le coût des pièces augmentent rapidement dès lors
qu’un système n’est plus distribué et que, la recherche de la bonne pièce de rechange demeurant
infructueuse, il devienne nécessaire de remplacer les anciens modules par de nouveaux relevant
d’une technique différente. On peut prendre comme exemple le transfert de données d’un
support d’enregistrement à un autre, le transfert de programmes et de systèmes d’exploitation
d’un processeur à un autre, le remplacement de modules pour assurer la fiabilité du système,
l’ajout de nouveaux systèmes de télécommunications pour assurer la connexion, etc. C’est pour
réduire les frais de maintenance de ce type qu’il est souhaitable d’établir des normes largement
acceptées s’appliquant au matériel, aux interfaces et aux logiciels et de les inclure dans les
spécifications techniques des stations météorologiques automatiques.
Comme la maintenance d’un réseau de stations automatiques est une tâche souvent largement
sous‑estimée, il est essentiel d’organiser celle‑ci selon un plan rationnel qui définisse en détail
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 601
toutes les fonctions et les prévoie de façon à limiter les frais sans nuire aux performances. Compte
tenu de la structure modulaire d’un grand nombre de stations automatiques modernes, il est
possible d’exécuter la maintenance sur le terrain ou dans des centres régionaux ou nationaux.
Maintenance sur le terrain: En général, il n’est pas conseillé de réparer des capteurs ou autres
modules d’une station automatique sur le terrain, car les conditions n’y sont pas favorables à
un travail efficace. En outre, en raison du coût élevé de la main‑d’œuvre et du coût relativement
faible du matériel, il est souvent plus rentable de mettre au rebut des modules défectueux que
de les réparer. Il est recommandé de confier la maintenance corrective sur le terrain au personnel
technique spécialisé d’un centre régional ou national, selon l’étendue du pays considéré, et la
maintenance préventive simple aux observateurs, s’il y en a sur place. La transmission périodique
de données diagnostiques d’autocontrôle par la station est un excellent moyen d’assurer une
intervention rapide en cas d’anomalie.
Centre régional: Le personnel technique d’un centre régional devrait pouvoir remplacer ou réparer
les modules et les capteurs dont il convient de diagnostiquer et d’éliminer de simples défauts. Ce
personnel devrait bien connaître le fonctionnement du matériel de la station et avoir la formation
nécessaire pour effectuer des opérations de maintenance sur les logiciels. Les centres régionaux
devraient disposer des appareils de contrôle nécessaires et d’un nombre suffisant de modules et
de capteurs de rechange pour assurer la maintenance des stations qui en relèvent. Ces centres
ont besoin de moyens de transport adaptés pour réaliser le travail nécessaire sur le terrain. Il leur
incombe de prévoir des visites périodiques de contrôle des sites éloignés (bon fonctionnement,
vandalisme, conditions sur place, changements, etc.). Il est nécessaire d’y établir des procédures
s’appliquant aux visites d’urgence aux diverses stations, en fonction de la priorité fixée à la
station.
Centre national: Un centre national doit disposer d’un personnel technique plus qualifié, qui
devrait être capable de détecter et de résoudre des problèmes complexes touchant les capteurs,
les modules et les moyens de transmission de données. L’équipement nécessaire pour contrôler
et réparer toutes les pièces d’une station météorologique automatique devrait y être disponible,
le travail s’effectuant dans le centre. Toute anomalie qui se reproduit régulièrement, indiquant
un défaut de conception, devrait être signalée aux constructeurs ou aux distributeurs afin qu’ils y
remédient.
Comme le logiciel joue un rôle très important dans chaque station automatique et dans le
système central de gestion de réseau, un personnel ayant une connaissance approfondie de
celui‑ci est nécessaire. Le matériel nécessaire pour la création et l’essai de logiciels devrait être
disponible. En outre, le centre national devrait pouvoir exécuter l’ensemble des tâches de
maintenance adaptative.
En ce qui concerne le contrôle de la qualité des données passant par le réseau, il est souhaitable
d’établir des liens étroits entre le service de contrôle et le service de maintenance et d’étalonnage
pour favoriser une réaction rapide en cas d’anomalie ou de panne signalée par le système de
contrôle.
Les modalités susmentionnées sont valables pour les grands pays. Dans les pays plus petits,
les tâches des centres régionaux peuvent être assumées par le centre national. Les pays en
développement peuvent envisager de prendre, en matière de maintenance, des dispositions
communes avec des pays voisins. Un centre international commun de maintenance peut être
envisagé afin que les coûts de maintenance restent suffisamment faibles. Cependant, une telle
coopération internationale exigerait sans doute l’emploi d’un matériel semblable. Si un Service
météorologique se trouve dans l’impossibilité d’accroître son personnel ou de développer ses
installations, il peut sous‑traiter bon nombre des fonctions d’appui. Cet appui pourrait par
exemple être négocié lors de l’acquisition des systèmes. Cependant, un contrat de maintenance
devrait être préparé très soigneusement et son exécution devrait être minutieusement vérifiée
par du personnel compétent.
On trouvera, dans le chapitre 1 de la partie IV, des suggestions en ce qui concerne les techniques
de gestion de la qualité.
602 PARTIE II. SYSTÈMES D’OBSERVATION
1.7 ÉTALONNAGE
D’une façon générale, les capteurs, et plus particulièrement ceux des stations météorologiques
automatiques, qui produisent des signaux électriques, présentent une dérive instrumentale. C’est
pourquoi il faut les contrôler et les étalonner régulièrement. En principe, l’intervalle d’étalonnage
est déterminé par les caractéristiques de cette dérive, indiquées par le constructeur, et par
l’exactitude requise. Les comparaisons internationales d’instruments organisées par l’OMM
donnent également des indications objectives quant à la dérive instrumentale des capteurs et
aux intervalles d’étalonnage souhaitables. Étant donné que les modules de conditionnement
des signaux, le matériel d’acquisition de données et le matériel de transmission font aussi partie
de la chaîne de mesure, leur stabilité et leur fonctionnement doivent également faire l’objet de
contrôles ou d’étalonnages périodiques. Le résumé qui suit se limite à certains aspects pratiques
touchant les stations météorologiques automatiques. On trouvera des renseignements plus
détaillés sur les techniques et méthodes d’étalonnage dans les divers chapitres de la partie I et
dans le chapitre 4 de la partie IV du présent guide.
Inspection sur le terrain: Une comparaison périodique des capteurs d’une station météorologique
automatique avec des étalons voyageurs apportés à la station est absolument nécessaire pour
contrôler les performances des capteurs. Il faut employer de préférence des étalons voyageurs
à lecture numérique ayant des caractéristiques de filtrage semblables à celles de la chaîne de
mesure de la station. Dans de nombreux pays, on se sert de deux étalons voyageurs du même
type pour éviter tout problème de variation de l’exactitude imputable au transport. Pour
qu’on puisse détecter de faibles dérives, les étalons devraient avoir une exactitude nettement
supérieure à celle du capteur à contrôler et devraient être installés dans les mêmes conditions
ambiantes que les capteurs suffisamment longtemps avant l’opération de comparaison. Comme
les modules de conditionnement des signaux et les appareils d’acquisition de données tels que
le numériseur peuvent également subir une dérive, des sources de référence électriques et des
contrôleurs universels devraient être employés pour repérer les anomalies.
Avant et après les inspections sur le terrain, les étalons voyageurs et les sources de référence
doivent être comparés aux étalons de travail du laboratoire d’étalonnage. Le service de
maintenance doit être averti dès que possible si un écart d’exactitude est détecté.
Il faudrait aussi veiller à l’étalonnage des divers éléments de la chaîne de mesure et de télémétrie,
et notamment des modules de conditionnement des signaux. Il faut disposer pour cela d’étalons
adaptés de tension, d’intensité, de capacité et de résistance, d’un appareillage d’essai des
transmissions et de multimètres numériques de grande exactitude. L’étalonnage exige des
instruments et des systèmes d’acquisition de données d’une grande exactitude. Il est souhaitable
de faire appel à un ordinateur pour calculer les constantes d’étalonnage. Ces constantes, qui
restent caractéristiques du capteur ou du module considéré jusqu’à l’étalonnage suivant, doivent
être mémorisées dans la station dès qu’un capteur ou un module y est installé, en remplacement
d’un autre par exemple, au cours d’une intervention de maintenance sur site.
CHAPITRE 1. MESURES AUX STATIONS MÉTÉOROLOGIQUES AUTOMATIQUES 603
1.8 FORMATION
Certains pays auraient intérêt à organiser des cours de formation communs dans un centre de
formation desservant plusieurs pays voisins. L’idéal serait évidemment qu’un tel centre soit
associé à un centre d’instruments désigné et que les pays desservis soient convenus d’utiliser un
équipement normalisé semblable.
RÉFÉRENCES ET AUTRES LECTURES
Organisation météorologique mondiale, 1954: Reduction of Atmospheric Pressure. Technical Note No. 7
(WMO‑No. 36, TP. 12), Genève.
———, 1964: Note on the Standardization of Pressure Reduction Methods in the International Network of Synoptic
Stations: Report of a Working Group of the Commission for Synoptic Meteorology.
Technical Note No. 61 (WMO‑No. 154, TP. 74), Genève.
———, 1968: Methods in Use for the Reduction of Atmospheric Pressure. Technical Note No. 91 (WMO‑No. 226,
TP. 120), Genève.
———, 1987: Some General Considerations and Specific Examples in the Design of Algorithms for Synoptic Automatic
Weather Stations (D.T. Acheson). Instruments and Observing Methods Report No. 19
(WMO/TD‑No. 230), Genève.
———, 1988: WMO International Ceilometer Intercomparison (United Kingdom, 1986) (D.W. Jones, M. Ouldridge
et D.J. Painting). Instruments and Observing Methods Report No. 32 (WMO/TD‑No. 217),
Genève.
———, 1989a: WMO International Hygrometer Intercomparison (J. Skaar, K. Hegg, T. Moe et K. Smedstud).
Instruments and Observing Methods Report No. 38 (WMO/TD‑No. 316), Genève.
———, 1989b: Preliminary results of the WMO automatic sunshine duration measurement comparison
1988/89 in Hamburg (K. Dehne). Papers Presented at the Fourth WMO Technical Conference on
Instruments and Methods of Observation (TECIMO‑IV). Instruments and Observing Methods
Report No. 35 (WMO/TD‑No. 303), Genève.
———, 1990: The First WMO Intercomparison of Visibility Measurements: Final Report (United Kingdom 1988/1989)
(D.J. Griggs, D.W. Jones, M. Ouldridge et W.R. Sparks). Instruments and Observing Methods
Report No. 41 (WMO/TD‑No. 401), Genève.
———, 1991: Guidance on the Establishment of Algorithms for Use in Synoptic Automatic Weather Stations:
Processing of Surface Wind Data (D.J. Painting). Instruments and Observing Methods
Report No. 47 (WMO/TD‑No. 452), Genève.
———, 1992a: Vocabulaire météorologique international (OMM‑N° 182), Genève.
———, 1992b: The WMO Automatic Digital Barometer Intercomparison: Final Report (J.P. van der Meulen).
Instruments and Observing Methods Report No. 46 (WMO/TD‑No. 474), Genève.
———, 1993: Guide du Système mondial de traitement des données (OMM‑N° 305), Genève.
———, 1994: WMO solid precipitation measurement intercomparison: Preliminary results (B.E. Goodison,
E. Elomaa, V. Golubev, T. Gunther et B. Sevruk). Papers Presented at the WMO Technical Conference
on Instruments and Methods of Observation (TECO‑94). Instruments and Observing Methods
Report No. 57 (WMO/TD‑No. 588), Genève.
———, 1997: Guidance on Automatic Weather Systems and their Implementation. Instruments and Observing
Methods Report No. 65 (WMO/TD‑No. 862), Genève.
———, 2000: Operation of automated surface observing systems in harsh climatological environments
(M.D. Gifford, G.M. Pearson et K. Hegg). Papers Presented at the WMO Technical Conference on
Meteorological and Environmental Instruments and Methods of Observation (TECO‑2000).
Instruments and Observing Methods Report No. 74 (WMO/TD‑No. 1028), Genève.
———, 2003: Algorithms Used in Automatic Weather Stations: Evaluation of Questionnaire (M.D. Gifford).
Instruments and Observing Methods Report No. 78 (WMO/TD‑No. 1160), Genève.
———, 2010a: Guide du Système mondial d’observation (OMM‑N° 488), Genève.
———, 2010b: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2011a: Guide des practiques climatologiques (OMM‑N° 100), Genève.
———, 2011b: Manuel des codes (OMM‑N° 306), Volumes I.1 et I.2, Genève.
———, 2011c: Règlement technique (OMM‑N° 49), Volume I, Genève.
———, 2014: Guide des systèmes d’observation et de diffusion de l’information pour l’assistance météorologique à la
navigation aérienne (OMM‑N° 731), Genève.
TABLE DES MATIÈRES DU CHAPITRE
Page
2.1 GÉNÉRALITÉS
2.1.1 Définitions
Le présent chapitre traite des exigences concernant les observations effectuées dans les stations
météorologiques aéronautiques ainsi que des instruments et des méthodes utilisés. Alors que
les observations synoptiques ont pour but de déterminer en un lieu une valeur représentative
d’une région relativement étendue, les observations météorologiques destinées à l’aéronautique
sont souvent effectuées avec une plus grande fréquence et en plusieurs emplacements d’un
aérodrome et de ses alentours pour fournir des données représentatives de zones plutôt limitées
comme les aires d’approche, d’atterrissage et de décollage.
Les mesures météorologiques à effectuer sont pour l’essentiel les mêmes que celles qui sont
réalisées pour les autres applications et décrites dans d’autres chapitres de ce guide, à l’exception
de la portée visuelle de piste, de la portée visuelle oblique et du cisaillement du vent dans les
basses couches, paramètres qui sont propres à cette application.
2.1.2 Unités
Pour les besoins de l’aéronautique, les unités utilisées pour la mesure et la transmission des
valeurs météorologiques sont les mêmes que pour les autres applications à deux exceptions près:
a) Le vent en surface peut être mesuré et rapporté en mètres par seconde ou en nœuds1 et la
direction du vent 2 en degrés mesurés par rapport au nord géographique3 dans le sens des
aiguilles d’une montre (voir la section 2.2.1);
Le choix des unités dépend de la pratique nationale et est fonction des exigences des autorités
aéronautiques.
2.1.3 Exigences
Les exigences officielles relatives aux observations aéronautiques sont spécifiées dans le
Règlement technique, Volume II (OMM, 2013). Les détails concernant les méthodes et pratiques
se trouvent dans la publication OMM (2014). La publication OMM (2003) contient des conseils
utiles pour l’observation et le suivi des conditions météorologiques. Une attention particulière
devrait être portée aux stations météorologiques établies sur des structures offshore en support à
des opérations héliportées (OACI, 1996).
1
Les unités de vitesse du vent utilisées sont déterminées par décision nationale. Cependant, l’unité prescrite dans le
Règlement technique, Volume II (OMM, 2013) pour cette vitesse est le mètre par seconde, le nœud pouvant être utilisé
comme unité n’appartenant pas au SI (pour plus de renseignements, voir OACI, 2010).
2
Direction d’où le vent de surface souffle.
3
Comme la direction du vent donnée pour l’atterrissage ou le décollage des avions peut être convertie en degrés
magnétiques, l’organisme des services de la circulation aérienne présente habituellement la direction par rapport au
nord magnétique.
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 607
Malgré les excellentes performances des avions modernes, les facteurs météorologiques
jouent toujours un rôle important pour leurs opérations. La fiabilité et la représentativité des
observations sur les aérodromes sont très importantes pour assurer les atterrissages et les
décollages en toute sécurité. De l’observation du vent dépendront la sélection de la piste et le
poids maximal autorisé à l’atterrissage et au décollage. La température est également importante
et sa valeur influence les performances des moteurs. Elle pourrait conduire à diminuer la charge
emportée ou exiger une piste plus longue pour le décollage, principalement pour les aéroports
situés en pays chauds.
Des observations de routine doivent être effectuées aux stations météorologiques aéronautiques
aux heures et à la fréquence déterminées par le pays membre pour répondre aux besoins de la
navigation aérienne nationale et internationale, en tenant dûment compte des accords régionaux
de navigation aérienne. Des observations spéciales et d’autres observations non routinières
doivent être effectuées selon ces mêmes principes. Il est souhaitable d’effectuer les observations
de routine à des intervalles d’une heure ou d’une demi‑heure, sur toute la journée ou une
partie de celle‑ci, ou selon les besoins de l’exploitation des aéronefs. Les observations spéciales
seront faites quand des changements spécifiques se rapportant au vent de surface, à la visibilité,
à la portée visuelle de piste, au temps présent et/ou à la couverture nuageuse interviennent
entre les observations de routine. Ces changements sont repris dans le Règlement technique,
Volume II, partie II, appendice 3, paragraphe 2.3.2. Ces observations, reprises sous forme de
messages codés de type METAR ou SPECI, sont échangées au plan international entre stations
météorologiques aéronautiques. D’autres types de messages ne sont destinés qu’aux opérations
aéronautiques et devraient être rédigés sous une forme décidée d’un commun accord entre
autorités météorologiques et aéroportuaires.
Les emplacements où sont effectuées les observations ou ceux où sont installés les instruments
aux stations météorologiques aéronautiques doivent être choisis avec un soin particulier afin que
les valeurs mesurées soient représentatives des conditions régnant sur l’aérodrome ou dans son
voisinage immédiat. Dans certains cas, lorsque des informations sont requises pour de grandes
étendues, il peut être nécessaire de prévoir plusieurs emplacements pour certains instruments,
de façon que les valeurs transmises soient représentatives de l’ensemble de la zone concernée.
Par exemple, pour de longues pistes, ou pour de grands aérodromes comportant plusieurs
pistes et où les aires d’approche, de prise de contact et de décollage peuvent être distantes
de deux à cinq kilomètres, les valeurs de paramètres comme le vent, la hauteur de la base des
nuages, la portée visuelle de piste, etc., déterminées à l’une des entrées de piste, peuvent être
complètement différentes des conditions qui règnent en d’autres emplacements de cette piste ou
au‑dessus d’autres zones de l’ensemble des pistes utilisées pour les opérations aéronautiques.
À tous les aérodromes, les sites devraient être tels que les valeurs mesurées des différents
paramètres météorologiques soient représentatives de l’aérodrome lui‑même et/ou de la
zone appropriée d’une piste ou d’un complexe de pistes. Aux aérodromes où les opérations
d’approche de précision et d’atterrissage ne sont pas pratiquées (pas d’instruments, ou pistes
sans approche de précision), ce critère de représentativité est moins restrictif qu’avec des pistes
d’approche de précision (pistes de catégorie I, II ou III (voir OMM, 2014 et OACI, 2011)).
Lors du choix de l’emplacement des instruments sur les aérodromes et tout en veillant à ce que
l’emplacement et l’exposition des instruments répondent aux exigences opérationnelles, il est
particulièrement important de s’assurer que l’instrument lui‑même ou son utilisation n’offrent
608 PARTIE II. SYSTÈMES D’OBSERVATION
aucun danger pour la navigation aérienne et que la présence ou le mouvement des aéronefs
(roulant sur la piste, décollant, atterrissant, se rangeant, etc..) et la proximité des diverses
installations aéroportuaires n’influencent pas indûment les valeurs mesurées.
Les types d’instruments utilisés, leurs caractéristiques et les méthodes employées pour la
présentation et la transmission des valeurs mesurées des paramètres sont également importants.
L’exposition, le fonctionnement et la maintenance des instruments météorologiques devraient
être conformes aux procédures et spécifications décrites dans le présent guide. Les stations
météorologiques aéronautiques doivent être inspectées à des intervalles suffisamment
rapprochés pour s’assurer que les observations sont toujours de haute qualité, que les
instruments et tous leurs indicateurs fonctionnent correctement et que l’exposition des
instruments n’a pas changé de manière significative (Règlement technique, Volume II, partie I,
paragraphe 4.1.4).
Les instruments devraient être conçus de manière à transmettre à distance, aussi bien
aux organismes des services de la circulation aérienne (ATS) qu’aux stations et centres
météorologiques, les valeurs appropriées du vent de surface, de la température, du point de
rosée, de la pression atmosphérique, du temps présent, de la visibilité, de la portée visuelle de
piste (si les pistes sont équipées pour des atterrissages et décollages par temps de brouillard) et
de la hauteur de la base des nuages, valeurs qui devraient être représentatives des conditions
régnant sur les aires de prise de contact et d’envol concernées. Les systèmes instrumentaux
automatiques destinés à la mesure de la hauteur de la base des nuages et de la portée visuelle de
piste revêtent une utilité particulière aux stations météorologiques aéronautiques.
2.1.4 Méthodes
Les méthodes employées pour effectuer des mesures météorologiques aux aérodromes sont
essentiellement les mêmes que pour les autres applications météorologiques décrites dans
d’autres chapitres du présent guide. Le présent chapitre décrit certaines exigences en matière
d’implantation et d’échantillonnage, ainsi que certains algorithmes, propres à l’application
aéronautique.
2.2.1 Généralités
Pour l’aviation, la mesure de la circulation de l’air et du cisaillement du vent dans les basses
couches au voisinage des aires d’atterrissage et de décollage est d’un intérêt primordial. La
réglementation est spécifiée dans le Règlement technique, Volume II, partie I, section 4.1, avec
de plus amples détails dans la partie II, appendice 3. Sur les aérodromes internationaux, les
organismes ATS, de la tour de contrôle et du contrôle d’approche sont normalement équipés
d’indicateurs de la direction et de la vitesse du vent et les contrôleurs de la circulation aérienne
fournissent ces informations aux aéronefs qui partent et arrivent. Afin d’assurer la compatibilité
voulue, les indicateurs des organismes ATS et de la station météorologique devraient être
connectés aux mêmes capteurs.
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 609
Les mesures effectuées concernent la direction et la vitesse moyennes du vent ainsi que les
rafales et les variations significatives spécifiées de la direction et de la vitesse du vent. Le
contenu des messages d’observation du vent diffusés à l’extérieur de l’aérodrome (Règlement
technique, Volume II, partie II, appendice 3, section 4.1.5) est le même que pour les observations
synoptiques (moyennes sur 10 min et direction par rapport au nord géographique4) et les valeurs
transmises devraient être représentatives de l’ensemble des pistes. Pour les observations de
routine et les bulletins spéciaux affichés dans les locaux des organismes ATS (Règlement technique,
Volume II, partie II, appendice 3, paragraphe 4.1.3.1), les moyennes sont effectuées sur des
périodes de 2 min aussi bien pour la direction que pour la vitesse du vent et les valeurs devraient
être représentatives de la piste utilisée. Bien que la direction du vent doive être mesurée à partir
du nord géographique et exprimée en «degrés vrais» (Règlement technique, Volume II, partie I,
section 4.6.1 et partie II, appendice 3, paragraphe 4.1.5.1), la pratique courante des personnels
ATS est encore de fournir aux aéronefs des directions définies par rapport au nord magnétique
(«degrés magnétiques»). Les rafales devraient être déterminées à partir de moyennes glissantes
de trois secondes. Il convient de consulter le chapitre 5 de la partie I et le chapitre 2 de la partie IV
du présent guide quant aux précautions à prendre pour l’échantillonnage des résultats donnés
par l’anémomètre afin de mesurer la moyenne, les rafales et la variabilité de la vitesse et de la
direction du vent. Il convient d’accorder la préférence aux moyennes vectorielles plutôt qu’aux
moyennes scalaires.
Les mesures du vent nécessaires aux aérodromes, telles que la valeur moyenne, les valeurs
extrêmes, etc., devraient, de préférence, être déterminées et affichées automatiquement, en
particulier lorsque plusieurs capteurs sont utilisés sur différentes pistes. Lorsque plusieurs
capteurs sont nécessaires, les indicateurs seront clairement marqués de façon à identifier la piste
ou la partie de piste correspondant à chaque capteur.
Les équipements de mesure du vent utilisés aux stations aéronautiques sont généralement du
même type que ceux décrits au chapitre 5 de la partie I. La constante de temps des capteurs
utilisés pour la mesure de la direction et de la vitesse du vent devrait répondre aux exigences
figurant dans ledit chapitre.
Les capteurs de la direction et de la vitesse du vent devraient être installés à une hauteur voisine
de 10 mètres au‑dessus du niveau de la piste et devraient donner des valeurs représentatives des
conditions qui règnent dans les aires de décollage et de toucher des roues.
Si les capteurs du vent installés sur les aérodromes doivent être représentatifs des conditions
régnant dans les zones de décollage ou d’atterrissage, il y a lieu d’éviter toutefois les
perturbations ou turbulences dues à la proximité et au passage des avions eux‑mêmes (création
de fausses rafales lors d’atterrissages ou de décollages). De même, ils ne devront pas être placés
trop près de bâtiments ou de reliefs, ni dans des lieux sujets à des conditions météorologiques
de microclimats (brise de mer, orages fréquents). L’exposition souhaitable pour les équipements
de mesure du vent est d’être en terrain découvert, c’est‑à‑dire dans une zone où la distance entre
l’anémomètre et tout obstacle est au moins égale à 10 fois la hauteur de ce dernier.
4
Habituellement désigné comme le «vrai» nord. L’adjectif «vrai» dans «nord vrai» ne devrait pas être confondu avec le
«vent vrai» (défini par OMM, 1992a). Le «vent vrai» est représenté par le vecteur vent par rapport à la surface de la
terre. Pour un objet mobile comme un aéronef, c’est le vecteur somme du vent apparent (à savoir le vecteur vent
relatif à l’objet mobile) et de la vitesse de l’objet.
610 PARTIE II. SYSTÈMES D’OBSERVATION
sur 2 ou 10 min, ainsi que les valeurs extrêmes minimales et maximales de la vitesse devraient
être affichées. Il est parfois possible de sélectionner ces valeurs du vent pour plusieurs points de
mesure sur un même indicateur (ce qui restreint le nombre d’indicateurs à installer).
Lors de l’installation des capteurs pour la mesure du vent sur l’aérodrome, une attention toute
particulière sera accordée à leur protection contre les décharges atmosphériques orageuses
(paratonnerres, mise à la terre du pylône, et câbles blindés ou en fibre optique). L’équipement
électronique de traitement des données devrait également être protégé.
Afin de maintenir l’exactitude requise, les instruments de mesure du vent devraient être
gardés en bon état de marche et régulièrement vérifiés et recalibrés. Un contrôle en tunnel
aérodynamique des performances des capteurs est parfois requis, principalement pour les
systèmes analogiques. Le recours aux techniques numériques avec test automatique de certaines
fonctions demande moins de surveillance, sans toutefois éliminer les erreurs dues aux frictions.
Les composants défectueux et la détérioration de certaines parties des capteurs seront détectés
par une surveillance régulière.
Parmi les sources d’erreurs figurent la friction, une mauvaise implantation et des problèmes
de transmission ou d’affichage. Des erreurs peuvent être introduites également du fait de la
conception même des capteurs. Ce type d’erreurs se manifeste surtout dans les cas de vent
faible (seuil de rotation trop élevé, inertie trop forte) ou de vent fluctuant (surestimation ou
sous‑estimation de la vitesse, ou direction incorrecte en raison d’un amortissement excessif ou
insuffisant).
2.3 VISIBILITÉ
Aux aérodromes internationaux, la visibilité mesurée pour figurer dans des messages destinés
à une diffusion au‑delà de l’aérodrome devrait être représentative des conditions régnant
sur l’aérodrome et dans son voisinage immédiat. Pour les messages servant aux atterrissages
et décollages et diffusés à l’intérieur de l’aérodrome uniquement, les valeurs de la visibilité
devraient être représentatives des zones d’atterrissage et de décollage, en tenant compte du fait
que celles‑ci peuvent être situées à plusieurs kilomètres de la station d’observation.
Pour les besoins aéronautiques, la gamme des mesures de visibilité va de 25 m à 10 km. Des
valeurs supérieures ou égales à 10 km sont notées comme étant de 10 km. Un capteur doit donc
être capable de mesurer au‑delà de 10 km ou d’indiquer si la mesure égale ou dépasse cette
valeur. Du point de vue de l’exploitation, il est souhaitable d’atteindre une exactitude de mesure
de 50 m jusqu’à 600 m, de 10 % entre 600 et 1 500 m et de 20 % au‑delà (Règlement technique,
Volume II, partie II, supplément A). Les indications concernant l’exactitude des mesures figurent
aux chapitres 1 et 9 de la partie I.
Étant donné les minima météorologiques prescrits en vue de déterminer, du point de vue de
l’exploitation, si un aéronef peut ou non atterrir ou décoller, il est nécessaire de signaler de
manière très précise et très sûre les cas où la visibilité franchit certaines limites, c’est‑à‑dire
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 611
chaque fois que la visibilité passe en deçà ou au‑delà des valeurs limites de 800, 1 500 ou 3 000
et 5 000 mètres. Cela peut être le cas, par exemple, lors de l’apparition, de la disparition ou
de l’évolution du brouillard ou des précipitations (Règlement technique, Volume II, partie II,
appendice 3, paragraphe 2.3.3, alinéa b).
Quand des variations significatives de visibilité existent en fonction des différentes directions,
principalement dans le cas où elles affectent les zones d’atterrissage et de décollage,
cette information complémentaire devrait être donnée avec indication de la direction des
observations, par exemple «VIS 2000 M TO S».
Lorsque la visibilité est inférieure à 800 m, elle doit être exprimée en multiples de 50 m, par
exemple «VIS 350M». Lorsqu’elle est égale ou supérieure à 800 m mais inférieure à 5 km, en
multiples de 100 m. Lorsqu’elle est égale ou supérieure à 5 km mais inférieure à 10 km, par un
nombre entier de kilomètres, par exemple «VIS 7KM». Et lorsqu’elle est égale ou supérieure à
10 kilomètres, il faut indiquer la valeur de 10 kilomètres, sauf lorsque les conditions d’utilisation
de CAVOK (Ceiling and Visibility OK, «plafond et visibilité OK») sont applicables (Règlement
technique, Volume II, partie II, appendice 3, paragraphe 4.2.4.1).
Lorsque les mesures de la visibilité sont effectuées à l’aide d’un transmissomètre, la base
appropriée pour les opérations aéronautiques est de 75 m. Toutefois, si l’instrument est
également utilisé pour la mesure de la portée visuelle de piste, il y a lieu de choisir la longueur
de la ligne de base la plus adéquate en tenant compte des catégories d’opération en vigueur sur
l’aérodrome.
La visibilité est définie dans le Règlement technique, Volume II, partie I, section 1.1. La visibilité
aéronautique (VIS‑AERO) est la plus grande des deux valeurs suivantes:
a) La plus grande distance à laquelle on peut voir et reconnaître un objet noir de dimensions
appropriées, situé près du sol, lorsqu’il est observé sur un fond lumineux;
b) La plus grande distance à laquelle on peut voir et identifier des feux d’une intensité voisine
de 1 000 candelas, lorsqu’ils sont observés sur un fond non éclairé.
VIS‑AERO est en fait une portée visuelle analogue à la portée visuelle de piste, recouvrant des
éléments subjectifs comme la performance virtuelle d’un œil humain et des lumières artificielles.
Cependant, le terme «visibilité» est habituellement utilisé sans préciser qu’il s’agit d’exploitation
aéronautique. Et une confusion est possible avec la définition officielle de la visibilité donnée par
l’OMM (voir le chapitre 9 de la partie I) et qui se rapporte à la POM. La portée optique est une
variable objective basée uniquement sur l’état physique de l’atmosphère et non sur des éléments
humains ou artificiels. La visibilité (pour l’exploitation aéronautique) devrait être fournie dans
les messages locaux et les METAR. Bien qu’une station météorologique aéronautique puisse
être associée à une station synoptique, la visibilité codée dans les SYNOP sera différente de celle
codée dans les METAR, même si elle est mesurée avec le même équipement.
La visibilité pour l’exploitation aéronautique peut être mesurée et calculée comme la portée
visuelle de piste (voir les détails à la section 2.4), exception faite pour l’intensité de la source
lumineuse, I, pour laquelle une valeur constante de 1 000 cd doit être utilisée. Il faut noter que
612 PARTIE II. SYSTÈMES D’OBSERVATION
cette valeur est valable pour les lumières habituellement utilisées pour l’évaluation de la visibilité
et qu’elle est 10 fois plus intense que les lumières d’intensité modérée (à savoir 100 cd, voir le
chapitre 9 de la partie I).
2.4.1 Généralités
La portée visuelle de piste est définie comme la distance à laquelle un pilote d’avion (placé dans
l’axe de la piste) peut voir les marques sur la surface de la piste, ou les feux délimitant la piste
ou identifiant la ligne axiale. La portée visuelle de piste est traitée dans le Règlement technique,
Volume II, partie I, section 4.6.3 et partie II, appendice 3, section 4.3. Des informations détaillées
sur la façon d’observer et de noter la portée visuelle de piste sont données dans OACI (2005).
Il est recommandé d’effectuer cette mesure durant les périodes au cours desquelles la visibilité
horizontale est inférieure à 1 500 mètres.
Une hauteur d’environ 5 m est considérée comme la valeur moyenne du niveau des yeux du
pilote dans un aéronef placé sur la ligne axiale de la piste. Notons que pour les gros porteurs,
la hauteur des yeux du pilote peut atteindre au moins 10 m. En pratique, la portée visuelle de
piste ne peut pas être mesurée directement à partir de la position du pilote regardant l’axe de la
piste, mais doit être une évaluation de ce qu’il verrait à partir de cette position. Néanmoins, la
portée visuelle de piste devrait être évaluée à une hauteur d’environ 2,5 m au‑dessus de la piste
lorsqu’on utilise un système d’instruments, et que cette hauteur soit d’environ 5 m au‑dessus
de la piste lorsque l’évaluation est effectuée par un observateur humain (Règlement technique,
Volume II, partie II, appendice 3, paragraphe 4.3.1.1).
La portée visuelle de piste devrait être transmise aux organismes ATS, chaque fois qu’il y a un
changement de portée visuelle de piste en tenant compte de l’échelle en usage. La transmission
de tels messages devrait normalement être achevée dans les 15 secondes qui suivent la fin de
l’observation. Ces messages d’observation sont donnés en langage clair.
La portée visuelle de piste peut être mesurée indirectement, soit par des observateurs, avec
ou sans l’aide d’équipement supplémentaire, soit au moyen d’un équipement instrumental tel
que le transmissomètre, des capteurs mesurant la lumière diffusée ou un système de mesure
par vidéo. Aux aérodromes où des approches de précision et en particulier des opérations des
catégories I, II, III A et III B sont effectuées, les mesures de la portée visuelle de piste devraient
être faites d’une manière continue et en utilisant des instruments appropriés, comme des
transmissomètres ou des diffusomètres à diffusion frontale (Règlement technique, Volume II,
partie II, appendice 3, paragraphe 4.3.2.1 pour les catégories II et III, et recommandation pour la
catégorie I dans l’appendice 3, paragraphe 4.3.2.2).
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 613
La portée visuelle de piste peut être évaluée à des fins opérationnelles en utilisant des tables ou
mieux à l’aide d’équipements automatiques donnant un affichage digital de sa valeur. Elle devrait
être calculée séparément pour chaque piste conformément au Règlement technique, Volume II,
partie II, appendice 3, section 4.3.5.
Étant donné que la position de l’observateur lorsqu’il examine les feux de piste n’est pas la
même que celle du pilote, il est essentiel d’utiliser des courbes de conversion pour déterminer la
véritable portée visuelle de piste. Des panneaux spécialement utilisés comme repères et placés le
long de la piste peuvent aussi être utilisés pour l’évaluation de la portée visuelle de piste durant la
journée.
Pour estimer la portée visuelle de piste à l’aide d’un système vidéo, on a recours à une caméra
et à un récepteur de télévision permettant d’examiner des repères qui peuvent être soit les feux
de piste, soit des lampes spéciales ou des repères disposés le long de la piste. Un tel système
est aussi utilisé pour détecter le brouillard en banc ou le brouillard bas, indétectables avec les
instruments.
L’instrument le plus couramment utilisé actuellement pour déterminer la portée visuelle de piste
est le transmissomètre. Ce dispositif permet de mesurer le facteur de transmission atmosphérique
le long d’un trajet déterminé (voir le chapitre 9 de la partie I). La portée visuelle de piste est
déterminée comme suit:
a) Évaluation de la portée visuelle de piste quand les feux de piste dominent (portée visuelle
de piste basée sur un seuil d’éclairement): la portée visuelle de piste dépend du facteur de
transmission atmosphérique, de l’intensité des feux de piste et du seuil d’éclairement de
l’œil de l’observateur (pilote), lequel est lui‑même fonction de la luminance de fond. Elle
peut être calculée à l’aide de la formule:
Et = I R −2 T R / a (2.1)
b) Évaluation de la portée visuelle de piste par contraste (basée sur un seuil de contraste):
lorsque l’on utilise des repères autres que des feux pour le guidage des pilotes au cours
des atterrissages et des décollages, la portée visuelle de piste devrait être évaluée en se
basant sur le contraste entre des repères particuliers et l’arrière‑plan. Une valeur du seuil
de contraste de 0,05 devrait être utilisée comme base pour les calculs. La formule est la
suivante:
ln 0, 05
R=a (2.2)
ln T
où R est la portée visuelle de piste par contraste. Comme le niveau du seuil de contraste
est de 0,05, la portée visuelle de piste par contraste est identique à la portée optique
météorologique, soit R = POM. Noter que la portée visuelle de piste basée sur un seuil
d’éclairement prévaut toujours sur celle basée sur un seuil de contraste, soit portée visuelle
de piste ≥ POM.
L’exactitude obtenue variant d’une conception d’instrument à une autre, les caractéristiques
de performance devraient être vérifiées avant de sélectionner un instrument pour l’évaluation
de la portée visuelle de piste. L’étalonnage d’un diffusomètre doit être traçable et vérifiable en
référence à un transmissomètre standard, dont l’exactitude a été vérifiée sur toute la gamme
opérationnelle concernée (Règlement technique, Volume II, partie II, appendice 3, section 4.3.2).
a) Portée visuelle de piste avec feux de pistes dominants (basée sur un seuil d’éclairement): la
portée visuelle de piste sera calculée de la même façon qu’avec un transmissomètre, sauf
que l’on utilise σ et non T. Elle peut être calculée par:
1 I ( R)
R= (2.3)
σ E ⋅ R2
t
où R est la portée visuelle de piste; σ le coefficient d’extinction (ou 3/POM); Et est le seuil
visuel d’éclairement de l’observateur (pilote), qui dépend de la luminance de l’arrière‑fond;
et I l’intensité effective des feux axiaux ou latéraux en direction de l’observateur (pilote).
Comme pour un transmissomètre, R devrait être calculée par itération;
b) Évaluation de la portée visuelle de piste par contraste (basée sur un seuil de contraste):
lorsque des marqueurs autres que des feux sont utilisés pour guider les pilotes au cours des
atterrissages et des décollages, la portée visuelle de piste devrait être basée sur le contraste
de cibles spécifiques par rapport à l’arrière‑fond. Un seuil de contraste de 0,05 devrait être
utilisé comme base de calcul. La formule est:
R = − ln 0, 05 / σ = POM (2.4)
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 615
où R est la portée visuelle de piste par contraste. Il faut noter que la portée visuelle de piste
basée sur un seuil d’éclairement prévaut toujours sur celle basée sur un seuil de contraste,
soit portée visuelle de piste ≥ POM.
L’instrumentation pour l’évaluation de la portée visuelle de piste peut être basée sur des
transmissomètres ou des diffusomètres. Les observations de la portée visuelle de piste devraient
être faites à une distance latérale ne dépassant pas 120 m par rapport à l’axe de la piste. Les sites
d’observation représentatifs devraient être situés à environ 300 m dans le sens de la piste, à partir
du seuil, pour la zone de toucher. Pour les sections médianes et éloignées de la piste, ils devraient
être situés à une distance de 1 000 à 1 500 m du seuil et à une distance d’environ 300 m de l’autre
bout de la piste (Règlement technique, Volume II, partie II, appendice 3, paragraphe 4.3.1.2).
La position exacte de ces sites et, si nécessaire, d’autres sites supplémentaires (pour les
longues pistes), devrait être déterminée en prenant en considération les facteurs climatiques,
météorologiques et aéronautiques, notamment les marécages et autres zones sujettes au
brouillard. La portée visuelle de piste devrait être observée à une hauteur d’environ 2,5 m
au‑dessus de la piste lorsqu’on utilise un système d’instruments, ou d’environ 5 m au‑dessus
de la piste lorsque l’évaluation est effectuée par un observateur humain (Volume II, partie II,
appendice 3, paragraphe 4.3.1.1).
Les unités fournissant des services d’informations pour la circulation aérienne et l’aéronautique
devraient être informées sans délai des changements dans les aptitudes du système
d’observation de la portée visuelle de piste.
La portée visuelle de piste en plusieurs points de mesure est calculée par ordinateur et affichée
sur écran avec le moment de l’observation, les facteurs de transmission, la luminance mesurée en
un ou plusieurs points de l’aérodrome et l’intensité des feux de piste. Les données sont envoyées,
pour affichage, aux organismes ATS, aux unités météorologiques et aux autres unités concernées.
Elles peuvent aussi être envoyées à des imprimantes afin d’être conservées.
L’intensité des feux de piste devrait être saisie automatiquement dans l’ordinateur selon la
procédure décrite par le Règlement technique, Volume II, partie II, appendice 3, section 4.3.5 ou
conformément aux dispositions officiellement convenues entre les organismes ATS et l’unité
météorologique locale.
Des enregistreurs (sur une base temporelle) graphiques analogiques ou numériques peuvent
aussi être utilisés pour le facteur de transmission T et la luminance de fond L. Un afficheur
graphique de la portée visuelle de piste devrait aussi montrer correctement les enregistrements
de Et et I (voir l’équation 2.1).
2.4.3.1 Transmissomètres
Le chapitre 9 de la partie I contient une description des transmissomètres, de leur mise en place
sur site, de leur entretien et des sources d’erreurs ainsi que des références à d’autres publications.
Le transmissomètre est un système composé d’un projecteur qui dirige un faisceau de lumière
d’intensité connue vers un récepteur photoélectrique placé à une distance connue du projecteur.
Les variations du facteur de transmission de l’atmosphère dues au brouillard, à la brume, etc.,
sont continuellement mesurées et enregistrées. L’instrument est calibré de manière à permettre
une lecture directe, donnant le facteur de transmission en pourcentage.
Le projecteur et le récepteur doivent être montés à la même hauteur sur des supports rigides,
fermes, résistants. Ils doivent être installés de telle façon que l’alignement des deux unités ne soit
pas défavorablement affecté par une instabilité du terrain, le gel, le réchauffement différent des
pylônes, etc. La hauteur du chemin optique par rapport au niveau de la piste ne devrait pas être
inférieure à 2,5 m.
616 PARTIE II. SYSTÈMES D’OBSERVATION
Une variante de transmissomètre consiste à placer dans le même boîtier l’émetteur et le récepteur
(voir le chapitre 9 de la partie I). Dans ce cas, un réflecteur (par exemple un miroir) est disposé
à l’emplacement normal de réception. La lumière parcourt un aller et retour et la longueur de la
base est le double de la distance entre l’émetteur/récepteur et le réflecteur. Le transmissomètre
peut être à simple base ou à double base, selon qu’un ou deux récepteurs ou rétroréflecteurs,
placés à des distances différentes, sont utilisés.
Pour une plus courte longueur de base du transmissomètre, il sera nécessaire que l’exactitude
de la mesure du facteur de transmission de l’atmosphère soit plus élevée et que la linéarité du
système soit meilleure. Si de faibles valeurs de la portée visuelle de piste doivent être mesurées
pour les besoins d’atterrissage en catégories II et III, il y a lieu de choisir un transmissomètre à
courte base. Toutefois, le maximum de portée visuelle de piste mesurée est alors relativement
peu élevé. Un compromis doit donc être établi. Il existe des transmissomètres à double base,
permettant une plus large gamme de mesure par sélection d’une base ou de l’autre, mais lors de
la commutation de la ligne de base, il importe de veiller à ce que les valeurs de la portée visuelle
de piste restent cohérentes les unes par rapport aux autres.
L’utilisation d’un transmissomètre à base plus longue permet de mesurer des valeurs plus
élevées de la portée visuelle de piste, mais il faut alors plus de puissance lumineuse à l’émission
pour compenser l’atténuation lumineuse enregistrée entre l’émetteur et le récepteur lors d’un
brouillard dense, ainsi qu’un angle de réception plus étroit pour éviter les phénomènes de
diffusion parasite. La mesure des signaux les plus faibles dépend également du bruit de fond de
l’équipement de mesure.
En général, les axes des transmissomètres sont orientés parallèlement à la piste. Il y a toutefois
lieu d’éviter que les rayons solaires directs ne les endommagent. Il est donc suggéré de diriger
l’axe optique horizontalement dans une direction approximative nord‑sud (pour des latitudes
inférieures à 50°) ou d’utiliser un système de chicanes.
2.4.3.2 Diffusomètres
Les diffusomètres devraient être installés près de la piste de manière similaire aux
transmissomètres. Leur positionnement demande moins de précautions que pour ces derniers.
Cependant il faudrait faire attention à éviter les rayons solaires directs ou diffus qui peuvent
influencer (ou endommager) le récepteur. Cela est en particulier le cas pour les rayons diffusés
par un couvert neigeux, un lac ou la surface de la mer. Les instruments modernes compensent la
contamination des composants optiques.
2.4.3.3 Luminancemètres
Le luminancemètre est constitué d’une photodiode placée au foyer d’une optique d’ouverture
d’environ 10° à 20°, dirigée nord‑sud (pour éviter les rayons solaires directs) et selon un angle
d’élévation de 30° à 45° environ par rapport à la ligne d’horizon.
Il est essentiel de contrôler périodiquement tous les éléments des systèmes transmissométriques
de mesure de la portée visuelle de piste pour s’assurer que l’ensemble fonctionne normalement
et est correctement étalonné. En général, les notices fournies par les entreprises qui fabriquent et
mettent au point ce type d’équipement donnent les renseignements nécessaires pour effectuer
ces contrôles et indiquent les ajustements qu’il convient d’apporter lorsque les performances
nominales de l’appareillage ne sont pas atteintes. Par beau temps, lorsque la visibilité est de plus
de 10 à 15 km, il est facile de contrôler que l’équipement indique une transmissivité d’environ
100 % (voir le chapitre 9 de la partie I). Pour les diffusomètres, des disques diffuseurs, émulant
certaines valeurs d’extinction, peuvent être utilisés. Cependant, l’étalonnage d’un diffusomètre
devrait être comparable et vérifiable en référence à un transmissomètre standard (voir la
section 2.4.2.4).
Dans le cas de sites fortement pollués, la maintenance devra être fréquente. Lors des entretiens,
il convient d’éviter que tous les équipements soient mis hors service en même temps et que
cette interruption de service soit de longue durée, surtout lors d’une période durant laquelle du
brouillard est prévu.
Lorsque le brouillard persiste plusieurs jours d’affilée, il faudrait vérifier que l’intensité de la
lumière émise par le projecteur n’a pas changé et qu’il n’y a aucune dérive de l’équipement. Le
contrôle des réglages optiques est difficile, sinon impossible, par brouillard vraiment dense, aussi
est‑il capital que les instruments soient mécaniquement fiables et que leurs propriétés optiques
soient stables.
Lorsque l’on utilise des capteurs de lumière diffuse, par opposition à des transmissomètres, les
équations mathématiques de la portée visuelle de piste sont acceptables dans le cas de fines
gouttelettes d’eau comme c’est le cas dans le brouillard, mais pas lorsque la visibilité est réduite
par d’autres hydrométéores, tels que brouillard givrant, pluie, neige ou lithométéores (tempêtes
de sables). Les valeurs mesurées de la POM et de la portée visuelle de piste doivent alors être
prises avec beaucoup de circonspection, étant donné que l’on n’a pas encore établi pour ces cas
des relations satisfaisantes qui puissent être adoptées.
618 PARTIE II. SYSTÈMES D’OBSERVATION
Les écarts entre la portée visuelle de piste vue par un pilote et la valeur mesurée peuvent
atteindre 15 à 20 %, l’écart type étant supposé ne pas dépasser les 10 %. Dans le cas
d’observateurs, les différences entre les seuils d’éclairement et les conditions d’observation,
prises ensemble, peuvent provoquer des écarts de 15 à 20 % dans leurs évaluations de la portée
visuelle.
La plupart des observations concernant le temps présent sont effectuées visuellement. Les
emplacements d’observation devraient être choisis avec soin, de telle façon que l’observateur
ait une vue dégagée dans toutes les directions. Des instruments peuvent être utilisés pour
appuyer les observations effectuées par l’homme, en particulier pour mesurer l’intensité des
précipitations.
Des détecteurs utilisés pour identifier le type de précipitations (pluie, neige, bruine, etc.)
ou des phénomènes réduisant la visibilité autres que les précipitations (brouillard, brume,
fumée, poussière, etc.) peuvent être envisagés pour assister l’observateur humain ou dans un
but d’automatisation. Ils sont essentiellement basés sur la mesure du coefficient d’extinction
ou de la scintillation et peuvent également faire appel à des relations entre les phénomènes
météorologiques et d’autres grandeurs comme l’humidité. Actuellement, aucun accord
international n’existe sur les algorithmes utilisés dans le traitement des données permettant
l’identification de ces phénomènes. De tels équipements ne sont pas indispensables en
météorologie aéronautique alors que la présence d’observateurs humains est requise.
Des descriptions des phénomènes repris dans le temps présent figurent dans le chapitre 14 de la
partie I et aussi dans OMM (1975, 1987, 1992a, 2011a) et OACI (2011).
2.6 NUAGES
2.6.1 Généralités
Les observations et les mesures relatives aux nuages sont traitées au chapitre 15 de la partie I.
Pour les applications relatives à l’aviation (voir le Règlement technique, Volume II, partie I,
section 4.6.5 et partie II, appendice 3, section 4.5), les informations concernant les nuages
(quantité, hauteur de la base, type) doivent être représentatives de l’aéroport et de ses environs
immédiats et des zones d’approche pour les messages destinés à l’atterrissage. Lorsque des
informations concernant les nuages sont fournies aux aéronefs effectuant des approches de
précision, elles devraient être représentatives des conditions régnant dans la zone de la balise
intermédiaire du système d’atterrissage aux instruments. Pour les aérodromes où cette balise
n’est pas utilisée, elles devraient concerner la partie de la piste située à une distance de 900
à 1 200 m du seuil d’atterrissage à l’extrémité d’approche de la piste (Règlement technique,
Volume II, partie II, appendice 3, paragraphe 4.5.1).
Si le ciel est obscurci ou non visible, la hauteur du plafond nuageux est remplacée par la visibilité
verticale dans les rapports locaux courants (MET REPORT) ou spéciaux (SPECIAL) (Règlement
technique, Volume II, partie I, paragraphe 4.5.1, alinéa i)) et les rapports météorologiques
METAR et SPECI (OMM, 2011a, FM 15/FM 16, paragraphe 15.9). La visibilité verticale est définie
comme la distance maximale à laquelle un observateur peut voir et identifier un objet situé sur
la même verticale que lui‑même, au‑dessus ou au‑dessous de lui. Elle peut être dérivée du profil
d’extinction optique déterminé par un télémètre LIDAR. En supposant que l’extinction totale σ à
l’altitude h peut être déduite du coefficient d’extinction de rétrodiffusion σB à cette altitude après
étalonnage pour toute la gamme d’altitude et en supposant qu’un seuil de contraste de 5 % est
applicable comme pour la POM, on peut retenir pour la visibilité verticale VV que:
VV
I (VV )
∫ σ ( h ) ⋅ dh = ln
= ln ( 0, 05 ) = 3
I 0
(2.6)
0
Comme les télémètres LIDAR déterminent le coefficient d’extinction local à des intervalles fixes
Δh, VV peut être déduite de façon relativement facile de:
N
∑σ i ⋅ ∆h = 3, avec hN = VV (2.7)
i =1
Des mots de code typiques comme CAVOK, SKC (ciel clair), NCD (pas de nuages détectés) et
NSC (pas de nuages significatifs) sont utilisés dans les rapports là où l’état de l’atmosphère
ou du temps n’affectera pas les opérations de décollage et d’atterrissage. Il est utile de
remplacer l’information quantitative par des acronymes simple. Des précisions sur l’utilisation
de cette méthode sont données dans le Règlement technique, Volume II, partie II, appendice 3,
paragraphes 2.2 et 4.5.4.3. CAVOK, par exemple, doit être utilisé lorsque les caractéristiques des
nuages et du temps présent sont meilleures que les valeurs ou conditions prescrites. Il faudrait
prendre de grandes précautions dans l’usage de ces abréviations avec les systèmes de mesure
automatisés, lesquels ne sont pas capables de mesurer les nuages et la visibilité verticale avec les
exigences énoncées.
La hauteur de la base des nuages doit être donnée par rapport à l’altitude de l’aérodrome.
Néanmoins, lorsqu’une piste avec approche de précision dont le seuil se trouve à 15 m ou
davantage au‑dessous de l’altitude de l’aérodrome est en service, des dispositions doivent être
prises localement afin que l’altitude du seuil serve de niveau de référence pour la hauteur des
nuages signalée aux aéronefs en approche.
620 PARTIE II. SYSTÈMES D’OBSERVATION
Les principales méthodes employées actuellement pour déterminer la hauteur de la base des
nuages sont les suivantes:
c) Télémètres à laser;
e) Estimation visuelle;
La hauteur de la base des nuages devrait être déterminée par des mesures chaque fois que cela
est possible. Dans les aérodromes internationaux ou à fort trafic pourvus de systèmes d’approche
de précision, les mesures de la base des nuages devraient être effectuées automatiquement afin
de disposer d’une manière continue de ces informations et de leur évolution.
La méthode des ballons est trop lente et trop sujette à erreurs pour constituer une méthode
valable de la mesure de la hauteur de la base des nuages aux aérodromes. La méthode visuelle
est également trop sujette à erreurs, notamment de nuit, pour servir là où les observations sont
critiques. Les comptes rendus d’aéronefs sur la hauteur de la base des nuages peuvent fournir à
l’observateur des renseignements supplémentaires précieux. Il faudrait toutefois prendre soin, en
interprétant les informations des pilotes, de tenir compte du fait que celles‑ci peuvent avoir été
observées à une distance de plusieurs kilomètres du point d’observation en surface.
L’exactitude avec laquelle il est possible de mesurer la hauteur de la base des nuages est limitée
par le fait que cette base est fréquemment déchiquetée, diffuse et irrégulière. Des mesures
isolées ou peu fréquentes, telles que celles qui sont effectuées à l’aide de ballons de mesure de
la hauteur de la base des nuages, ne sont pas nécessairement représentatives des conditions
nuageuses d’ensemble. La meilleure estimation consiste à étudier un enregistrement quasi
continu sur une période de plusieurs minutes, obtenu au moyen de l’un des instruments cités
ci‑dessus.
L’exactitude donnée par les fabricants pour les mesures instrumentales est habituellement
obtenue en utilisant des cibles solides ou artificielles. Cependant, l’exactitude opérationnelle est
plus difficile à obtenir, étant donné le caractère flou de la base des nuages.
On trouvera au chapitre 2 de la partie I un exposé général sur les instruments et les méthodes
d’observation employés pour mesurer la température de l’air. Pour l’exploitation aéronautique
(voir le Règlement technique, Volume II, partie I, section 4.1 et paragraphe 4.5.1, alinéa j)), il est
nécessaire de connaître la température de l’air au‑dessus de la piste. Normalement, les données
obtenues sous un abri bien situé et convenablement ventilé constituent une approximation
suffisante des valeurs requises. Les variations rapides de la température de l’air (2 à 3 °C par
demi‑heure) devraient être communiquées immédiatement aux organismes ATS, principalement
dans les zones tropicales et subtropicales.
Les capteurs thermométriques devraient être exposés de façon à ne pas être soumis à
l’influence des aéronefs en mouvement ou en stationnement et devraient fournir des valeurs
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 621
représentatives des conditions générales qui règnent au‑dessus des pistes des aérodromes. Il
serait préférable d’utiliser des thermomètres dont la constante de temps est de 20 secondes,
ceci afin d’éviter les trop petites fluctuations de température (vent moyen de 5 m s–1). En cas
de mesures automatiques, un dispositif numérique approprié calculant des moyennes ou une
résistance/capacitance filtrante devraient être utilisés. Les indicateurs ou enregistreurs à distance
présentent des avantages. Par ailleurs, pour les aérodromes comportant des pistes dédiées aux
opérations d’approche et atterrissages aux instruments de catégories II et III, il est nécessaire
d’avoir des instruments automatiques de mesure et des affichages associés. Ces mesures de
la température sont de plus en plus intégrées dans les stations ou systèmes d’acquisition de
données automatiques, et sont affichées sous une forme numérique. La température affichée
devrait représenter une moyenne sur 1 à 10 minutes, obtenue après linéarisation du signal de
sortie des capteurs. Sa valeur devrait être arrondie au degré entier le plus proche pour les usages
aéronautiques.
Les capteurs modernes d’humidité permettent d’utiliser des indicateurs et des enregistreurs
à distance. Le psychromètre est habituellement utilisé pour les observations manuelles. Pour
obtenir l’incertitude voulue, un psychromètre ventilé est préférable. Les types d’instruments
couramment utilisés sont les suivants:
a) Les capteurs capacitifs, basés sur la mesure de capacité d’un condensateur, dont la valeur
du polymère diélectrique varie en fonction de la teneur en vapeur d’eau de l’air ambiant.
En pratique la capacitance mesurée est une fonction quasi linéaire de l’humidité relative.
Le point de rosée est calculé en utilisant la température ambiante (mesurée séparément et
à une très courte distance) (td = td(t, U)). La formule appropriée est donnée à l’annexe 4.B
du chapitre 4 de la partie I. Pour éviter la condensation, qui peut durer longtemps après
que U < à 100 % et qui pourrait être piégée par le filtre de protection du capteur, ce dernier
devrait être chauffé. Dans un tel cas, la température ambiante ne devrait pas être utilisée et
l’on utilisera plutôt une valeur de température représentative de l’air chauffé au voisinage
du capteur. En pratique, la procédure appropriée ne pourra être déterminée qu’après un
minutieux étalonnage dans des chambres climatiques bien conçues;
2.9.1 Généralités
altimètres de bord sont essentielles aux stations aéronautiques. Ces valeurs sont mesurées en
dixièmes d’hectopascals (hPa) et désignées dans le code Q par les abréviations QFE et QNH, qui
ont les significations suivantes:
a) Le QFE (pression au niveau du terrain) est défini comme la pression à une altitude
correspondant à l’altitude officielle de l’aérodrome (Règlement technique, Volume II, partie II,
appendice 3, paragraphe 4.7.2). L’altitude du point de référence de l’aérodrome et l’altitude
de la piste sont décrites dans OACI (2013);
ii) Soustraire (ou ajouter pour les stations sous le niveau de la mer) de cette altitude
barométrique, l’altitude de la station (par rapport au niveau de la mer) pour obtenir
l’altitude barométrique au niveau de la mer (qui peut être positive ou négative);
iii) Déduire de cette altitude barométrique la valeur associée de la pression (en accord
avec l’atmosphère type) qui sera le QNH.
Un exemple de cette procédure est donné dans la figure ci‑après. Les valeurs de la pression
mesurée, de QNH et/ou de QFE devraient être calculées en dixièmes d’hectopascal. Dans les
rapports locaux et ceux qui sont diffusés autour de l’aérodrome, les valeurs de QNH et QFE
devraient être incluses et arrondies à l’hectopascal inférieur le plus proche. Les organismes ATS
devraient être avertis des changements rapides de la pression.
L’équipement instrumental utilisé à une station aéronautique pour mesurer la pression est
identique à celui d’une station synoptique, excepté qu’un plus grand usage est souvent fait de
baromètres digitaux automatiques de précision pour des raisons de convenance et de vitesse
de lecture pour les observations courantes. Les stations aéronautiques devraient, toutefois, être
équipées d’un baromètre (ou plus) bien étalonné, comparable avec une référence standard.
Ces instruments devraient être périodiquement comparés à un étalon approprié, suivant
un programme établi. Aussi bien les baromètres automatiques que manuels conviennent, à
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 623
Les conditions prescrites pour l’exposition des baromètres dans les stations synoptiques
s’appliquent aux stations aéronautiques. Si les baromètres doivent être installés à l’intérieur
d’un bâtiment, le capteur devrait être relié à l’air extérieur en utilisant une prise d’air statique
appropriée. Compte tenu de l’impact du vent sur le bâtiment, les différences de pression entre
l’intérieur et l’extérieur peuvent dépasser 1 hPa. Pour éviter ce biais, qui peut aller jusqu’à 3 hPa
environ, en plus ou en moins, pour de grandes vitesses de vent, la prise d’air devrait être placée
suffisamment loin du bâtiment. De même, l’air conditionné peut avoir un impact sur les mesures
de pression, ce qui peut être évité par l’utilisation d’une telle prise d’air.
Des instruments affichant directement la valeur QNH sont disponibles et peuvent remplacer
avantageusement les baromètres anéroïdes normaux ou les baromètres à mercure, qui
nécessitent l’utilisation de tables de conversion pour obtenir la valeur QNH. Pour ces appareils,
les valeurs correctes de A et B, qui sont fonction de l’altitude géopotentielle de la station (voir
l’équation 2.8) doivent être entrées. Les valeurs mesurées par ces instruments doivent être
périodiquement comparées avec les valeurs QNH calculées à partir des mesures obtenues à l’aide
du baromètre à mercure.
Les valeurs de la pression destinées au calage des altimètres de bord devraient être données
avec une exactitude d’au moins 0,5 hPa (Règlement technique, Volume II, partie II, supplément A).
Toutes les corrections appropriées devraient être appliquées aux lectures du baromètre à
mercure; de plus, il y a lieu d’appliquer aux baromètres anéroïdes utilisés pour les observations
de routine les corrections établies suite aux comparaisons régulières entre ces derniers et un
baromètre à mercure. Lorsque des altimètres anéroïdes sont utilisés dans les tours de contrôle
d’aérodrome, il est nécessaire d’appliquer des corrections différentes de celles qui sont
appliquées à la station d’observation, afin de réduire d’une manière appropriée la pression
au niveau officiel de l’aérodrome ou de la piste (Règlement technique, Volume II, partie II,
appendice 3, section 4.7).
1 500
850 hPa
Exemple
Altitude de l’aérodrome 272 m
et QFE 969 hPa
900 hPa donne un QNH = 1 001 hPa
1 000
Altitude (m)
950 hPa
500
375 m
Altitude de l’aérodrome
h = 272 m
103 m 1 000 hPa
0 1 013,25 hPa
Niveau de la mer
Pression (hPa)
Pour déterminer les valeurs de la pression destinées aux procédures de calage altimétrique,
l’altitude officielle de l’aérodrome doit être prise comme niveau de référence. Pour les pistes sans
approche de précision dont le seuil est situé à deux mètres ou davantage au‑dessous de l’altitude
de l’aérodrome, et pour les pistes avec approche de précision, le QFE, s’il est fourni, devrait être
donné par rapport à l’altitude du seuil en question.
2.10.1 Généralités
Les observations faites aux stations aéronautiques devraient également comprendre tout
renseignement disponible sur les conditions météorologiques dans les aires d’approche et de
montée après le décollage. Cela comprend tout ce qui se rapporte aux phénomènes suivants et à
leur localisation: cumulonimbus ou orages, turbulence modérée ou forte, cisaillement horizontal
et/ou vertical du vent et variations significatives du vent le long de la trajectoire de vol, grêle,
lignes de grains actives, givrage modéré ou fort, précipitation givrantes, ondes orographiques
marquées, tempête de sable, tempête de poussière, rafales de neige, entonnoir nuageux
(tornade ou trombe). Par exemple, on stipulera «SURFACE WIND 320/10 WIND AT 60M 360/25
IN APCH or MOD TURB AND ICE INC IN CLIMB OUT».
Malgré les études entreprises dans différents pays, aucun instrument réellement opérationnel
de mesure de la portée visuelle oblique n’a été mis au point. L’évolution technologique rapide
des systèmes d’atterrissage par tout temps a permis de baisser les minima imposés pour les
atterrissages aux aérodromes (catégories II, III A et III B) et a conduit graduellement à accorder
moins d’importance à ce paramètre. Aucune recommandation n’a été élaborée pour sa mesure.
Le cisaillement du vent est un changement de vitesse et/ou de direction du vent dans l’espace
(courants ascendants et descendants compris). L’intensité du cisaillement du vent peut être
classée comme faible, modérée, forte ou violente suivant son influence sur les aéronefs. Le
cisaillement du vent dans les basses couches, susceptible d’affecter les opérations d’atterrissage
et de décollage, peut se présenter comme un gradient vertical de vent dans les couches
inférieures d’une atmosphère thermiquement stable ou être dû à l’influence d’obstacles et de
surfaces frontales sur l’écoulement du vent, à l’effet des brises de terre et de mer, ainsi qu’au
régime du vent au sein et autour des nuages de convection, surtout quand ils sont orageux. Les
orages violents sont de loin la cause la plus importante du cisaillement du vent dans les basses
couches et une cause d’accidents fatals pour les aéronefs, tant en approche et à l’atterrissage
qu’au décollage.
La mesure du cisaillement vertical du vent est décrite au chapitre 5 de la partie I. Elle peut être
effectuée directement au moyen d’anémomètres fixés sur des mâts élevés et devant être placés
à une certaine distance de l’aérodrome. Parmi les systèmes de télédétection existants, citons
le radar Doppler, le lidar, le sodar et le radar profileur de vent. Le lidar utilise une lumière laser,
le sodar une onde acoustique et le radar profileur de vent une impulsion sous forme d’onde
magnétique de fréquence proche de 50 MHz, de 400 MHz, ou de 1000 MHz.
une alerte avertissant du cisaillement du vent peut être transmise. Ce système est plus
particulièrement utilisé dans les régions tropicales et subtropicales où se produisent de fréquents
et intenses développements orageux.
Le sujet est traité dans son ensemble dans le document suivant de l’OACI: Manuel sur le
cisaillement du vent dans les basses couches (Doc 9817), première édition, 2005.
Bien que le cisaillement du vent ait un impact significatif sur les opérations aériennes, aucune
recommandation ou critère n’a été établi jusqu’à présent. Néanmoins, des indications sur les
alertes concernant le cisaillement du vent sont données dans OACI (2011), chapitre 4.
Des systèmes instrumentaux spécialement conçus sont également utilisés aux stations
aéronautiques pour mesurer, traiter, transmettre à distance et enregistrer les valeurs des
différents paramètres météorologiques représentatifs des conditions régnant dans les aires
d’approche, d’atterrissage et de décollage, ainsi que des conditions générales régnant sur les
pistes de l’aéroport (Règlement technique, Volume II, partie I, section 4.1).
b) D’une unité de prétraitement (moyenne des valeurs mesurées sur des intervalles de temps
de 1 à 10 minutes, selon le paramètre mesuré ainsi que valeurs minimales, maximales et
moyennes des différents paramètres);
c) D’un calculateur servant, par exemple, à préparer la rédaction des messages SYNOP, METAR
et SPECI, ainsi que du logiciel de télécommunication.
L’observateur devrait pouvoir introduire dans ces messages des paramètres qui ne sont pas
mesurés par la station automatique, par exemple: temps présent, temps passé, nuages (type et
quantité) et, parfois, visibilité. Pour l’aéronautique, ces stations ne sont donc souvent qu’une
aide à l’acquisition des données météorologiques et ne peuvent fonctionner sans la présence
d’observateurs.
Les instruments de la station automatique devraient être vérifiés et inspectés régulièrement. Des
contrôles de qualité sont nécessaires et recommandés si l’on veut éviter des erreurs grossières
et des dérives d’équipements. Les mesures effectuées par les stations météorologiques
automatiques sont traitées en détail au chapitre 1 de la partie II. L’assurance de la qualité et les
autres problèmes de gestion de la qualité sont traités au chapitre 1 de la partie IV. Pour garantir la
performance attendue des instruments automatiques, un plan d’évaluation détaillé devrait être
établi, qui détaille la périodicité de la maintenance et de l’étalonnage et présente des procédures
de retour d’expérience pour améliorer le système d’observation.
626 PARTIE II. SYSTÈMES D’OBSERVATION
2.12 RADARS
Aux aérodromes à fort trafic, le radar météorologique est devenu indispensable, car il
assure une protection efficace, permanente et en temps réel en fournissant des observations
complémentaires aux observations météorologiques usuelles pour les atterrissages et les
décollages. Le radar permet de donner des informations sur une zone plus large pouvant
s’étendre jusqu’à 150 à 200 km. Il constitue aussi une aide à la prévision à brève échéance, dans
l’heure ou les quelques heures qui suivent l’observation (aide possible pour la rédaction du
message TREND).
L’interprétation des échos reçus renseigne sur le type de précipitations autour de la station:
précipitations provenant de nuages de type stratifié ou convectif, précipitations à caractère
isolé ou en ligne, ou encore associées à des orages et, sous certaines conditions, détection des
précipitations sous forme de neige ou de grêle. L’image reçue permet de suivre les trajectoires
de lignes de grains ou de fronts et leur évolution (intensification ou décroissance). Si le radar est
équipé d’un dispositif Doppler, on peut en déduire la vitesse et le sens de déplacement de ces
échos.
Les radars les plus répandus utilisent les longueurs d’onde de 3, 5 ou 10 cm. Le choix dépend
de la région du globe et du but recherché, mais la tendance générale actuelle est d’utiliser la
longueur d’onde de 5 cm.
Dans certaines régions, des centres centralisateurs recueillent les images radar reçues par une
série de stations radar réparties sur le pays ou sur une région et les assemblent en mosaïque
(image composite). Des échanges d’images ont également lieu entre ces différents centres de
manière à couvrir d’une protection radar la zone la plus large possible.
Ce type d’instruments, décrit au chapitre 14 de la partie I, est installé sur nombre d’aérodromes
afin de renseigner sur l’état des pistes en hiver. La température en surface, celle à quelques
centimètres sous la piste, la présence de neige, d’eau, de verglas ou de givre blanc, la présence
ou non de sels ou de produits dégivrants sont mesurées ou détectées. Ces capteurs, se
présentant sous forme d’unités compactes, sont placés en un certain nombre de points sur les
pistes ou les voies de circulation; leur nombre dépend de l’importance de l’aérodrome et du
nombre de pistes que l’on désire protéger. Des capteurs atmosphériques sont également placés
près des pistes (mesure de la température et de l’humidité de l’air, du vent et des précipitations).
Des dispositifs basés sur la détection des ondes électromagnétiques de basse fréquence
accompagnant les éclairs ont été développés ces dernières années (voir le chapitre 6 de la
partie II). Ces systèmes mesurent le temps d’arrivée de l’onde sonore et/ou la direction de son
CHAPITRE 2. MESURES ET OBSERVATIONS AUX STATIONS MÉTÉOROLOGIQUES AÉRONAUTIQUES 627
émission. Certains systèmes analysent également les caractéristiques de chaque impulsion radio
pour identifier les décharges nuage‑sol. Dans certaines régions, des dispositifs de ce type sont
installés pour mesurer et localiser ces phénomènes dans une zone de 50 à 100 km autour de
l’aérodrome.
Les cendres volcaniques devraient être signalées (dans les rapports SIGMET) au titre des
informations supplémentaires (Règlement technique, Volume II, partie II, appendice 3, section 4.8).
Des détails sur l’observation des cendres volcaniques, des matériaux radioactifs et des nuages
chimiquement toxiques sont donnés dans OACI (2004, 2007).
Des informations, dans les messages METAR et SPECI, sur la température de surface de la mer,
l’état de la mer ou la hauteur de houle significative devraient être fournies à partir des stations
météorologiques établies sur des structures offshore pour le soutien des opérations héliportées
(Règlement technique, Volume II, partie II, appendice 3, paragraphe 4.8.1.5).
RÉFÉRENCES ET AUTRES LECTURES
Committee on Low‑Altitude Wind Shear and its Hazard to Aviation, 1983: Low‑Altitude Wind Shear and Its
Hazard to Aviation. National Academy Press, Washington (consultable à l’adresse http://www.
nap.edu/books/0309034329/html/).
Organisation de l'aviation civile internationale (OACI), 1993: Manuel de l’atmosphère type OACI élargie jusqu’à
80 kilomètres (262 500 pieds). Troisième édition, Doc 7488, Montréal.
———, 1996: Manual on the Provision of Meteorological Service for International Helicopter Operations. Doc 9680,
Montréal.
———, 2004: Handbook on the International Airways Volcano Watch (IAVW). Deuxième édition, Doc 9766,
Montréal.
———, 2005: Manuel des méthodes d’observation et de compte rendu de la portée visuelle de piste.
Troisième édition, Doc 9328, Montréal.
———, 2007: Manuel sur les nuages de cendres volcaniques, de matières radioactives et de produits chimiques
toxiques. Deuxième édition, Doc 9691, Montréal.
———, 2010: Unités de mesure à utiliser dans l’exploitation en vol et au sol. Annexe 5. Cinquième édition,
Montréal.
———, 2011: Manuel des pratiques de météorologie aéronautique. Neuvième édition, Doc 8896, Montréal.
———, 2013: Aérodromes. Annexe 14, Volume I, Sixième édition, Montréal.
Organisation météorologique mondiale, 1966: Tables météorologiques internationales (dir.: S. Letestu)
(modifiées en 1973) (OMM‑N° 188, TP 94), Genève.
———, 1975: Atlas international des nuages : Manuel de l'observation des nuages et des autres météores
(OMM‑N° 407), Volume I, Genève.
———, 1987: Atlas international des nuages (OMM‑N° 407), Volume II, Genève.
———, 1990: The First WMO Intercomparison of Visibility Measurements: Final Report (United Kingdom 1988/1989)
(D.J. Griggs, D.W. Jones, M. Ouldridge et W.R. Sparks). Instruments and Observing Methods
Report No. 41 (WMO/TD‑No. 401), Genève.
———, 1992a: Vocabulaire méteorologique international (OMM‑N° 182), Genève.
———, 1992b: Visibility measuring instruments: Differences between scatterometers and transmissometers
(J.P. van der Meulen). Papers Presented at the WMO Technical Conference on Instruments and
Methods of Observation (TECO‑92). Instruments and Observing Methods Report No. 49
(WMO/TD‑No. 462), Genève.
———, 2003: Guide des pratiques des centres météorologiques desservant l'aviation (OMM‑N° 732), Genève.
———, 2011a: Manuel des Codes ( OMM‑N° 306), Volume I.1, Genève.
———, 2011b: Règlement technique (OMM‑N° 49), Volume I, Genève.
———, 2012: Manuel sur l’application de normes d’enseignement et de formation professionnelle en météorologie et
en hydrologie (OMM‑N° 1083), Volume I, Genève.
———, 2013: Règlement technique (OMM‑N° 49), Volume II, Genève.
———, 2014: Guide des systèmes d’observation et de diffusion de l’information pour l’assistance météorologique à la
navigation aérienne (OMM‑N° 731), Genève.
TABLE DES MATIÈRES DU CHAPITRE
Page
3.1 GÉNÉRALITÉS
3.1.1 Définitions
Sous le terme générique observations d’aéronefs, le présent chapitre décrit les méthodes utilisées
pour les mesures météorologiques automatiques à partir d’aéronefs commerciaux modernes.
Les principes décrits ici peuvent être appliqués pour le traitement des données recueillies à bord
de tout aéronef correctement instrumenté afin de définir et de mettre au point des systèmes
d’observation embarqués.
Les systèmes AMDAR tirent parti de tout cet appareillage pour compiler et transmettre en
temps réel des messages d’observation météorologique qui contiennent normalement les
relevés suivants: vitesse et direction du vent (dans le plan horizontal), température de l’air,
altitude barométrique (par rapport à un niveau de pression de référence en atmosphère
type ou standard), heure d’observation, phase de vol et position de l’aéronef. Si l’aéronef est
correctement équipé, les messages peuvent aussi contenir la valeur de l’humidité ou du rapport
de mélange de la vapeur d’eau et une mesure de la turbulence.
Les données de base pour les observations météorologiques doivent faire l’objet de corrections
importantes et d’un traitement complexe pour produire des mesures météorologiques
représentatives de l’écoulement libre au voisinage de l’aéronef. Une description complète de tous
les procédés en question dépasse la portée du présent guide, mais ce chapitre propose au lecteur
une description relativement détaillée des principes ainsi que quelques ouvrages de référence
qui lui permettront d’approfondir les sujets abordés.
a) L’altitude barométrique Hp1, la position horizontale et l’heure (voir PALT, figure 3.1);
L’antenne anémométrique (figure 3.2) est exposée à l’écoulement de l’air au‑delà de la couche
limite de l’aéronef et mesure la pression totale (la pression statique plus la pression d’impact
ou pression dynamique). Certaines antennes mesurent aussi la pression statique (c’est‑à‑dire
la pression de l’air extérieur, soit idéalement la pression ambiante non perturbée), mais sur
la plupart des avions de ligne participant au programme AMDAR, la pression statique est
Pression totale
Calcul du nombre
de Mach (M)
Nombre de Mach
Calcul de la vitesse
propre (TAS)
TAS
Système de navigation Cap
WS
Aides à la radionavigation Vitesse du vent (WS)
Système de référence Vitesse sol et direction du vent (WD)
inertielle calculées WD
1
L’altitude barométrique est définie comme étant une mesure de la hauteur en fonction de la surface isobare type de
1013,2 hPa. Le niveau de vol (FL) variable, quel qu’il soit, s’exprime en relation avec l’altitude barométrique. Il ne
faut pas confondre l’altitude barométrique ou le niveau de vol avec l’altitude de l’aéronef indiquée, l’altitude de
l’aéronef ou la hauteur de l’aéronef, expressions auxquelles s’appliquent d’autres définitions. Étant donné qu’un
aéronef peut voler à des niveaux de pression supérieurs à 1013,2 hPa (c’est‑à‑dire au‑dessous de la surface isobare
type), l’altitude barométrique (ou le niveau de vol) peut prendre une valeur négative.
632 PARTIE II. SYSTÈMES D’OBSERVATION
Capteur
anémométrique
fournie grâce à des orifices situés sur le côté du fuselage. Une fois mesurées par des capteurs
électroniques, les valeurs de la pression sont ajustées par une unité centrale qui contient les
algorithmes de correction aérodynamique (erreur intrinsèque) avant d’atteindre la centrale
aérodynamique. Ce calculateur des données de vol fournit l’altitude‑pression ou altitude
barométrique, la température de l’air statique et le nombre de Mach à partir des deux valeurs de
la pression.
3.2.2 Altitude‑pression
En principe, la mesure de la pression statique n’est pas indiquée selon le code AMDAR, mais
elle est convertie par la centrale aérodynamique en altitude équivalente suivant l’atmosphère
type internationale (ISO, 2007). Pour déterminer l’atmosphère type (figure 3.3), on suppose une
diminution linéaire de la température en fonction de l’altitude de 6,5 °C par kilomètre jusqu’à
11 km (36 089 pieds)2, une température de 15 °C et une pression de 1 013,25 hPa au niveau
moyen de la mer. De 11 à 20 km, on suppose une température constante de –56,5 °C.
Pour une altitude‑pression Hp inférieure ou égale à 36 089 pieds, la relation entre la pression
statique (ps) et Hp s’écrit:
( )
5, 2559
ps = 1 013, 25 ⋅ 1 − 6, 8756 ⋅10−6 ⋅ H p (3.1)
Hp est indiquée en pieds et ps en hPa. Par exemple, si Hp = 30 000 pieds, ps = 300,9 hPa.
On peut utiliser l’expression ci‑dessus (3.1) pour calculer la pression statique à partir de
l’altitude‑pression indiquée, pour autant que la valeur de la pression statique à bord ait été
ajustée pour corriger uniquement les effets aérodynamiques (erreur intégrée) et que l’échelle
de pression (référence zéro) de l’altimètre de l’appareil ait été calée sur la pression de référence
de l’OACI (Organisation de l'aviation civile internationale) au niveau moyen de la mer
2
On utilise en principe le Système international d’unités; néanmoins, les altitudes sont indiquées en pieds dans le
présent chapitre, puisque cela correspond à la pratique en aéronautique.
CHAPITRE 3. OBSERVATIONS D’AÉRONEFS 633
(1 013,25 hPa). Les procédures de navigation tiennent aussi compte des calages de l’échelle
de pression sur d’autres niveaux de référence. Par exemple, cette dernière peut être calée sur
la pression au niveau de l’aérodrome (QFE) ou sur la valeur QNH (soit la valeur QFE ramenée
au niveau de la mer via l’atmosphère type), qui est une pression de référence sur l’échelle de
l’atmosphère type, de façon à ce que l’altitude de l’aérodrome soit indiquée lors de l’atterrissage
sur un terrain donné. L’altitude‑pression indiquée par le logiciel AMDAR embarqué devrait
toujours être mesurée uniquement par rapport à la pression de référence de l’OACI au niveau
moyen de la mer.
L’altitude indiquée (Hi) affichée dans le cockpit (altitude‑pression au‑dessus du niveau moyen de
la mer) est égale à l’altitude‑pression (Hp) moins l’altitude correspondante à l’échelle de pression
de référence de l’altimètre à l’échelle de l’atmosphère type (Hr) plus l’altitude du niveau de
référence (au‑dessus du niveau de la mer) (ERef ). L’expression générale s’écrit:
H i = H p − H r + ERef
(3.2)
p
0,190 26
H r = 1 − r ⋅145 442 (3.3)
1 013, 25
Hr, Hi et ERef sont indiquées en pieds et pr,le calage de l’échelle de l’altimètre, en hPa, de sorte
que:
ou
Par exemple:
a) Si l’échelle de pression est calée sur une valeur QNH de 1 000,0 hPa et que l’altitude
indiquée est de 9 335 pieds, Hp = 9 335 + 364 = 9 699 pieds et ps = 705 hPa;
b) Si l’échelle de pression est calée sur une valeur QFE de 990 hPa, que l’aérodrome se situe à
une altitude de 276 pieds et que l’altitude indiquée est de 9 058 pieds, Hp = Hi + Hr (QFE) –
ERef = 9 058 + 641 – 276 = 9 423 pieds et la valeur de QNH sera alors de 1 000 hPa.
60 000
50 000
Altitude-pression (pieds)
40 000
30 000
20 000
10 000
–10 000
0 200 400 600 800 1 000 –60 –40 –20 0 20
Toutefois, pour les besoins du système AMDAR, le paramètre retenu pour l’altitude devrait
être fondé uniquement sur la pression statique corrigée pour tenir compte des effets
aérodynamiques, sans référence aucune à QNH ou à QFE.
Si Hp est supérieure à 36 089 pieds (11 km), la pression statique est donnée par:
36 089 − H p
ps = 226, 32 ⋅ e 20 806
(3.4)
ps
H p = 36 089 − 20 806 ⋅ ln
226, 32
Hp étant indiquée en pieds et ps en hPa. Par exemple, si Hp est égale à 40 000 pieds, ps = 187,5 hPa.
a) Incertitude d’étalonnage;
c) Déplacement du zéro;
Comme la distance de sécurité entre appareils est primordiale, ces incertitudes sont autant que
possible corrigées par la centrale aérodynamique. Les incertitudes d’antenne statique, qui sont
fonction de l’emplacement de l’antenne, du nombre de Mach et de la masse de l’aéronef, sont
déterminées empiriquement lors d’essais en vol. L’incertitude de la pression est déduite des
altitudes signalées.
Avec le système AMDAR, la liaison radio entre l’aéronef et le sol peut entraîner des lenteurs dans
l’actualisation des données. Des normes internationales régissent le processus de transmission,
notamment ARINC 620, AOSFRS (AMDAR Onboard Software Functional Requirements Specification)
ou AAA, qui signifie ACMS (Système de contrôle de l’état de l’aéronef) ACARS AMDAR. Selon
les premières versions de ces normes, l’altitude‑pression était transmise en centaines de pieds,
100 pieds équivalant à 1,5 hPa environ à une altitude de croisière. Cela représente à peu près
0,1 % de la mesure de la pression à grande échelle. L’exactitude des instruments étant dans
le meilleur des cas de l’ordre de 1 hPa, l’incertitude de la pression statique à une altitude de
croisière, déduite de la conversion de l’altitude‑pression, est à peu près de 2 hPa. Au niveau de
référence zéro, la résolution équivaut environ à 3,7 hPa, ce qui donne une incertitude d’environ
4 hPa. Avec les versions récentes du logiciel embarqué AMDAR, l’altitude est transmise en
dizaines de pieds, l’incertitude découlant de l’erreur de codage étant alors inférieure au reste de
l’incertitude de la mesure. Les aéronefs équipés du système AMDAR respectent les règles et les
exigences correspondant au minimum de séparation verticale réduit établies par les autorités
agréées de gestion du trafic aérien. Il est exigé des pilotes qu’une incertitude de 50 m (160 pieds)
soit maintenue, y compris entre 30 000 et 40 000 pieds. L’incertitude de la pression doit donc
se situer dans l’intervalle de ±1,5 hPa et le système de contrôle de la qualité de la compagnie
aérienne doit veiller à maintenir ce degré d’exactitude.
Le nombre de Mach (M, vitesse vraie divisée par la vitesse du son en air libre) est un élément
important des opérations aériennes. Dans les systèmes AMDAR, il est utilisé pour corriger
CHAPITRE 3. OBSERVATIONS D’AÉRONEFS 635
les mesures de la température de l’air et de la vitesse vraie. En air sec, la vitesse du son est
proportionnelle à la racine carrée de la température absolue Ts (température de l'air statique). Le
nombre de Mach n'est fonction que de deux paramètres:
b) La pression statique ps mesurée à des endroits précis sur les côtés du fuselage de l’appareil.
κ −1
2 qc + ps κ
M2 = − 1 (3.5)
κ − 1 ps
où qc + ps correspond à la pression totale et κ désigne le rapport des chaleurs massiques de l’air
sec (Cp/Cv).
Le lecteur trouvera davantage de détails sur l’aérodynamique des aéronefs dans les textes de
référence, notamment Abbott et von Doenhoff (1959) et Dommasch et al. (1958).
L’incertitude des mesures est déterminée presque exclusivement par l’incertitude des mesures
fondamentales de pression. En conditions normales d’exploitation, l’incertitude associée au
nombre de Mach obtenu devrait être inférieure à 0,2 %.
Le capteur de la température totale de l’air est exposé à un écoulement d’air libre et sert à déduire
la température de l’air statique (écoulement d’air non perturbé). L’exactitude de la mesure de
température de l’air est fondamentale pour les autres éléments météorologiques dérivés. Par
exemple, on l’utilise pour calculer la vitesse vraie, elle a donc une incidence sur le calcul des
composantes de la vitesse du vent. La centrale aérodynamique corrige la température réellement
mesurée par le capteur d’après le nombre de Mach calculé.
Le logement est surtout conçu d’un point de vue thermodynamique pour que l’énergie cinétique
de l’air échantillonné se transforme en énergie interne par une conversion adiabatique quasiment
complète. L’air doit perdre la majeure partie de sa vitesse pour que celle‑ci ne soit plus que de
quelques mètres par seconde au niveau du capteur. À cet emplacement, le flux d’air entrant en
contact avec l’élément sensible ne doit pas avoir subi l’effet d’un échange thermique avec les
parois internes. C’est pourquoi tous les types de logements de capteur de température sont
conçus de manière à être équipés d’orifices dans les parois entourant la prise d’air. Ces orifices
produisent un effet d’aspiration aérodynamique de façon à freiner l’écoulement de la couche
limite interne. L’échange thermique est ainsi suffisamment faible pour que le degré d’exactitude
de la mesure soit maintenu. Même si le bord de la prise d’air est chauffé pour éviter le givrage,
l’augmentation associée de la température mesurée est inférieure à 0,5 K à M > 0,3.
636 PARTIE II. SYSTÈMES D’OBSERVATION
Flux d’air
Sortie d’air
par orifices
latéraux Élément
sensible
Fuselage
Figure 3.4. Exemple type de capteur de température installé sur les aéronefs, fournissant la
température totale de l’air. La conception aérodynamique du logement du capteur permet
d’obtenir un flux tendant à stagner avant d’entrer en contact avec le capteur. La couche limite
interne associée demeure suffisamment faible et éloignée du capteur pour permettre un
processus purement adiabatique. La déviation de l’écoulement
permet la séparation des particules.
La température (Tr) mesurée par le capteur est proche de la valeur théorique de Tt qui se
produirait en cas de compression adiabatique parfaite du courant d’air relatif en un point
de stagnation idéal du point de vue aérodynamique. La température de l’air statique Ts, soit
la température de l’air extérieur non perturbé, est liée à la température mesurée Tr suivant
l’expression (T étant la température absolue):
Tr κ −1
= 1+ λ ⋅ ⋅M2 (3.6)
Ts 2
où λ désigne le facteur de récupération du capteur. Les capteurs modernes de température
donnent en général des valeurs, pour le facteur de récupération du capteur, proches de 0,98
pour un nombre de Mach se situant entre 0,5 et 0,9. Le facteur en question inclut premièrement
l’effet de la stagnation incomplète de l’air et, deuxièmement, celui d’un léger transfert de
chaleur vers le flux à échantillonner, dû au frottement. La valeur de ce coefficient est légèrement
inférieure à 1. Elle est fonction de la forme du logement du capteur et du nombre de Mach. À
une altitude de croisière, à Mach 0,85, la température du capteur dépasse de plus de 30 K la
température ambiante.
Le lecteur trouvera davantage de détails au sujet des capteurs de température dans Stickney et al.
(1990).
L’incertitude de la température est d’environ 0,4 °C à Mach 0,8 et passe à 0,3 °C pour des
valeurs faibles de ce nombre. Avec la première version des normes ARINC 620 pour les logiciels
embarqués, la résolution de la température atteignait 1 K. Depuis 1994, la température est
cependant codée au dixième de kelvin près (0,1 K). Si le capteur se trouve mouillé quand
CHAPITRE 3. OBSERVATIONS D’AÉRONEFS 637
l’appareil traverse des nuages, l’évaporation le refroidit, d’où une incertitude supplémentaire
d’environ 3 °C. Quand la vitesse vraie est très faible (par exemple avant le décollage),
l’écoulement d’air dans le capteur risque d’être insuffisant pour garantir l’exactitude des
mesures. Des capteurs ventilés sont installés sur certains appareils pour résoudre ce problème.
Généralement, le logiciel embarqué devrait toutefois être configuré pour que les données
recueillies avant le décollage ne soient pas transmises. Certes le traitement réalisé sur les données
est complexe, mais compte tenu de l’expérience opérationnelle acquise, il est possible d’avancer
que l’incertitude moyenne pesant sur les mesures de la température à l’altitude de croisière
atteint environ 1 K.
La mesure du vecteur vent tridimensionnel repose sur les données recueillies par le système
de navigation de l’aéronef (à savoir un ensemble complet ou un sous‑ensemble d’instruments
composé des aides radio à la navigation, d’une centrale inertielle, d’un compas magnétique
et d’un système GPS) et par le système de mesure de la vitesse (calculateur de données
aérodynamiques à partir de l’antenne anémométrique et du capteur de température). À l’aide
de ces données, il est possible de calculer avec un degré élevé d’exactitude la vitesse (Vg) de
l’aéronef par rapport à la surface terrestre (vitesse sol) et la vitesse vraie de l’aéronef (Va, vitesse
air) par rapport à l’air (dont la composante horizontale est la vitesse propre). On obtient donc le
vecteur vent (V), à partir de l’équation:
v = vg − va (3.7)
Il convient de mesurer les vecteurs vg et vaavec exactitude étant donné que les vents horizontaux
sont généralement faibles (environ 10 m/s) par rapport à la vitesse au sol et la vitesse vraie de
l’aéronef (200 à 300 m/s). Au cours de navigations à longue distance, les premiers systèmes
AMDAR calculaient la vitesse sol uniquement à partir de données issues des systèmes de
navigation par inertie, sans apport d’aides radio à la navigation situées au sol ou de systèmes
GPS. Cela réduisait parfois l’exactitude du vecteur vitesse sol et celle du vecteur vent de quelques
mètres par seconde. Les systèmes modernes de navigation multicapteurs ont apporté des
améliorations en fournissant des données de qualité opérationnelle (Service météorologique du
Canada, 2003). Il faut noter toutefois que, pour résoudre la somme vectorielle 3.7 en trois
dimensions, il convient de mesurer l’angle de l’appareil par rapport aux trois axes que sont le
tangage (assiette), le roulis (inclinaison) et le lacet (angle de lacet) ainsi que les angles
d’incidence et de dérapage (figure 3.5). Le système embarqué des avions commerciaux ne
calcule la somme vectorielle en question que dans le plan X,Y du système de coordonnées de
référence terrestre, si bien que les angles d’incidence et de dérapage ne sont pas mesurés.
Les données d’entrée nécessaires se réduisent par conséquent à la vitesse vraie, au cap et à
la vitesse sol. Le cap et la vitesse sol sont calculés par le système de navigation. Il convient de
calculer la vitesse vraie à partir du nombre de Mach et de Ts. Les composantes de vent horizontal
(u, v) sont:
u = u g − va ⋅ sinΨ
(3.8)
v = vg − va ⋅ cosΨ (3.9)
où va désigne la valeur de la vitesse vraie; Ψ désigne le cap par rapport au nord vrai (déclinaison
positive vers la droite); et ug et vg désignent les composantes de la vitesse sol.
La vitesse vraie est fonction du nombre de Mach et de Ts (voir SAT, figure 3.1):
va = 38, 867 ⋅ M ⋅ Ts
(3.10)
638 PARTIE II. SYSTÈMES D’OBSERVATION
X'
X Y Z = Axes météorologiques
X' Y' Z' = Axes de l’aéronef
Y'
Z
(N) Z'
Y
𝛹 = Cap
β = Dérapage
X (E) 𝛼= Incidence
Écoulement θ = Assiette
β de l’air
(N) ɸ = Inclinaison
Y 𝛹
Z
X
(E)
𝛼
Écoulement
θ de l’air
Plan X, Y
Vue de côté
Vue de dessus
Plan X, Y
Vue de devant
Figure 3.5. Angles entre l’aéronef et le système de coordonnées terrestres et entre l’aéronef
et l’écoulement de l’air
Tr
va = 38, 867 ⋅ M ⋅ (3.11)
1 + 0,194 ⋅ M 2
Le nombre de Mach et Ts comportant des incertitudes, l’incertitude totale associée à la valeur de
la vitesse vraie est donnée par:
19, 433 ⋅ M ⋅ ∆Ts
∆ va = 38, 867 ⋅ ∆ M ⋅ Ts + (3.12)
Ts
va étant donnée en nœuds; Ts, Tr en kelvins ; ΔM désignant l’incertitude associée au nombre de
Mach et ΔTs désignant l’incertitude associée à la température de l’air statique. Compte tenu de
l'équation 3.5, il est à noter que l'incertitude associée au nombre de Mach est fonction de
l'incertitude liée aux mesures barométriques. À moins d’erreurs grossières sur la température,
l’incertitude sur le nombre de Mach est probablement la plus importante. Par exemple, pour une
incertitude de 0,2 % portant sur ce nombre à l’altitude de croisière, l’incertitude sur la vitesse
vraie est égale à environ 1 nœud (0,5 m/s). Donc, si le système de navigation ne présente aucune
incertitude, il est vraisemblable que l'incertitude liée au vecteur vent pourra atteindre jusqu'à
0,5 m/s. ll convient de noter que des erreurs grossières de température entraîneront des erreurs
grossières sur le vent.
L’incertitude relative à la vitesse vraie vient s’ajouter à celle de la centrale inertielle de référence.
Dans les calculs de base, on suppose un alignement parfait de l’appareil avec l’écoulement de
l’air (dérapage nul), aucune inclinaison et un alignement parfait de la plate‑forme à inertie. Pour
un angle élevé de roulis (forte inclinaison), l’incertitude sur le vecteur vent, proportionnelle à la
vitesse vraie, risque d’être importante. Pour une inclinaison de 10 à 20°, l’angle d’incidence de
l’appareil entraîne un écart angulaire de la vitesse vraie de deux ou trois mètres par seconde. Les
données sont donc habituellement exclues ou alors signalées uniquement lorsque l’inclinaison
de l’appareil est supérieure à un certain seuil (se situant normalement entre 3 et 5°). Pour
de faibles vitesses de vent, l’incertitude associée au vecteur vent peut entraîner des erreurs
importantes sur la direction du vent. Ainsi, compte tenu de toutes les sources d’incertitude citées
CHAPITRE 3. OBSERVATIONS D’AÉRONEFS 639
ci‑dessus, et si l’on associe l’incertitude liée à la vitesse et à la direction du vent pour obtenir
l’incertitude propre au vecteur vent, on obtient en général une incertitude de 4 à 6 nœuds
(2 à 3 m/s). Ces estimations sont corroborées par l’expérience acquise en exploitation (voir par
exemple Nash, 1994).
3.5 HUMIDITÉ
Plusieurs capteurs fonctionnant suivant différents principes servent à mesurer l’humidité à des
fins expérimentales et opérationnelles sur les aéronefs commerciaux. Différentes techniques
sont ainsi mises en œuvre: absorption en association avec un élément capacitif, miroirs refroidis
ou méthodes optiques fondées sur l’absorption ou la diffusion. L’instrument le plus utilisé par
les systèmes AMDAR fonctionne suivant la technique de la diode laser accordable (May, 1998;
Fleming, 2000, 2003); il s’agit d’un appareil nommé WVSS‑II (système de détection de la vapeur
d’eau). C’est à l’origine le laboratoire de recherche sur la propulsion relevant de la NASA qui a mis
au point la technique de la spectroscopie d’absorption par laser accordable pour les missions sur
Mars, cette méthode de mesure offrant, sur de nombreuses années, une grande précision et un
degré de stabilité extrême en ce qui concerne les mesures. Le WVSS‑II est conçu spécialement
pour les systèmes AMDAR qui équipent l’aviation de commerce et repose sur une technique
spéciale d’absorption à bande relativement étroite correspondant à une raie d’absorption de
la vapeur d’eau dans l’infrarouge. L’intensité du rayonnement au niveau du capteur est liée au
rayonnement émis selon la loi de Beer de telle façon que:
I = I 0 ⋅ e− k x ρw (3.13)
Jusqu’en 2012, des évaluations réalisées en enceinte climatique et des vols expérimentaux de
ce système de mesure spectrométrique de l’humidité ont fait ressortir deux caractéristiques
concernant les performances de l’instrument: quand les valeurs mesurées sont supérieures au
seuil de détection d’environ 4 mg/m3, l’incertitude relative est égale à environ ±10 %; à une
altitude de 200 hPa, le seuil de détection correspondant pour le rapport de mélange est de
0,02 g/kg (ou 30 ppmv). D’après la comparaison des données recueillies à bord d’aéronefs et
de celles fournies par des radiosondes modernes (voir par exemple Petersen et al., 2011), les
capteurs embarqués semblent satisfaire aux exigences de l’OMM en matière d’observation sur
toute la gamme de valeurs d’humidité spécifique et d’humidité relative, dans les phases aussi
bien de montée que de descente.
640 PARTIE II. SYSTÈMES D’OBSERVATION
3.6 TURBULENCE
La turbulence, et plus particulièrement la turbulence en air limpide (en l’absence de nuages), est
un phénomène important et potentiellement dangereux pour l’aviation. Bien que les trajectoires
de vol de routine des aéronefs commerciaux soient prévues pour éviter les zones de turbulence,
ceux‑ci rencontrent inévitablement des secousses inattendues et les écarts par rapport au vol en
palier normal peuvent être mesurés par l’instrumentation de bord.
Les instruments d’un aéronef sont à l’origine de deux grands types d’incertitude: l’incertitude
liée au «zéro» (ou incertitude de référence) et l’incertitude instrumentale (ou de mesure). Dans
la plupart des appareils, la valeur nominale de référence est égale à +1,0 g, mais elle peut varier
généralement de 3 %. Il est possible d’éliminer pratiquement une telle incertitude par correction
lorsque l’appareil est au sol, ce qui laisse une incertitude résiduelle (notamment de mesure)
d’environ 3 % associée aux mesures (Sherman, 1985).
Les incertitudes associées à chacun des termes de Ude ont été évaluées. En palier normal, elles
sont en général inférieures à un maximum de 3 % pour chacun de ces termes et, dans les
cas extrêmes, l’incertitude totale peut atteindre 10 à 12 %. Si l’on suppose une distribution
aléatoire des erreurs, l’incertitude type est en général égale à 3 à 4 % de la valeur finale de Ude.
Les manœuvres d’un appareil peuvent entraîner une forte accélération verticale de celui‑ci et,
inversement, des techniques de contrôle actif peuvent réduire l’accélération due à des rafales, ce
qui conduit à une sous‑estimation importante de la vitesse des rafales verticales.
Le taux de dissipation des tourbillons (ε) est un paramètre qui fournit la valeur de l’intensité de
la turbulence dans un fluide. Dans le contexte de la turbulence mesurée par les aéronefs, il est
pratique courante de se référer à ε1/3 par l’abréviation EDR (eddy dissipation rate). L’EDR a pour
avantage d’être une mesure de l’intensité de la turbulence atmosphérique indépendante de
l’aéronef. Plusieurs méthodes permettent de l’évaluer (à partir des données d’un accéléromètre
ou à partir des données du vent), et ce, suivant n’importe quelle direction (mais habituellement
suivant la verticale ou dans le sens longitudinal, c’est‑à‑dire celui de la trajectoire). Il existe aussi
différents modèles spectraux de la turbulence qu’il est possible d’utiliser pour tout algorithme:
32
(1 + π 2 L2 f 2 / Vt 2 )
9π
Fv ( f ) = αε L
2 / 3 5/ 3 3
(3.16)
55Vt (1 + 4π 2 L2 f 2 / Vt 2 )11/ 6
L’équation 3.16 représente le modèle spectral de von Karman, où f désigne la fréquence (Hz), Vt
désigne la vitesse vraie de l’aéronef (m/s), α désigne une constante empirique (dont la valeur est
ici 1,6) et L désigne un paramètre d’échelle de longueur de la turbulence.
24π −5 / 3
Fk ( f ) = α ε 2 / 3 ( 2π f / Vt ) (3.17)
55Vt
L’équation 3.17 représente le modèle spectral de Kolmogorov, à savoir simplement la limite
de fréquence haute de l’équation 3.16. Les deux modèles visent à décrire la forme du spectre
d’énergie correspondant aux données du vent. Le modèle de von Karman fournit une meilleure
représentation à grande échelle, en particulier de la vitesse verticale, bien qu’il soit relativement
complexe et comprenne l’échelle de longueur L fonction de la situation, en plus de l’EDR (élevé
au carré). Les mesures expérimentales effectuées à partir d’aéronefs ont fourni des valeurs de L
comprises entre environ 300 m et 2 000 m. Dans la plupart des applications de l’algorithme, on a
utilisé jusqu’à présent une valeur médiane de 669 m.
Cette méthode (Cornman et al., 1995) repose sur le paramètre de l’accélération verticale que
fournit le système de navigation inertielle. Elle fait appel à la relation suivante (Cornman et al.,
1995, équation 21):
σ z
ε 1w/ 3 = (3.18)
1/ 2
0.7V 2 / 3 I ( f , f )
t l h
où σ z désigne la variance de l’accélération verticale soumise à un filtrage passe‑bande, I est
l’intégrale de la fonction H des réactions de l’appareil à laquelle s’applique le filtrage
passe‑bande et:
642 PARTIE II. SYSTÈMES D’OBSERVATION
fh
∫ H zw ( f ) S w ( f )df
2
I ( fl , f h ) = (3.19)
fl
L’intégrale de la réponse de l’appareil est évaluée pour diverses conditions de vol et mémorisée
dans des tables de recherche, ce qui réduit les besoins de calcul à bord et simplifie les calculs.
L’algorithme calcule la moyenne quadratique mobile du signal filtré sur 10 secondes. À un
taux d’échantillonnage de 8 Hz, cela représente 480 valeurs estimatives de l’EDR par minute,
dont on tire la médiane et le 90e centile (appelé valeur de crête) pour les liaisons descendantes.
Les résultats de la mesure de l’EDR sont convertis en numéros de code pour la transmission à
l’aide de tableaux bien plus détaillés que l’exemple fourni dans la section 3.6.1. Le Manuel de
référence AMDAR: retransmission des données météorologiques d’aéronefs (OMM, 2003) propose des
descriptions détaillées de ces tableaux.
Dans Cornman et al. (2004), cette technique est abordée brièvement. Il s’agit principalement de
calculer directement le vent vertical, les données recueillies permettant d’évaluer ensuite l’EDR.
La méthode a pour avantage de ne pas nécessiter de fonction de la réponse de l’aéronef, fonction
de nature «propriétaire» qu’il est difficile d’obtenir.
La formule ci‑dessus permet de calculer le vent vertical; αb désigne l’angle d’incidence de l’axe
longitudinal de l’aéronef, θ l’assiette de l’aéronef, φ son inclinaison, et Ż la vitesse verticale
inertielle. L’EDR se calcule comme suit:
1/ 2
kh S w k
( )
∑
1
ε
1/ 3 = (3.21)
kh − kl + 1 k = k S w ( k )
l
où kl et kh sont des seuils indiciels correspondant respectivement aux seuils de fréquence de 0,5 et
3,5 Hz pour les applications actuelles à 8 Hz, Sw désigne le spectre d’énergie de w (équation 3.20)
après traitement des séries chronologiques et Ŝw représente le modèle spectral de von Karman
retenu pour ε = 1, modifié pour tenir compte de différents éléments de traitement du signal dans
Sw.
L’algorithme calcule l’EDR (ε1/3) sur des intervalles de 10 secondes, toutes les 5 secondes. Cela
représente 12 valeurs estimatives de l’EDR par minute, dont on tire la moyenne et la valeur de
crête pour les liaisons descendantes. Ces valeurs de l’EDR ainsi que d’autres valeurs servant
au contrôle de qualité sont converties en numéros de code pour la transmission (voir la
section 5.3.13.5 dans ARINC, 2012). La valeur moyenne et la valeur de crête de l’EDR sont fournies
avec une précision de l’ordre de 0,02, un résultat nettement supérieur à celui de la méthode
faisant appel aux données de l’accéléromètre.
La technique est analogue à celle qui repose sur le vent vertical (voir la section 3.6.3.2), si ce
n’est que les modèles spectraux sont légèrement différents et que la vitesse vraie remplace
w. Elle a pour avantage sa simplicité de mise en œuvre qui ne requiert qu’un seul paramètre.
L’inconvénient est que les estimations de l’EDR se présentent essentiellement dans le sens
longitudinal, ce qui influe nettement moins sur l’aéronef que la turbulence dans l’axe vertical.
CHAPITRE 3. OBSERVATIONS D’AÉRONEFS 643
Il existe pour le taux de dissipation des tourbillons comme pour la dérivée de la vitesse de la
rafale verticale équivalente un grand nombre de sources d’erreurs susceptibles d’accroître
l’incertitude des mesures. Si l’on se fonde sur l’analyse exécutée dans le cas de la dérivée de la
vitesse de la rafale verticale équivalente, il faut s’attendre, avec la méthode faisant appel aux
données de l’accéléromètre, à une incertitude d’environ 5 à 10 % pour la valeur moyenne et à
une incertitude légèrement plus élevée pour la valeur de crête. Compte tenu des résultats des
simulations, on peut tabler sur des performances analogues avec les autres algorithmes de
calcul de l’EDR. Le choix de l’intervalle d’échantillonnage et du temps d’intégration des valeurs
moyennes complique encore les choses. L’analyse d’une série chronologique caractéristique
de données sur l’accélération verticale indique souvent une forte variabilité des propriétés
statistiques sur de courtes distances. La variation de la vitesse vraie pour un appareil donné
modifie les distances d’échantillonnage.
On a procédé sur le terrain à des comparaisons détaillées entre le taux de dissipation des
tourbillons obtenu à partir de l’accéléromètre vertical et la dérivée de la vitesse de la rafale
verticale équivalente (Stickland, 1998) qui ont montré une corrélation élevée entre le taux
et la vitesse maximums pour les mêmes turbulences. Ce résultat était prévisible, le taux de
dissipation des tourbillons obtenu à partir de l’accéléromètre étant directement proportionnel
à l’écart type de l’accélération verticale dans l’intervalle de mesure choisi. Ainsi, pour une
distribution «normale», la valeur extrême sera en corrélation étroite avec la rafale verticale de
crête (elle‑même proportionnelle à l’écart de crête de l’accélération verticale). Il est clair que
ce rapport ne s’applique pas à un événement isolé extérieur à la distribution admise et que la
coupure du filtre du taux de dissipation des tourbillons à 0,8 Hz risque d’atténuer excessivement
les très fortes rafales. Les méthodes de calcul reposant sur le vent vertical et sur la vitesse vraie
étant soumise à un bien moindre filtrage, elles ne sont que peu sensibles à ce dernier effet.
3.7 GIVRAGE
Plusieurs types de capteurs permettent de détecter la présence de givre sur les surfaces assurant
le vol. Les deux types actuellement utilisés sont les suivants:
b) Capteur mécanique (capteur vibrant) exposé à l’écoulement d’air, situé dans une sonde
adjacente à la surface assurant le vol.
Plusieurs systèmes de type AMDAR ont été mis au point ou le sont actuellement en vue
d’améliorer la couverture mondiale et d’augmenter le nombre d’observations dans la couche
limite et la basse troposphère. L’accent est mis notamment sur le recrutement de petits aéronefs
de l’aviation générale et régionale pour y installer soit un système traditionnel AMDAR, soit un
système de détection et de communication spécialisé. Ces appareils sont exploités à partir de
petits aéroports qui ne sont généralement pas couverts par les appareils équipés de systèmes
AMDAR appartenant aux compagnies d'aviation participant aux programmes AMDAR nationaux
et régionaux.
Pour obtenir des renseignements à jour sur les programmes AMDAR en cours d’exploitation ainsi
que des ressources supplémentaires et des documents de référence, le lecteur consultera le site
Web de l’OMM consacré au système AMDAR: http://www.wmo.int/amdar.
3.8.2.1 Présentation
de descente, le capteur transmet des données tous les 10 hPa, cet intervalle pouvant cependant
être raccourci à distance et en temps réel à 1 hPa (environ 30 pieds), en fonction du taux de
montée et de descente. En vol en palier à l’altitude de croisière, le capteur se déclenche quand
certains paramètres dépassent des seuils bien définis et transmet alors les données ainsi
recueillies. Un appareil traversant des zones de turbulence situées au sommet des nuages
exécutera donc beaucoup plus d’observations qu’un appareil volant à une altitude de croisière
plus élevée par ciel clair.
Le système TAMDAR utilise, à des fins de redondance, deux capteurs capacitifs pour mesurer
l’humidité relative. En fait le paramètre auquel ces capteurs réagissent est la densité des
molécules d’eau dans l’air. L’humidité relative en est déduite compte tenu de la température et
de la pression. Une membrane hydrophobe adaptée faisant filtre a été ajoutée aux capteurs, ce
qui améliore nettement la fiabilité et l’exactitude des mesures, puisque cela évite que l’élément
sensible se mouille (voir Mulally et Braid, 2009).
La valeur transmise pour l’humidité relative représente une valeur «consensuelle» établie, à
l’aide d’un algorithme (Anderson, 2006), par le système de traitement au sol à partir des valeurs
fournies par les deux capteurs. Le système analyse la valeur et la qualité des données fournies par
chacun des capteurs. Normalement, si les deux capteurs fournissent des valeurs analogues, la
valeur consensuelle est simplement la moyenne des deux valeurs. Si la différence entre les deux
capteurs est supérieure à 5 %, et qu’il est établi, par les méthodes décrites par Anderson (2006)
et Gao et al. (2012), que l’une des valeurs est erronée, alors cette valeur est signalée et exclue du
calcul de l’humidité relative moyenne.
Les données sur l’humidité relative que les capteurs transmettent doivent subir certaines
corrections. Il s’agit principalement de tenir compte de l’échauffement cinétique et de la
différence de pression atmosphérique entre les conditions ambiantes et les conditions observées
par le capteur. L’humidité relative d’une particule d’air pour une concentration de vapeur d’eau
donnée est fonction à la fois de la température et de la pression. Quatre grands facteurs influent
sur l’incertitude des mesures de l’humidité relative vraie réalisée par le système TAMDAR:
a) L’incertitude associée aux mesures réalisées par le capteur d’humidité relative (ΔRH);
b) L’incertitude associée aux mesures réalisées par le capteur de température TAMDAR (Tprobe),
à savoir un thermomètre à résistance de platine;
Voici le calcul normalement nécessaire pour obtenir l’humidité relative de l’air statique:
P
RHstatic = RH probe static ⋅
(
esprobe Tprobe ) (3.22)
static (Tstatic )
Pprobe es
où RHstatic désigne l’humidité relative atmosphérique, Hprobe désigne l’humidité relative mesurée
par le détecteur d’humidité relative du capteur TAMDAR, Pstatic désigne la pression de l’air
statique, Pprobe désigne la pression de l’air au détecteur d’humidité relative du capteur, Tprobe
désigne la température de l’air dans la cavité de l’élément sensible du capteur, Tstatic désigne la
température de l’air statique, es,probe désigne la tension de vapeur saturante par rapport à l’eau
au capteur, et es,static désigne la tension de vapeur saturante par rapport à l’eau dans l’air statique.
Le rapport de mélange de saturation est strictement fonction de Tprobe et Tstatic comme on le voit
ci‑dessus. Le calcul du rapport de pression (Pstatic/Pprobe) est déduit des données obtenues lors
d’essais de grande ampleur en soufflerie (voir Braid et al., 2011; Smith et al., 2012).
où M désigne le nombre de Mach et λ est une constante égale à environ 0,17. La mesure réelle du
détecteur d’humidité relative correspond à la valeur vraie compte tenu de l’incertitude associée
au détecteur, ΔRH, ainsi:
RH probe = RH true + ∆RH (3.24)
Le fait d’insérer cette dernière égalité (équation 3.24) dans l’équation 3.22 met en lumière un
point qu’il convient de prendre en compte quand on utilise la méthode de mesure de l’humidité
relative. Quand le nombre de Mach augmente et que la température diminue, le rapport des
tensions de vapeur saturante (es,probe/es,static) dans l’équation 3.22 augmente rapidement, ce qui
provoque une amplification de l’effet de l’incertitude associée au détecteur ΔRH. Le système
de traitement des données au sol évalue l’erreur liée à l’humidité relative en fonction de la
température et du nombre de Mach. Les degrés d’exactitude connus concernant le détecteur de
l’humidité relative et les mesures de la température sont également pris en compte pour calculer
l’incertitude globale qu’il convient d’associer à l’humidité relative, une donnée qui est diffusée
avec la valeur de l’humidité relative.
Le capteur TAMDAR détecte le givre à l’aide de deux instruments composés d’une diode
électroluminescente et d’une cellule photoélectrique, dont les tensions de sortie analogiques
converties en numérique sont connues. Quand le capteur TAMDAR traverse des conditions
givrantes, le givre se forme à la surface de la partie en retrait du capteur entre les paires de diodes
et cellules. Au fur et à mesure que l’épaisseur du givre augmente, le rayon émis dans l’infrarouge
s’estompe; les tensions diminuent jusqu’à descendre au‑dessous de la moitié de la valeur
nominale correspondant à la réception sans obstacle du rayon infrarouge et l’instrument indique
alors la présence de givre sur le capteur TAMDAR. Une fois la présence de glace confirmée
par les algorithmes qui vérifient la cohérence de cette indication par rapport aux conditions
environnementales associées (c’est‑à‑dire, T et RH), les réchauffeurs du capteur TAMDAR sont
activés automatiquement pour faire fondre la glace, et ce, jusqu’à ce que la tension à la cellule
photoélectrique atteigne une valeur supérieure à la moitié de la tension nominale de réception
sans obstacle du rayon infrarouge.
Le système TAMDAR signale toutes les conditions givrantes à l’aide d’indicateurs de givrage
insérés dans le flux de données. Ces indicateurs font état du début du givrage, de l’heure à
laquelle les réchauffeurs se déclenchent, de la période de givrage continu, du refroidissement
du capteur et de la fin du givrage. Les valeurs de la tension convertie en numérique, fournies par
les paires de diodes et cellules, servant à déceler la présence ou l’absence de glace, sont utilisées
pour calculer la teneur en eau liquide TAMDAR. C’est le taux de variation de la tension de sortie
analogique convertie en numérique qui sert à calculer le taux d’accrétion et donc à connaître la
teneur en eau liquide. La vitesse à laquelle les valeurs de la tension diminuent permet en effet de
calculer l’intensité du givrage ou taux d’accrétion.
CHAPITRE 3. OBSERVATIONS D’AÉRONEFS 647
La turbulence est exprimée par le taux de dissipation des tourbillons et basée sur des données
de la vitesse vraie calculée à partir des valeurs de la pression (tube de Pitot et prise de pression
statique) et de la température recueillies par les instruments TAMDAR. Les données transmises
comprennent la valeur moyenne et la valeur de crête de l’EDR ainsi que l’indication du moment
où le maximum est atteint pour chaque période d’une minute. L’algorithme de la turbulence
obtenue à partir de l’EDR est indépendant de la configuration de l’aéronef et des conditions de
vol. Il ne dépend donc ni du type d’appareil ni de la charge utile et de la capacité de vol.
Pour calculer l’EDR, le système TAMDAR fait appel à une estimation du vent longitudinal obtenue
à partir de la vitesse vraie. Deux sources différentes permettent d’obtenir la valeur de ce dernier
paramètre: i) les mesures effectuées par le tube de Pitot et la prise de pression statique et ii) le
bus informatique ARINC 429. Quand le système relève la différence de pression entre le tube de
Pitot et la prise de pression statique, la mesure est filtrée pour pouvoir en déduire la vitesse vraie.
La méthode de MacCready est utilisée pour évaluer l’EDR en se fondant sur la pente du
spectre d’énergie ‑5/3 tirée du modèle de Kolmogorov appliqué au signal de la vitesse vraie. Le
filtrage appliqué au capteur de pression différentielle s’effectue à l’aide d’un filtre passe‑bas de
Butterworth anticrénelage d’ordre 4 avec une fréquence de coupure de 5 Hz à 3 dB. Le fenêtrage
intervient avant la transformée de Fourier rapide (64 points) pour faire ressortir le caractère
spectral de la mesure. L’EDR est calculé toutes les 3 secondes à l’aide d’un bloc de données de la
vitesse vraie à 10,67 Hz sur 6 secondes. Il est possible d’établir la moyenne des valeurs de l’EDR
pour lisser les résultats; on utilise normalement une moyenne sur 6 secondes, mais les utilisateurs
disposent de la possibilité de configurer le calcul de la moyenne pour que celle‑ci corresponde à
leurs besoins. Un filtre d’assurance de la qualité est également employé.
Les prévisions pour l’aviation doivent gagner en exactitude pour que le routage météorologique
des aéronefs commerciaux parvienne notamment à assurer la sécurité, à réduire la
consommation de carburant, à diminuer la fatigue des cellules et à garantir le confort des
passagers. C’est pourquoi il est possible d’incorporer des messages météorologiques
automatisés dans les relevés automatiques de la position de l’aéronef transmis dans le cadre de
l’ADS. Les données que comportent ces messages sont essentiellement les mêmes que celles
que procurent les systèmes AMDAR actuels, y compris les éléments que sont la turbulence et
l’humidité.
Les données fournies par le système ADS en mode contrat de l’OACI (ADS‑C) sont diffusées sur
le Système mondial de télécommunications de l’OMM. Ces données sont mises à disposition
en vertu de l’accord conclu avec l’OACI et selon les dispositions décrites dans l’Annexe 3 de
la Convention relative à l’aviation civile internationale, intitulée Assistance météorologique à la
navigation aérienne internationale, chapitre 5 et appendice 4. Le règlement de l’OACI stipule
que les centres de la gestion du trafic aérien transmettent les messages ADS‑C aux centres
mondiaux de prévisions de zone alors chargés de diffuser les données sur le Système mondial de
télécommunications (voir les Procédures pour les services de navigation aérienne – Gestion du trafic
aérien, Doc. 4444 de l’OACI, section 4.11.4).
648 PARTIE II. SYSTÈMES D’OBSERVATION
Il est possible en outre d’obtenir des observations du vent et de la température à partir des
données que fournissent les radars de surveillance enrichie en mode S (sélectif) pour répondre
aux besoins du contrôle de la circulation aérienne. Ce type de radar demande à chaque aéronef
de lui fournir une information précise selon une fréquence de 4 à 20 secondes, suivant les
fonctions que le radar doit remplir dans le cadre du contrôle de la circulation aérienne. Dans
les espaces aériens désignés, tous les aéronefs doivent obligatoirement répondre à la requête
transmise par le radar de surveillance enrichie en mode S. Les registres de données binaires
obligatoires (BDS4,0, BDS5,0 et BDS6,0) contiennent divers renseignements: l’identification de
l’aéronef, le niveau de vol, l’inclinaison, le cap magnétique, la vitesse vraie, le nombre de Mach
et la trajectoire au sol. La position de l’aéronef peut être déduite soit des données du radar du
contrôle de la circulation aérienne, soit des données de la surveillance dépendante automatique
(ADS‑B) transmises en continu par l’aéronef.
La méthode permettant de déduire les données sur le vent des données que fournissent les
radars de surveillance enrichie en mode S est analogue à celle qu’utilise le système AMDAR, si
ce n’est qu’il faut déduire le cap vrai du cap magnétique. Cela s’obtient à l’aide d’un tableau
de variation magnétique et de corrections propres à l’aéronef. Les corrections de cap peuvent
évoluer avec le temps en fonction de la maintenance de l’aéronef. À l’heure actuelle, ces
corrections sont déterminées pour chaque aéronef à partir de données comparatives de la
prévision numérique du temps. Outre la correction de cap, il y a lieu aussi d’appliquer une
correction à la vitesse vraie également basée sur de longues séries de données de comparaison
de la prévision numérique du temps (voir de Haan, 2013). Une fois les corrections et le contrôle
de la qualité exécutés, les données dérivées du vent présentent une qualité comparable à celles
que le système AMDAR fournit (de Haan, 2011, 2013). La méthode permettant de déduire
la température, des données que fournissent les radars de surveillance enrichie en mode S,
combine le nombre de Mach et la vitesse vraie. La résolution des données transmises sur le
nombre de Mach et sur la vitesse vraie influant directement sur celles de la température, la
qualité des relevés de température est nettement moins bonne que dans le cas du système
AMDAR (de Haan, 2011, 2013).
Les radars de surveillance enrichie en mode S peuvent aussi transmettre des requêtes pour
obtenir des registres facultatifs pouvant contenir des données météorologiques. Le registre
BDS4,4, nommé MRAR (message météorologique régulier d’aéronef) en constitue un exemple.
Ce registre contient des renseignements sur le vent et la température obtenus directement,
très proches des données correspondantes fournies par le système AMDAR (Stranjar, 2012). Le
registre BDS4,4 étant facultatif, les aéronefs sont très peu nombreux (environ 5 %) à fournir des
renseignements météorologiques utiles en réponse aux requêtes.
RÉFÉRENCES ET AUTRES LECTURES
Abbott, I.H. et A.E. von Doenhoff, 1959: Theory of Wing Sections. Dover Publications, Inc., Mineola,
New York, 693 p.
AirDat, 2003: TAMDAR – Tropospheric Airborne Meteorological Data Reporting Sensor and System Overview;
AirDat Infrastructure and Global Capabilities. Information document, AirDat LLC, Evergreen,
Colorado.
Anderson, A.K., 2006: AirDat system for ensuring TAMDAR data quality. Tenth Symposium on Integrated
Observing and Assimilation Systems for the Atmosphere, Oceans, and Land Surface
(IOAS‑AOLS), American Meteorological Society, Atlanta, Géorgie.
ARINC, 2012: 620‑7 Data Link Ground System Standard and Interface Specification. Aeronautical Radio, Inc.,
Annapolis, Maryland.
Benjamin, S.G., B.D. Jamison, W.R. Moninger, S.R. Sahm, B.E. Schwartz et T.W. Schlatter, 2010: Relative
short‑range forecast impact from aircraft, profiler, radiosonde, VAD, GPS PW, METAR, and
Mesonet observations via the RUC hourly assimilation cycle. Monthly Weather Review,
138:1319–1343.
Braid, J., P. Van Wie et J. Rex, 2011: Using the TAMDAR sensor for in flight ice detection and improved safety
of flight. SAE Technical Paper 2011‑38‑0051, International Conference on Aircraft and Engine
Icing and Ground Deicing, Society of Automotive Engineers.
Cornman, L.B., C.S. Morse et G. Cunning, 1995: Real‑time estimation of atmospheric turbulence severity
from in situ aircraft measurements. Journal of Aircraft, 32(1):171–177.
Cornman, L. B., G. Meymaris et M. Limber, 2004: An update on the FAA Aviation Weather Research Program’s in
situ turbulence measurement and reporting system. Eleventh Conference on Aviation, Range and
Aerospace Meteorology, Hyannis, Massachusetts.
Dommasch, D.O., S.S. Sherby et T.F. Connolly, 1958: Airplane Aerodynamics. New York, Pitman, 560 p.
Fleming, R.J., 2000: Water vapor measurements from commercial aircraft: Progress and plans. Preprints.
Fourth Symposium on Integrated Observing Systems, Long Beach, Californie, American
Meteorological Society, 30–33.
———, 2003: The WVSS‑II and the UCAR air sampler: Purpose, design, status (personal communication).
University Corporation for Atmospheric Research, Boulder, Colorado.
Gao, F., X.Y. Zhang, N.A. Jacobs, X.‑Y. Huang, X. Zhang et P.P. Childs, 2012: Estimation of TAMDAR
observational error and assimilation experiments. Weather and Forecasting, 27:856‑877.
Haan, S. de, 2011: High resolution wind and temperature observations from aircraft tracked by Mode‑S air
traffic control radar. Journal of Geophysical Research, 116(D10111).
———, 2013: An Improved Correction Method for High Quality Wind and Temperature Observations Derived from
Mode‑S EHS. KNMI Technical Report No. TR‑338, De Bilt.
Lawson, R.P. et W.A. Cooper, 1990: Performance of some airborne thermometers in clouds. Journal of
Atmospheric and Oceanic Technology, 7:480–494.
May, R.D., 1998: Open‑path, near‑infrared tuneable diode laser spectrometer for atmospheric
measurements of H2O. Journal of Geophysical Research, 103:19161–19172.
May, R.D. et C.R. Webster, 1993: Data processing and calibration for tuneable diode laser harmonic
absorption spectrometers. Journal of Quantitative Spectroscopy and Radiative Transfer,
49(4):335–347.
Moninger, W. R., S.G. Benjamin, B.D. Jamison, T.W. Schlatter, T.L. Smith et E.J. Szoke, 2010: Evaluation of
regional aircraft observations using TAMDAR. Weather and Forecasting, 25:627–645.
Mulally, D.J. et J.T. Braid, 2009: The TAMDAR Sensor's Relative Humidity Performance on ERJ‑145 Commercial
Aircraft. Thirteenth Symposium on Integrated Observing and Assimilation Systems for the
Atmosphere, Oceans, and Land Surface (IOAS‑AOLS), American Meteorological Society,
Phoenix, Arizona.
Nash, J., 1994: Upper wind observing systems used for meteorological operations. Annales Geophysicae,
12:691–710.
Organisation de l'aviation civile internationale (OACI), 2007: Procédures pour les services de navigation
aérienne – Gestion du trafic aérien. Quinzième édition, Doc 4444, Montréal.
———, 2013: Assistance météorologique à la navigation aérienne internationale. Annexe 3, Dix‑huitième édition,
Amendement 76, Montréal.
Organisation internationale de normalisation, 2007: Atmosphère type, ISO 2533:1975 (avec un additif en
1985 et un autre en 1997, norme revue et confirmée en 2007), Genève
Organisation météorologique mondiale, 2003: Manuel de référence AMDAR: retransmission des données
météorologiques d’aéronefs, OMM‑N° 958, Genève.
650 PARTIE II. SYSTÈMES D’OBSERVATION
———, 2010a: Manuel du Système mondial d'observation (OMM‑N° 544), Volume I, Genève.
———, 2010b: Guide du Système mondial d'observation (OMM‑N° 488), Genève.
———, 2011: Manuel des codes (OMM‑N° 306), Volume I.1, Genève.
———, 2013: AMDAR Onboard Software Functional Requirements Specification. Instruments and Observing
Methods Report No. 114, Genève.
Petersen, R.A., L. Cronce, W. Feltz, E. Olson et D. Helms, 2011: Validation Studies of WVSS‑II Moisture
Observations. Fifteenth Symposium on Integrated Observing and Assimilation Systems for the
Atmosphere, Oceans, and Land Surface (IOAS‑AOLS), American Meteorological Society,
Seattle, Washington.
Rodi, A.R. et P.A. Spyer‑Duran, 1972: Analysis of time response of airborne temperature sensors. Journal of
Applied Meteorology, 11:554–556.
Service météorologique du Canada, 2003: The Effect of Pitch and Roll Attitude on the Calculation of Wind
(G. Bruce). Aeromechanical Services Ltd., 1118‑1c, Rev. 1.0.
Sherman, D.J., 1985: The Australian Implementation of AMDAR/ACARS and the Use of Derived Equivalent Gust
Velocity as a Turbulence Indicator. Structures Report No. 418, Department of Defence, Defence
Science and Technology Organisation, Aeronautical Research Laboratories, Melbourne,
Victoria.
Smith, W.L., P. Minnis, C. Fleeger, D. Spangenberg, R. Palikonda et L. Nguyen, 2012: Determining the flight
icing threat to aircraft with single‑layer cloud parameters derived from operational satellite
data. Journal of Applied Meteorology and Climatology, 51:1794–1810.
Stickland, J.J., 1998: An Assessment of Two Algorithms for Automatic Measurement and Reporting of Turbulence
from Commercial Public Transport Aircraft. A report to the ICAO METLINK Study Group.
Observations and Engineering Branch, Bureau of Meteorology, Melbourne.
Stickney, T.M., M.W. Shedlov et D.I. Thompson, 1990: Rosemount Total Temperature Sensors. Technical
Report 5755, Revision B, Rosemount Inc.
Strajnar, B., 2012: Validation of Mode‑S Meteorological Routine Air Report aircraft observations. Journal of
Geophysical Research: Atmospheres, 117(D23).
Wells, V. E. et al., 1990: Migration of ACARS to the Aeronautical Telecommunication Network. Proceedings of
the Aeronautical Telecommunications Symposium on Data Link Integration, Annapolis, Maryland.
TABLE DES MATIÈRES DU CHAPITRE
Page
4.1 GÉNÉRALITÉS
D’un point de vue général, les «observations maritimes» regroupent toutes les observations
météorologiques et environnementales effectuées à l’interface océan‑atmosphère, sous la
surface de la mer ou dans l’atmosphère au‑dessus des océans. Les observations peuvent être
effectuées à partir de plates‑formes fixes ou mobiles, in situ ou à distance, par des appareils en
surface ou dans l’espace. Les mesures in situ sont généralement relevées en un point unique,
que l’on considère comme représentatif du milieu marin environnant, comme en météorologie
synoptique. La télédétection permet, pour sa part, d’appréhender de grands volumes ou de
grands espaces, ce qui convient particulièrement bien à l’observation des glaces de mer.
Le présent chapitre, qui porte sur les observations effectuées in situ à l’interface
océan‑atmosphère, passe en revue les paramètres de surface standard. La partie I du présent
guide porte sur les mêmes paramètres, mesurés sur la terre ferme. Le présent chapitre
traite également d’autres observations importantes pour les domaines de la physique
marine et de l’océanographie physique, relatives notamment à la température de l’interface
océan‑atmosphère, aux vagues océaniques, aux glaces de mer, aux icebergs, aux accrétions de
glace et à la salinité. Les mesures en altitude font appel à des techniques très proches de celles
qui s’appliquent sur terre et dans la mer.
Le Manuel du Système mondial d'observation (OMM, 2010, 2011a) expose dans le détail
les exigences formelles imposées aux stations en mer en matière d’observation. Des
recommandations sur les exigences et les procédures à suivre sont également présentées
dans le Guide de l’assistance météorologique aux activités maritimes (OMM, 2001). Les mesures
ou observations marines in situ ont des sources diverses, telles que les navires recrutés par les
Membres de l’OMM pour participer au programme de navires d’observation bénévoles (VOS),
des bateaux‑feux (automatiques ou non), des bouées (ancrées ou dérivantes), des tours, des
plates‑formes d’extraction de pétrole ou de gaz naturel, ainsi que des stations météorologiques
automatiques, situées sur des îles ou sur des navires. Le type de plate‑forme détermine
généralement les éléments mesurés et signalés. Ainsi, les navires participant au programme
VOS, sur lesquels on emploie des techniques d’observation tant manuelles qu’automatiques,
transmettent l’ensemble des observations nécessaires à la météorologie synoptique. En
revanche, la plupart des bouées dérivantes ne fournissent des données que sur tout au plus
trois paramètres: la position, la pression atmosphérique à la surface de la mer et la température
de surface de la mer. Les données recueillies par les navires d’observation bénévoles sont le
plus souvent compilées et transmises dans un format approuvé au plan national, puis diffusées
à l’échelle internationale dans un code validé par l’OMM (par exemple FM 94 BUFR à partir
de 2012 environ). Les codes de l’OMM sont présentés dans le Manuel des codes (OMM, 2011b,
2011c). Dans la Partie B du Volume I.2 figurent des informations générales. Des modèles de
codage pour ces types particuliers d’observations maritimes, tels que le rapport type B/C10
pour les navires, sont présentés dans la Partie C du Volume I.2.1 De plus amples informations se
trouvent dans les actes d’une réunion de 2009 sur le système d’information des océans (Hall et
al., 2010), de même que sur les navires d’observation bénévoles (Kent et al., 2010), sur les navires
de recherche (Smith et al., 2010), sur les mesures océanographiques à partir de navires (Goni et
al., 2010), sur les flotteurs profilants (Freeland et al., 2010), sur les bouées (Meldrum et al., 2010;
McPhaden et al., 2010; Send et al., 2010; Dohan et al., 2010; Keeley et al., 2010), ainsi que sur les
vagues et le niveau de la mer (Swail et al., 2010a; Swail et al., 2010b; Merrifield et al., 2010)
1
Le Volume I.1 du Manuel des codes décrit actuellement aussi les codes alphanumériques traditionnels qui ont été
utilisés pendant de nombreuses années pour transmettre des données via le Système mondial de
télécommunications (SMT), essentiellement dans le contexte des navires d’observation bénévoles pour le
code FM 13 SHIP. Toutefois, l’OMM est en passe de renoncer à toute utilisation des codes alphanumériques
traditionnels pour les données transmises sur le SMT. Le Manuel des codes pourrait être restructuré à l’avenir pour ne
plus contenir le premier volume.
CHAPITRE 4. OBSERVATIONS MARITIMES 653
La présente section comprend des recommandations et des conseils détaillés sur la façon de
prendre des mesures et d’effectuer des observations à bord de navires. Le document OMM
(1991a) est également une référence utile à cet égard. Le document OMM (2001), chapitre 6,
comprend des détails sur les observations de surface prévues dans le cadre du programme
des navires d’observation bénévoles. Le document OMM (2001) donne aussi des informations
sur les différentes catégories de navires d’observation bénévoles. Des études sur la qualité des
observations provenant de navires sont présentées dans les documents OMM (1991b et 1999),
Kent et al. (1993), OMM/COI (2003a, 2003b), Kent et Berry (2005), Ingleby (2010) et Kennedy et
al. (2012). Bradley et Fairall (2006) ont analysé les bonnes pratiques en matière d’observations
dans le monde de la recherche, et Weller et al. (2008) donnent des informations sur les capteurs
utilisés en milieu marin.
Le Programme VOS est exploité par les Services météorologiques et hydrologiques nationaux
(SMHN), sous l’égide de l'Équipe pour les observations de navire de la CMOM et, en particulier,
du Groupe d’experts pour les navires d’observation bénévoles. Toutes les informations relatives
au Programme VOS sont données dans le document OMM (2001). Les gestionnaires du
Programme VOS collaborent avec les agents météorologiques de port, qui assurent en général
la liaison entre les opérateurs VOS et le navire. Une première étape décisive pour le recrutement
des VOS est d’obtenir la permission des propriétaires et des capitaines de navire. Une fois cette
autorisation obtenue et le navire désigné, les agents météorologiques de port devraient:
a) Installer des instruments étalonnés dans les lieux les plus adaptés;
d) Former des observateurs à tous les aspects des pratiques en matière d’observation;
f) Consigner les métadonnées du navire selon les instructions énoncées dans le document
OMM (1955‑);
Une fois le navire recruté, dans l’idéal, l’agent météorologique de port devrait monter à bord
au moins tous les trois mois (sous réserve des déplacements du navire et de l’effectif; des visites
moins fréquentes peuvent être envisagées au besoin) afin de vérifier la précision des instruments
654 PARTIE II. SYSTÈMES D’OBSERVATION
Dans certains cas, une entreprise (généralement une compagnie pétrolière ou gazière) qui
exploite un navire ou une plate‑forme procède à des observations et/ou à des mesures pour son
propre compte et les diffuse sur le SMT sans grande participation d’un agent météorologique
de port. L’installation et l’entretien du matériel météorologique océanique et la formation
pertinente peuvent se faire dans le cadre d’un contrat. Si le navire ou la station n’a pas été
recruté par un agent météorologique de port, il convient de faire en sorte que les métadonnées
pertinentes soient aussi diffusées par les voies appropriées de l’OMM.
Les navires qui procèdent à des relevés météorologiques dans le cadre du programme VOS2
devraient idéalement observer les éléments suivants:
g) L’humidité (mesurée);
m) Les vagues de la mer du vent et la houle océanique, en particulier leur hauteur, leur période
et leur direction (souvent évaluées visuellement);
2
http://w ww.bom.gov.au/jcomm/vos/resources.html
CHAPITRE 4. OBSERVATIONS MARITIMES 655
Des navires spécialement équipés à cet effet, tels que des navires de recherche ou des
bateaux‑feux, peuvent procéder à des observations à l’aide d’instruments de mesure et
communiquer des données relatives aux précipitations, au rayonnement, à la visibilité, ainsi
qu’aux paramètres des nuages ou des vagues.
En principe, les observations sans instrument devraient être réalisées avant les mesures
instrumentales exigeant un éclairage, afin de ne pas gêner l’adaptation de l’œil à l’obscurité.
Les instruments placés à bord de navires devraient être conformes aux spécifications imposées ou
recommandées dans d’autres chapitres du présent guide, en dehors des modifications indiquées
dans les sections suivantes de ce chapitre. Ils devraient être testés et vérifiés régulièrement par les
SMHN concernés.
3
Des recommandations de sécurité pour l’utilisation du mercure sont données dans la section 3.2.7 du chapitre 3 de
la partie I. La Convention de Minamata sur le mercure, une convention du Programme des Nations Unies pour
l’environnement (PNUE), est entrée en vigueur en octobre 2013. Elle a une grande incidence sur l’utilisation du
mercure pour les applications météorologiques.
4
http://sot.jcommops.org/vos/resources.html
656 PARTIE II. SYSTÈMES D’OBSERVATION
En cas d’observation manuelle, les valeurs devraient être relevées dans les dix minutes précédant
l’heure standard d’observation synoptique. La pression atmosphérique devrait toutefois se
mesurer exactement à cette heure ou aussi près que possible de celle‑ci.
En général, les observations de surface à bord de navires sont réalisées de la façon suivante:
b) Des observations horaires devraient être effectuées lorsqu’on utilise un système automatisé
(les observateurs sur les navires peuvent produire en outre des observations synoptiques
complètes aux heures synoptiques, en incluant les éléments visuels supplémentaires);
c) S’il est impossible, pour des raisons opérationnelles, de procéder à des observations
synoptiques à l’une des heures standard principales, le moment réel des observations
devrait être le plus proche possible de cette heure;
d) Des observations supplémentaires devraient être faites en dehors des heures standard
principales en cas de tempête ou de risque de tempête;
f) Les observations maritimes, qui sont aussi précieuses dans les zones côtières qu’au large,
devraient se poursuivre tout au long du voyage.
Actuellement, les systèmes de communication par satellite sont largement utilisés pour
transmettre les observations de navires. On trouvera des détails pertinents dans la section 6.6 du
document OMM (2001). Les quatre méthodes ci‑après sont les plus appliquées:
b) Les services satellitaires commerciaux passant par le système INMARSAT‑C, qu’on trouve
à bord de la majorité des navires en mer, conformément aux exigences de la Convention
internationale pour la sauvegarde de la vie en mer (SOLAS) et du Système mondial de
détresse et de sécurité en mer. Normalement, les observations météorologiques sont
transmises à une station terrienne terrestre (LES), accompagnées d’un message comportant
le code d’accès spécial 41, de sorte que le coût du rapport est pris en charge par le SMHN.
Une liste des LES acceptables pour les messages comportant ce code spécial est tenue
à jour sur le site Web de l’OMM à l’url http://www.wmo.int/pages/prog/amp/mmop/
inmarsat_les.html. La technologie INMARSAT‑C a une portée presque mondiale, mais ne
couvre pas les très hautes latitudes. Toutefois, d’autres codes d’accès spécialement conçus
sont actuellement en cours de mise en place pour que des messages puissent être envoyés
des navires à la terre sous forme compressée, ce qui permet aux Services météorologiques
nationaux de réduire les frais de transmission de leur flotte d’observation nationale. Le
service de transmission des données INMARSAT‑C est également utilisé pour envoyer des
données météorologiques compressées à partir de certaines stations météorologiques
automatiques. Il est utilisé par la plupart des navires d’observation procédant à des relevés
manuels non automatiques;
c) Des services satellitaires commerciaux tels qu’Iridium, qui sont de plus en plus souvent
utilisés pour des stations météorologiques automatiques embarquées sur des navires.
Le système Iridium Short Burst Data reposant sur des systèmes binaires formatés peut
considérablement réduire les coûts de communication. Iridium présente l’avantage d’offrir
une couverture planétaire par des satellites opérationnels et peut également accélérer la
communication des données;
4.2.2.6 Vent
La vitesse et la direction du vent peuvent être estimées visuellement ou mesurées par des
anémomètres ou des anémographes. Il est préférable de mesurer le vent plutôt que d’en faire
une évaluation visuelle. Les vents ne devraient être mesurés qu’à l’aide d’un instrument bien
entretenu et récemment étalonné, installé en un lieu bien exposé, loin de l’influence de la
superstructure et de la mâture du navire. Dans les rapports, la vitesse du vent peut être exprimée
soit en nœuds soit en m s–1. L’utilisation des nœuds est préférable si le navire doit transmettre les
données dans un format ne permettant pas de consigner les dixièmes.
le vent. Les spécifications des chiffres de l’échelle de Beaufort font référence aux conditions
en haute mer. En général, la direction du vent est adéquatement déterminée par la méthode
visuelle.
Les instruments installés à bord de navires devraient indiquer tant la vitesse que la direction du
vent, sans que leurs mesures soient trop influencées par les effets du roulis (les anémomètres à
coupelles bien conçus et les girouettes correctement stabilisées sont pratiquement insensibles au
roulis et au tangage). Le milieu marin étant rude, les anémomètres à coupelles ou à pales doivent
être entretenus et étalonnés régulièrement pour produire des données fiables. Les anémomètres
à ultrasons, qui ne comportent pas de pièces mobiles, exigent moins d’entretien et sont de plus
en plus employés sur les navires.
La hauteur des vagues n’est pas en soi un paramètre très fiable pour établir la vitesse du vent,
car elle dépend également du fetch et de la durée du vent, de la profondeur des bas‑fonds et
de la présence de houle. L’échelle de Beaufort s’appuie donc sur le rapport entre l’état de la
mer et la vitesse du vent. Toutefois, d’autres facteurs intervenant dans ce rapport devraient
normalement être intégrés dans l’estimation de la vitesse du vent. Ces facteurs sont le décalage
entre le renforcement du vent et le soulèvement des vagues, l’atténuation des effets du vent à la
surface de la mer par une pluie forte et les modifications de l’aspect de la mer provoquées par
de forts courants de surface, par exemple les courants de marée. L’aspect de la mer est un indice
moins fiable en eau peu profonde et à proximité des côtes, à cause des courants de marée et de
la barrière formée par la terre. Si le navire vogue dans ces eaux ou si la surface de la mer n’est pas
parfaitement visible (par exemple la nuit), on peut estimer la force du vent relatif sur l’échelle
de Beaufort en observant les effets du vent sur les sons, sur certains objets se trouvant à bord du
navire, notamment les drapeaux, et sur le panache de fumée. Ce dernier permet également de
déterminer la direction du vent relatif. Il est ensuite possible de calculer la vitesse et la direction
du vent vrai à partir de ces estimations (United Kingdom Meteorological Office, 1995). S’il
n’existe pas d’autre moyen d’évaluer la direction du vent, les déplacements des nuages à basse
altitude peuvent s’avérer utiles.
Il est difficile d’exposer correctement les instruments de mesure du vent sur les navires (OMM/
COI, 2003b; Yelland et al., 2001; Moat et al., 2005; Moat et al., 2006). Pour réduire autant que
possible les effets locaux des superstructures, des mâts et des espars, l’appareil devrait être
disposé le plus haut et le plus en avant possible. Si on le fixe à un bout de vergue, il est parfois
préférable de choisir un modèle dans lequel les têtes de mesure de la vitesse et de la direction
sont séparées. Cela répartit le poids sur le bout de vergue et permet de disposer les instruments
davantage à l’extérieur. Qu’il soit fixé à un bout de vergue ou sur le mât de misaine, chaque
instrument devrait être placé à une distance du mât au moins égale à dix fois le diamètre de
celui‑ci. Si ce n’est pas possible, une bonne solution consiste à monter deux appareils de part et
d’autre du mât et à utiliser celui qui est le mieux exposé au moment de l’observation. Le sommet
du mât de misaine est souvent le meilleur emplacement pour un anémomètre. Les capteurs du
vent par ultrasons sont efficaces et offrent une bonne précision lorsqu’ils sont installés en haut du
mât principal.
Il arrive que l’on emploie divers modèles d’anémomètres portables à bord des navires (souvent
pour faciliter la mise à quai de ceux‑ci). Ils présentent l’inconvénient d’être extrêmement difficiles
à exposer correctement, ce qui se traduit par des mesures très divergentes (Kent et al., 1993).
Seul un observateur comprenant bien la nature de l’écoulement d’air au‑dessus du navire dans
différentes conditions est en mesure de choisir le meilleur emplacement pour effectuer ce
genre d’observations et parvenir à des résultats satisfaisants. Ces appareils peuvent être utiles
lorsqu’une estimation visuelle est difficile ou impossible, par exemple la nuit par vent faible.
CHAPITRE 4. OBSERVATIONS MARITIMES 659
Échelle de Beaufort utilisée pour les rapports de l’OMM sur l’estimation du vent, ayant pour
référence une altitude de 10 m au‑dessus du niveau de la mer.
Hauteur
Moyenne Hauteur
Chiffre maximale
de la vitesse Vitesse du vent Spécifications pour les probable
de Terme probable
du vent équivalente observations des
Beaufort descriptif des
équivalente vagues
(force) vagues
nœuds m s–1 nœuds m s–1 À bord de navires (au large) m m
0 Calme 0 0 <1 0–0,2 La mer est comme un
miroir
3 Petite 9 4,3 7–10 3,4–5,4 Très petites vagues; les 1,6 1,0
brise crêtes commencent à
déferler; écume d'aspect
vitreux; parfois quelques
moutons épars
4 Jolie brise 13 6,7 11–16 5,5–7,9 Petites vagues devenant 1,0 1,5
plus longues; moutons
franchement nombreux
6 Vent frais 24 12,3 22–27 10,8– Des lames commencent 3,0 4,0
13,8 à se former; les crêtes
d'écume blanche sont
partout plus étendues
(habituellement quelques
embruns)
Hauteur
Moyenne Hauteur
Chiffre maximale
de la vitesse Vitesse du vent Spécifications pour les probable
de Terme probable
du vent équivalente observations des
Beaufort descriptif des
équivalente vagues
(force) vagues
nœuds m s–1 nœuds m s–1 À bord de navires (au large) m m
9 Fort coup 44 22,6 41–47 20,8– Grosses lames; épaisses 7,0 10,0
de vent 24,4 traînées d’écume dans la
direction du vent; les crêtes
des lames commencent
à s’écrouler et à déferler
en rouleaux; les embruns
peuvent réduire la visibilité
Note: Les hauteurs des vagues sont mentionnées à titre indicatif pour donner une idée des conditions auxquelles on
peut s’attendre en haute mer. Les valeurs de ces hauteurs ne devraient jamais être consignées ou communiquées pour
décrire l’état de la mer. Dans les mers intérieures ou près des côtes, avec un vent de terre, la hauteur des vagues sera
plus petite et leur escarpement plus fort.
Quand les données proviennent d’un navire faisant route, il est nécessaire de distinguer le vent
relatif et le vent vrai. Dans le contexte météorologique, seul le vent vrai doit être signalé, même
si le vent relatif est également indiqué dans le cadre de VOSClim (programme climatologique
faisant appel aux navires d’observation bénévoles). La méthode de calcul pour établir la vitesse
et la direction du vent vrai à partir de la vitesse et de la direction du vent relatif ainsi que de
la vitesse, de la route et du cap du navire, est détaillée dans le document OMM/COI (2003c).
Il convient de noter que la route et le cap du navire peuvent être très différents, en particulier
à faible vitesse ou par forte dérive due au vent. Un simple diagramme vectoriel ou une table
peuvent être utilisés afin de calculer le vent vrai à partir des valeurs relevées pour le vent relatif
ainsi que pour la vitesse et la route du navire (Bowditch, 2002). Ces valeurs supplémentaires
devraient de préférence être obtenues à l’aide d’une boussole magnétique et d’informations
sur la vitesse du navire. Elles peuvent également être calculées à partir du mouvement déduit
du récepteur GPS, mais, dans ce cas, la dérive n’est pas prise en compte. Par le passé, cette
conversion des vecteurs était fréquemment une source d’erreur dans les valeurs communiquées
sur le vent. Toutefois, avec l’utilisation croissante des registres électroniques, qui permettent
de calculer le vent vrai, cette source d’erreur va être de moins en moins importante. Pour les
stations météorologiques automatiques, toutes les informations requises peuvent en général être
obtenues directement de l’anémomètre et du système de navigation du navire.
La vitesse et la direction du vent doivent être indiquées sous forme de valeurs moyennes,
mesurées au cours de la période de dix minutes précédant l’observation. Toutefois, lorsque les
caractéristiques du vent présentent une discontinuité au cours de cette période de dix minutes,
seules les données postérieures à cette discontinuité sont retenues pour établir les valeurs
moyennes de la direction et de la vitesse du vent, ce qui a pour effet d’écourter la période.
L’enregistrement des métadonnées du navire pour l’OMM (OMM, 1955‑) est particulièrement
important pour les observations du vent (Yelland et al., 2001). Les métadonnées qui devraient
être fournies concernent les instruments utilisés, la manière dont ils sont installés à bord
du navire (position et hauteur) et les détails sur le type de navire (Kent et al., 2007). Les
métadonnées, qui permettent d’interpréter les données correctement et d’améliorer leurs
cohérences (par exemple par la correction des erreurs systématiques), assurent une traçabilité
répondant aux exigences.
La pression peut se mesurer à l’aide d’un baromètre anéroïde de précision, d’un baromètre
anéroïde à cadran ou d’un baromètre électronique numérique. La lecture du baromètre
s’effectue aussi rapidement que possible après l’heure d’observation. Si l’on procède
manuellement, il convient de relever les données du baromètre en dernier lieu et de les saisir
juste avant de terminer le rapport. Les systèmes automatiques devraient établir des moyennes
sur des périodes d’une minute (voir l’annexe 1.E du chapitre 1 de la partie I). La plupart des
navires devraient communiquer la pression au dixième d’hectopascal (hPa) près. Toutefois,
sur les VOS auxiliaires utilisant des baromètres marins à graduation grossière qui ne sont pas
étalonnés et ne permettent pas de lire la pression au dixième d’hPa, la pression devrait être
enregistrée en hPa, si possible avec une indication ou un mécanisme de codage pour signaler
la précision réduite (par exemple, dans l’ancien code FM 13 SHIP (OMM, 2011b), la colonne
après la virgule (celle des dixièmes) était remplacée par une barre oblique pour indiquer que
l’observation était d’une moindre précision).
4.2.2.7.2 Instruments
Tous les baromètres devraient être conformes aux exigences générales présentées au chapitre 3
de la partie I et être accompagnés d’un certificat précisant le cas échéant les corrections à
appliquer aux indications de chaque instrument. Les baromètres devraient être précis à 0,1 hPa
près. Les exigences concernant l’incertitude des mesures opérationnelles et les performances des
instruments sont stipulées dans l’annexe 1.E du chapitre 1 de la partie I. L’incertitude autorisée
pour les mesures est plus fine que 0,1 hPa (et que 0,2 hPa après réduction au niveau de la mer).
L’incertitude des mesures ne devrait jamais excéder 0,3 hPa. Les barographes pour milieu marin
devraient être dotés d’un dispositif d’amortissement, par exemple un bain d’huile dans lequel est
placé le boîtier anéroïde ou un amortisseur à piston raccordé au levier, afin d’éviter les brusques
variations de pression provoquées par les rafales de vent et les mouvements du navire. Le
baromètre et le barographe devraient être munis d’une prise d’air de pression statique donnant
sur l’extérieur, de façon à ce que les relevés puissent être plus précis et qu’ils ne subissent pas
l’influence des zones hermétiques ou des conditions ambiantes. Si cela n’est pas possible, des
instructions devraient être données pour que les portes des passerelles soient ouvertes avant
toute observation. Cela est particulièrement important sur les navires récents équipés de locaux
pressurisés ou de navires qui transportent des matières dangereuses, dont la timonerie peut être
fermée hermétiquement.
En général (mais pas dans tous les cas), les SMHN règlent les baromètres anéroïdes de précision
et les baromètres électroniques à la pression «au niveau de la station». Ainsi, les observations
doivent être corrigées en fonction de la hauteur du baromètre pour indiquer la pression au
niveau de la mer. Cette correction selon la hauteur est calculée automatiquement par un logiciel
de saisie. En général, les baromètres anéroïdes à cadran sont réglés de façon à indiquer la
pression au niveau de la mer.
Les baromètres et les barographes devraient être montés sur un support amortisseur, à
l’endroit où ils seront le moins exposés aux chocs, aux vibrations et aux mouvements du navire.
En général, plus on s’approche du centre de flottaison, meilleurs sont les résultats. Le stylet
porte‑plume du barographe devrait être orienté en travers pour éviter tout risque qu’il sorte du
graphique.
4.2.2.7.4 Corrections
Les baromètres devraient être stabilisés en température. Sinon, il faudrait consulter la table de
correction de température qui accompagne l’instrument et munir celui‑ci d’un thermomètre.
Une table de réduction à la pression au niveau de la mer devrait également être fournie lorsque
les baromètres sont réglés à la hauteur de la station, bien que cela ne soit pas obligatoire sur
les navires où l’on utilise des logiciels de saisie susceptibles d’appliquer automatiquement une
correction de hauteur (Bowditch, 2002, tableaux 29‑34).
CHAPITRE 4. OBSERVATIONS MARITIMES 663
Les sources d’erreurs sont traitées au chapitre 3 de la partie I. Il faut toutefois noter que des
erreurs importantes peuvent survenir sur les navires en raison des effets du vent sur la pression à
l’intérieur du boîtier dans lequel le baromètre est placé. Dans la mesure du possible, il convient,
pour obtenir un maximum de précision, de placer l’instrument dans une pièce raccordée à une
prise de pression statique ou de le relier directement à cette prise.
Sur les baromètres non automatiques, les erreurs humaines sont dues le plus fréquemment à
une absence de réduction au niveau de la mer, à une appréciation erronée de la hauteur du
baromètre ou à une double correction non intentionnelle (correction appliquée à un baromètre
qui donne déjà la pression au niveau de la mer).
Les baromètres et les barographes devraient être vérifiés aussi souvent que possible,
approximativement tous les trimestres, par référence au baromètre étalon d’un agent
météorologique de port ou d’un baromètre étalon de transfert. Toutefois, comme les
déplacements des navires peuvent être très dynamiques, cela n’est pas toujours possible. L’agent
météorologique de port devrait rédiger un rapport sur toutes les comparaisons effectuées et fixer
sur le baromètre une étiquette d’étalonnage indiquant la date de vérification et, le cas échéant,
la correction à apporter. Il importe en particulier de contrôler plus fréquemment les nouveaux
baromètres et barographes.
Les baromètres numériques étant beaucoup plus stables, certains modèles peuvent n’être
étalonnés que tous les deux ans.
Pour les observations manuelles, si l’on utilise des abris météorologiques, deux abris devraient
être fournis et installés, un de chaque côté du bateau pour être toujours en mesure de procéder
aux observations du côté au vent. Les thermomètres et hygromètres seront ainsi bien exposés
au courant d’air et protégés des sources artificielles de chaleur et de vapeur d’eau. On peut
aussi suspendre un seul abri mobile face au vent pour obtenir le même résultat. La mèche de
mousseline qui recouvre le globe d’un thermomètre mouillé devrait être remplacée au moins
toutes les semaines, et plus souvent en cas de tempête.
Les psychromètres à crécelle ou à aspiration s’avèrent satisfaisants quand on les expose du côté
du vent. Dans le cas où l’appareil est actionné manuellement, la température doit être relevée
dès que possible après l’arrêt de la ventilation. Si des hygromètres portatifs ont été rangés à
l’intérieur avant d’être utilisés, il convient de les laisser se régler selon les conditions de plein air
plusieurs minutes avant de les utiliser.
Si l’on se sert d’une station météorologique automatique ou d’une unité d’affichage numérique
à distance, une lecture manuelle des instruments à l’écran n’est plus nécessaire et un seul abri
peut en principe être installé, suffisamment loin de la structure du navire pour offrir une bonne
exposition. Cela signifie toutefois qu’il devient difficile de remplir le réservoir des thermomètres
mouillés. Ainsi, on utilise en général des capteurs électroniques de température et d’humidité
relative dans les stations météorologiques automatiques. Ces instruments doivent être
étalonnés au moins tous les ans. Comme indiqué au chapitre 4 de la partie I, la précision de
ces capteurs d’humidité relative risque d’être inférieure à celle des capteurs psychrométriques,
mais la précision de ces derniers dans l’environnement marin n’a pas encore été évaluée
systématiquement. Les stations météorologiques automatiques devraient communiquer la
température et l’humidité sous forme de moyennes établies sur une minute.
L’humidité peut être représentée par diverses variables, par exemple par le point de rosée, la
température du thermomètre mouillé ou l’humidité relative (chapitre 4 de la partie I), et devrait
être enregistrée sous la forme de la variable mesurée. Toute conversion entre les variables liées
à l’humidité augmente la marge d’incertitude. Les valeurs subissent l’incidence de l’erreur des
autres variables et l’effet de la troncature nécessaire pour respecter les formats de transmission.
Pour les mesures psychrométriques, tant la température du thermomètre mouillé que celle du
thermomètre sec devraient être enregistrées avec une précision de 0,1 °C. Le point de rosée
devrait être calculé selon les tables normalisées publiées à l’échelle nationale ou à l’aide de
formules standard de l’OMM (annexes 4.A et 4.B du chapitre 4 de la partie I) et du coefficient
psychrométrique prévu pour l’instrument utilisé. La température du point de rosée devrait
également être communiquée à 0,1 °C près. La conversion de la température obtenue à l’aide
d’un thermomètre mouillé ou de la température du point de rosée pour obtenir l’humidité
relative en pourcentage (à l’unité près) entraîne une incertitude importante et devrait être évitée.
Sur les VOS auxiliaires utilisant des thermomètres marins à graduation grossière qui ne sont
pas étalonnés et ne permettent pas de lire la température au dixième de degré, la température
devrait être enregistrée en degrés, si possible avec une indication ou un mécanisme de codage
pour signaler la précision réduite (par exemple, dans l’ancien code FM 13 SHIP, la colonne
après la virgule (celle des dixièmes) était remplacée par une barre oblique pour indiquer que
l’observation était d’une moindre précision). Pour toutes les autres observations effectuées sur
des navires, il convient de communiquer la température au dixième près.
La température de surface de la mer devrait être mesurée avec grand soin, car cette valeur
permet entre autres de calculer l’écart avec la température de l’air, un élément qui sert à établir la
stratification de la température, de l’humidité et d’autres caractéristiques des basses couches des
masses d’air maritime. Les thermomètres utilisés pour mesurer la température de l’eau de mer
devraient présenter une résolution de 0,1 °C.
Il n’a pas été possible d’adopter un instrument standard pour mesurer la température de surface
de la mer en raison de la taille et de la vitesse très variables des navires ainsi que des facteurs de
coût, de fonctionnement et d’entretien.
Les deux premières méthodes sont les plus courantes depuis très longtemps. La comparaison
des valeurs ainsi obtenues (OMM, 1972) a révélé que les températures des prises d’eau étaient
supérieures en moyenne de 0,3 °C aux températures de l’eau prélevée dans des seaux. Des
études plus récentes suggèrent que ce biais de température s’est atténué au fil du temps (Kent
et Taylor, 2006). Cette étude a permis d’établir que les caractéristiques du dispositif de captage
de la «température de prise») jouent un rôle déterminant pour la qualité de l’observation.
Depuis quelques années, avec l’augmentation de la vitesse et de la hauteur des VOS, la troisième
méthode est davantage utilisée (OMM, 1991b; Kent et al., 1993). C’est celle qui donne les
résultats les plus fiables. L’emploi de radiomètres n’est pas fréquent sur les VOS, mais ils peuvent
être utiles sur certains navires de recherche ou sur des plates‑formes pétrolières. La technique
de la prise d’eau est la moins recommandée du fait des nombreuses précautions à prendre pour
obtenir de bons résultats.
Un seau est descendu le long du flanc du navire pour prélever un échantillon d’eau de mer.
Le seau est remonté à bord et la température de l’eau est mesurée avec un thermomètre.
L’échantillon devrait être prélevé du côté sous le vent, bien à l’avant de tout orifice de décharge.
Il faudrait procéder à la lecture le plus rapidement possible après que le thermomètre se soit
stabilisé, en veillant à ne pas l’exposer à la lumière directe du soleil. Quand on ne l’utilise pas, le
seau devrait être suspendu à l’ombre pour sécher.
Il est important qu’il soit conçu de telle manière que l’eau circule librement à l’intérieur pendant
le prélèvement et que l’échange thermique dû au rayonnement et à l’évaporation soit le plus
faible possible. Le thermomètre employé devrait indiquer rapidement la température de l’eau,
être facile à lire et, si possible, être fixé à demeure dans le seau. S’il faut le retirer pour effectuer
la lecture, sa capacité calorifique devrait être faible et son réservoir devrait tremper dans une
cuvette de taille suffisante pour que la température de l’eau extraite avec l’instrument ne varie
pas notablement pendant l’opération. Le modèle de seau devrait être jugé acceptable par
l’organisme qui recrute le navire pour effectuer les observations.
Les mesures obtenues en prélevant de l’eau de mer dans des seaux bien conçus sont en général
assez fiables dans des conditions très différentes. Cependant, cette méthode est moins pratique
que l’utilisation d’instruments fixés au navire car les conditions météorologiques, la taille ou la
vitesse du navire empêchent parfois d’effectuer les mesures.
Le thermomètre placé dans les conduites de prise d’eau lors de la construction d’un navire
ne permet en principe pas de mesurer la température superficielle de la mer avec la précision
requise. Dans l’idéal, l’organisme qui recrute le navire devrait donc installer un thermomètre
avec l’accord de la société de transport maritime. Si possible, il faut le placer dans un tube spécial
assurant une bonne conduction thermique entre le réservoir et l’eau de mer, à proximité de la
prise d’eau.
Si un thermomètre à lecture directe est monté dans un endroit difficile d’accès, l’observateur
devrait corriger l’éventuelle erreur de parallaxe. Ce problème peut être résolu en installant
un dispositif de lecture à distance (par exemple dans la salle des machines ou sur le pont).
L’observateur devrait aussi savoir que, sur les navires à fort tirant d’eau ou lorsqu’un fort gradient
de température existe à l’intérieur de la couche superficielle de la mer, la température dans les
prises d’eau est souvent très éloignée des valeurs réelles à la surface de la mer et varie selon
la cargaison ou le lest dont est chargé le navire. Enfin, la mesure ne devrait bien sûr pas être
5
Non pris en compte dans le document OMM (1955‑).
666 PARTIE II. SYSTÈMES D’OBSERVATION
effectuée lorsque le navire est à l’arrêt, car l’eau de refroidissement ne circule alors pas. Il est
à noter que l’installation d’un capteur dans la prise d’eau ou d’un capteur de température de
surface de la mer par contact avec la coque est souvent longue et compliquée, ce qui oblige
les agents météorologiques de port ou les techniciens à travailler dans des conditions difficiles
(intérieur du navire, zone d’accès restreint, etc.).
La température de l’eau peut être mesurée dans le caisson de prise d’eau situé au fond du navire,
où aboutissent généralement les conduites des entrées d’eau. C’est un très bon emplacement
pour installer un thermomètre à lecture à distance. Les mêmes restrictions que celles déjà
mentionnées s’appliquent à ce genre d’installation.
Bien que la majorité des thermomètres n’indiquent que la température instantanée, certains
navires peuvent être équipés de capteurs de température susceptibles d’échantillonner les
mesures avec une fréquence donnée et d’en faire la moyenne sur un certain temps. Dans ce
cas, et pour produire des mesures plus représentatives de la température de surface de la mer,
on peut faire appel à un algorithme de filtrage modal qui exclura les valeurs extrêmes de la
moyenne calculée.
C’est un moyen très pratique et très précis de mesurer la température superficielle de la mer. Il
faut bien sûr employer des instruments à lecture à distance. Le capteur est fixé soit à l’extérieur,
en contact direct avec l’eau, au moyen d’un raccord qui traverse la coque, soit à l’intérieur de la
coque (le modèle «à ventouse»), sauf s’il s’agit d’une coque double. Ces deux dispositifs donnent
des valeurs très concordantes, le premier réagissant de manière légèrement plus rapide aux
variations de température.
Le capteur doit être placé à l’avant de tout point de décharge, à un ou deux mètres sous la ligne
de flottaison. Si de fortes variations du tirant d’eau sont susceptibles de se produire, il est parfois
nécessaire d’installer plusieurs capteurs. La mise en place et le câblage peuvent poser beaucoup
de problèmes et il est préférable de procéder à ces opérations lors de la construction du navire.
Si des capteurs doivent être ajoutés après la construction, les modèles à ventouse peuvent être
posés sans mettre le bateau en cale sèche.
4.2.2.9.5 Radiomètres
Toute matière dégage une certaine chaleur par rayonnement infrarouge du fait de sa
température. La quantité d’énergie émise et la longueur d’onde du rayonnement dépendent
de la température du corps et de son émissivité. Par conséquent, les radiomètres sensibles au
rayonnement infrarouge peuvent servir à mesurer la température de la mer. Quand on oriente
un tel appareil vers la surface de l’océan, il ne mesure la température que dans la couche la plus
superficielle, une pellicule d’un millimètre environ, car l’émissivité de l’eau est proche de l’unité.
D’importants gradients de température peuvent exister dans les premiers centimètres, surtout
par temps relativement calme, les valeurs les plus basses se trouvant en haut.
CHAPITRE 4. OBSERVATIONS MARITIMES 667
Les radiomètres peuvent être tenus à la main (orientés vers l’avant et vers le bas) ou fixés à l’avant
du navire ou sur un tangon qui surplombe la mer. La valeur obtenue indique généralement la
température d’évaporation de la surface. Seuls quelques navires sont équipés de radiomètres.
(Barton et al., 2004; Donlon et al., 2008).
L’observation visuelle des nuages à partir de navires devrait se faire de la même manière qu’à
partir du sol (voir le chapitre 15 de la partie I). L’agent météorologique de port devrait donner
des instructions précises. Des illustrations et instructions de chiffrement figurent à cet effet
dans de nombreux ouvrages, notamment OMM (1975, 1987), ainsi que dans des publications
de SMHN. La plupart des registres électroniques comprennent de nombreuses images de
nuages, qui aident à déterminer leur type. De plus, le rapport type sur les observations des
navires (voir B/C10 dans le Manuel des codes, Volume I.2, Partie C (OMM, 2011c) présente des
informations spécifiques sur la manière dont les VOS doivent élaborer les rapports sur les nuages.
La hauteur de la base des nuages est normalement estimée par le VOS. Pour obtenir de meilleurs
résultats, les observateurs devraient comparer leurs estimations avec des hauteurs connues
chaque fois qu’ils en ont l’occasion, par exemple lorsque la base des nuages passe devant une
côte montagneuse, même si le plafond risque alors d’être plus bas en montagne qu’en mer.
Certains navires spécialisés peuvent être dotés d’instruments permettant de mesurer la hauteur
de la base des nuages. Un projecteur de plafond n’est pas très utile à bord d’un navire en raison
des faibles hauteurs de référence. Il est préférable d’employer un instrument qui n’a pas besoin
de référence, comme un célomètre laser (voir le chapitre 15 de la partie I). L’officier de quart
devrait pouvoir utiliser cet appareil et relever les données sur la passerelle de navigation.
Le temps présent et le temps passé servent essentiellement à fournir une description qualitative
des événements météorologiques. La plupart des rapports de VOS sur le temps présent et
le temps passé s’appuient sur des observations visuelles et auditives et s’effectuent selon les
mêmes règles que celles qu’appliquent les stations terrestres (voir le chapitre 14 de la partie I).
Cent catégories de temps présent ont été définies pour les observations manuelles des VOS (les
cent premiers chiffres de la table de code 0 20 003 du code FM 94 BUFR). Dix catégories ont été
définies pour le temps passé (les dix premiers chiffres des tables de code 0 20 004 et 0 20 005 du
code FM 94 BUFR). Il convient de communiquer deux catégories de temps passé, sélectionnées
pour donner une description aussi complète que possible des conditions dans l’intervalle de
transmission des données. Par ailleurs, l’agent météorologique de port devrait donner des
instructions détaillées en ce qui concerne les nuages. Le modèle B/C10 (OMM, 2011c) donne des
informations spécifiques sur la manière d’élaborer et de coder des rapports météorologiques
pour les VOS. Les observateurs utilisant des logiciels de saisie trouveront très probablement des
recommandations dans les instructions que ceux‑ci fournissent.
668 PARTIE II. SYSTÈMES D’OBSERVATION
En mer, il est rare que le temps présent ou passé fasse l’objet de mesures, plutôt que
d’observations manuelles. Les mêmes instruments peuvent toutefois être utilisés que sur la terre
ferme (chapitre 14 de la partie I). Les catégories définies pour le rapport sont différentes de celles
qui s’appliquent aux observations manuelles en raison de la nature différente de l’observation
(OMM, 2011c). Certaines mesures instrumentales du temps présent et passé peuvent s’effectuer
sur des plates‑formes fixes dans le cadre de programmes qui ne sont actuellement pas
directement coordonnées par l’OMM.
4.2.2.11 Visibilité
L’absence d’objet pouvant servir de repère rend l’évaluation de la visibilité plus incertaine en mer
qu’à terre. Sur les gros bâtiments, quand la visibilité est très réduite, il est possible de prendre
comme points de repère des objets à bord (comme le mât de misaine), mais il faut savoir que
ces estimations risquent de comporter des erreurs, car l’air ambiant est en général modifié par la
présence du bateau. Quand la visibilité est meilleure, l’aspect de la terre pendant la navigation
en vue des côtes est un bon guide. Si l’on connaît la position du navire, la distance des amers au
moment où ils apparaissent ou disparaissent peut être déterminée à partir des cartes. De même,
en haute mer, quand d’autres bateaux sont en vue et que l’on connaît leur distance, par exemple
grâce à un radar, une estimation peut être faite. En l’absence de tout objet éloigné, l’estimation
peut se fonder sur l’aspect de l’horizon, observé à partir de différentes hauteurs. Même si une
réfraction anormale risque d’introduire des erreurs, c’est parfois la seule méthode dont on
dispose. La nuit, l’aspect des feux de navigation donne souvent de bonnes indications sur la
visibilité.
Si la visibilité change selon l’endroit où se porte le regard, l’évaluation ou la mesure devrait être
effectuée dans la direction de visibilité la plus faible et une note devrait être saisie dans le journal
(en ne tenant pas compte de la réduction de visibilité produite par les fumées du navire).
4.2.2.12 Précipitations
Les VOS ne communiquent normalement pas de données sur les précipitations dans leurs
rapports sur les types de temps au moyen des codes établis (voir la section 4.2.2.10), mais
ces données peuvent être transmises par des stations fixes ou par des navires équipés d’un
pluviomètre. Les techniques de mesure des précipitations en mer sont analysées dans des
documents de l’OMM (1962, 1981) et, dans le contexte des observations des navires de
recherche, par Bradley et Fairall (2006) et Weller et al. (2008), qui décrivent également de
nouveaux systèmes de mesures, tels que des pluviomètres optiques, qui ne sont en général pas
utilisés pour les observations courantes. Pour faciliter le travail des observateurs, l’annexe 4.B
décrit les différentes formes de précipitations en mer en vue de l’établissement des rapports sur
le temps présent.
Il convient de déterminer à la fois le cumul et la durée des précipitations. Le cumul devrait être
établi au moyen d’un pluviomètre adapté à l’observation en mer.
Il n’est pas facile d’obtenir une mesure fiable des précipitations à bord d’un navire en raison de
l’effet aérodynamique des superstructures, de l’influence du roulis et du tangage, de la présence
d’embruns et du déplacement du navire. Le matériel employé devrait être construit et exposé
de manière à supprimer ou à réduire le plus possible les trois premiers facteurs susmentionnés.
À bord des navires, il est recommandé de placer le pluviomètre le plus en avant et le plus haut
possible. Toutefois, d’autres emplacements qui rendront l’entretien plus facile pourront être
trouvés dans certains cas.
CHAPITRE 4. OBSERVATIONS MARITIMES 669
Les mesures de précipitation effectuées à partir de stations fixes (bateaux‑feux, grosses bouées,
tours, etc.) sont particulièrement utiles, étant donné que l’effet du déplacement du navire
est supprimé et que ces données peuvent être intégrées aux analyses climatologiques sans
restriction. Cependant, le mouvement des plates‑formes et la contamination saline doivent
toujours être pris en considération.
L’instrument le plus couramment utilisé pour mesurer les précipitations à bord des navires est
le pluviomètre sur cardan. Ce type de montage n’est pas très efficace, surtout par gros temps,
car l’appareil n’est pas constamment maintenu à l’horizontale. Un bon montage sur cardan est
très complexe et coûteux, raisons pour lesquelles on n’en équipe que les navires spécifiques. Par
conséquent, il est souvent préférable de choisir une installation fixe avec une mesure déportée.
Cet appareil est en principe fixé en hauteur sur un mât. Un tuyau en plastique amène l’eau dans
un collecteur placé sur le pont ou dans la timonerie. C’est un bon système quand on a pris les
précautions voulues pour l’installation. L’orifice du pluviomètre devrait être maintenu dans un
plan parallèle au pont du navire.
Pluviomètre enregistreur
Il existe plusieurs modèles de pluviomètres enregistreurs pour les observations en mer. Avec le
premier type, le collecteur est placé à l’air libre et l’enregistreur à l’intérieur. L’eau est acheminée
par un tuyau jusqu’à un réservoir situé à proximité de l’enregistreur. Un stylet raccordé au
flotteur placé dans le réservoir enregistre les variations du niveau d’eau sur un tambour rotatif. Le
réservoir se vide automatiquement par un siphon lorsque le cumul d’eau correspond à 20 mm de
précipitation.
Le deuxième modèle fonctionne par contacts électriques. L’eau de pluie recueillie dans le
collecteur est placée temporairement dans un réservoir. Lorsque le niveau atteint correspond
à 0,5 mm de pluie, la surface de l’eau touche une aiguille qui établit un circuit électrique. Un
moteur ferme la soupape d’admission et ouvre simultanément la soupape de décharge. Quand le
réservoir est vidé, les soupapes reviennent à leur position initiale et une impulsion est transmise
à l’enregistreur. Des erreurs peuvent survenir lorsque, à cause du balancement du navire ou de la
bouée, le niveau d’eau fluctue au lieu de s’élever progressivement. On peut y pallier en installant
une pompe péristaltique afin qu’un volume donné d’eau (et non plus la totalité) soit aspiré
chaque fois que le contact est établi. Ce type d’installation est moins sensible aux fluctuations du
niveau d’eau et ne comporte aucune soupape à entretenir.
L’observation des précipitations par radar exige un appareil à faisceau étroit, des pluviomètres
d’étalonnage et d’autres équipements spéciaux pour surveiller l’état du radar et appliquer
les corrections nécessaires. Les radars placés à bord de navires ne présentent pas ces
caractéristiques, car ils ont été conçus à d’autres fins. Leur utilisation pour observer les
précipitations n’est pas une procédure normale.
On trouvera dans cette partie la définition des vagues, la description de leur comportement et
les méthodes visuelles d’observation employées. Les techniques automatisées sont abordées
brièvement dans la section 4.3, sur les bouées ancrées, mais elles s’appliquent aussi à d’autres
plates‑formes.
Fetch. Distance le long d’une grande trajectoire à la surface de l’eau sur laquelle souffle un vent
de direction et de vitesse presque uniformes.
Mer du vent. Vagues générées par le vent soufflant au voisinage immédiat d’un site d’observation
au moment de l’observation.
Houle. Système de vagues ayant quitté sa zone d’origine (ou observé lorsque le champ de vent
qui a produit les vagues n’existe plus).
Longueur d’onde des vagues. Distance horizontale entre deux crêtes ou deux creux successifs, qui
correspond à la période des vagues multipliée par leur vitesse.
Période des vagues. Intervalle de temps écoulé entre le passage de deux crêtes successives en un
point fixe. Cet intervalle équivaut à la longueur d’onde des vagues divisée par leur vitesse.
Vitesse des vagues. Distance parcourue par une vague en un temps donné, égale à sa longueur
d’onde divisée par sa période.
L’observation devrait comporter la mesure ou l’évaluation des paramètres suivants pour chaque
type de système de vagues, principalement la mer du vent et la houle primaire et secondaire:
a) La direction (origine des vagues) sur une échelle 01‑36, comme pour la direction du vent;
b) La période en secondes;
c) La hauteur.
Il est recommandé de suivre les méthodes d’observation des caractéristiques des vagues décrites
ci‑après.
Les vagues océaniques générées par le vent constituent de grands systèmes que l’on définit
en fonction du champ de vent à l’origine des vagues ainsi que de la position relative du point
d’observation. Étant donné la distinction établie entre la mer du vent et la houle, l’observateur
devrait être en mesure de reconnaître ces systèmes selon la direction, l’aspect et la période des
vagues.
La figure 4.1 montre ce que l’on obtient habituellement avec un enregistreur de vagues. On voit
la variation de la hauteur de la surface de la mer au‑dessus d’un point de référence fixe dans le
temps, c’est‑à‑dire le mouvement oscillant d’un corps flottant à la surface de la mer, comme il est
vu par l’observateur. C’est l’apparence normale de cette surface agitée par le vent pour former
une houle.
Les vagues se propagent toujours en groupes irréguliers séparés par des zones plus calmes
d’au moins deux longueurs d’onde. Cette irrégularité est plus marquée dans la mer du vent que
dans la houle. Par ailleurs, et cela ne peut apparaître dans un enregistrement, des groupes d’au
moins deux vagues bien formées peuvent suivre des directions variant de 20 à 30° les uns par
rapport aux autres; il en résulte que les crêtes des vagues de la mer du vent sont plutôt courtes
en raison des interférences créées par les vagues qui s’entrechoquent. Les vagues de la houle
CHAPITRE 4. OBSERVATIONS MARITIMES 671
ont un aspect plus uniforme. Elles avancent de manière assez ordonnée dans une direction bien
définie, leurs crêtes étant généralement longues et lisses. On peut observer des vagues de houle
caractéristiques dans les zones où le vent n’a pas ou peu soufflé pendant plusieurs heures, voire
pendant un ou plusieurs jours. La plupart du temps, la mer du vent et la houle sont mélangées.
En tentant d’observer de façon distincte les caractéristiques de chaque système de vagues (mer
du vent et houle), l’observateur devrait avoir conscience que les composantes les plus élevées
de la mer du vent ressemblent à la houle de par leurs crêtes relativement longues et leur période
importante. Il pourrait sembler possible de diviser l’ensemble des vagues de différentes hauteurs,
périodes et directions (qui, ensemble, forment le système de la mer du vent) en deux systèmes
différents de vagues et de considérer les petites vagues comme des vagues de la mer du vent et
les grandes vagues comme des vagues de la houle, mais tel n’est pas nécessairement le cas.
La distinction entre la mer du vent et la houle devrait reposer sur l’un des critères suivants:
Direction des vagues: si la direction moyenne de toutes les vagues présentant plus ou moins les
mêmes caractéristiques (en particulier la hauteur et la longueur d’onde) s’écarte d’au moins
30° de la direction moyenne des vagues d’un aspect différent (en particulier la hauteur et/ou la
longueur d’onde), il faudrait considérer que les deux ensembles appartiennent à des systèmes
distincts.
Aspect et période: si des vagues de houle typiques, caractérisées par leur uniformité et par leurs
longues crêtes, se propagent à peu près dans la direction du vent – écart inférieur à 20° –, on
devrait les classer dans un système distinct si leur période dépasse d’au moins 4 s celle des
grosses vagues de la mer du vent.
Pour mesurer la période et la hauteur moyenne d’un système de vagues, il ne faudrait tenir
compte que des vagues types, c’est‑à‑dire des vagues les plus hautes situées au centre de chaque
groupe de vagues bien formées (figure 4.1). On doit totalement omettre les vagues plates et mal
formées (A) situées entre les groupes.
La période et la hauteur moyennes sont calculées sur environ 15 à 20 vagues bien constituées se
trouvant au centre des groupes; ces vagues ne peuvent évidemment pas être consécutives. Les
petites perturbations en forme d’ondulations (B) que l’on voit clairement se former sous l’action
du vent au‑dessus des grosses vagues doivent aussi être exclues des mesures.
On peut observer à l’occasion des vagues dont la hauteur est bien plus grande que les autres (C),
seules ou en groupes de deux ou trois. Il ne faudrait pas considérer uniquement ces ondulations
extrêmes. Pour mesurer correctement la période et la hauteur de 15 à 20 vagues environ,
l’observateur devrait inclure des groupes de vagues bien formées de hauteur moyenne. Par
conséquent, la hauteur des vagues retenues sera inférieure à la hauteur maximale observée. En
C A B B A A B B C
Intervalle 1 m
Intervalle 6 secondes
Figure 4.1. Vagues de la mer du vent et de la houle tracées par un enregistreur de vagues
672 PARTIE II. SYSTÈMES D’OBSERVATION
général, une vague sur dix excède la valeur ainsi déterminée. Il est courant de définir la hauteur
type des vagues mesurée par des enregistreurs de vagues comme étant la hauteur moyenne du
tiers des vagues les plus hautes; cette valeur devrait être approximativement égale à la hauteur
des vagues évaluée par un observateur sans instruments.
L’observateur doit se rappeler que seules comptent les véritables mesures ou de très bonnes
évaluations. Les approximations ont peu de valeur. En matière d’observation, la qualité prévaut
sur la quantité. S’il n’est possible de mesurer que deux, voire un seul des trois paramètres
(direction, période, hauteur), pendant la nuit par exemple, les données présentent quand même
un intérêt.
Ces considérations sont valables pour toutes les méthodes d’observation décrites ci‑après. On
trouvera des informations plus détaillées sur les vagues dans les documents OMM (1998) et
OMM (2001), sections 4.4.1 et 4.4.2, ainsi qu’aux sections 4.3.4 à 4.3.6 du présent chapitre.
Pour déterminer d’où proviennent les vagues, il suffit de suivre du regard les crêtes des vagues
dans le sens de la longueur puis de pivoter de 90° vers les vagues qui s’approchent. On se trouve
alors face à la direction recherchée.
On trouvera à l’annexe 4.C les procédures recommandées aux navires d’observation procédant à
des relevés manuels pour signaler des cas de houle.
C’est le seul paramètre que l’on peut vraiment mesurer à bord d’un navire marchand faisant
route. Si l’on dispose d’un chronomètre, une seule personne peut effectuer l’observation; sinon, il
faut être deux avec une montre à trotteuse. L’observateur localise d’abord un petit objet qui flotte
sur l’eau à une certaine distance du navire; s’il n’y a rien en vue, il prend une tache d’écume qui
demeurera visible pendant les quelques minutes nécessaires à l’observation. Le chronomètre est
déclenché lorsque l’objet apparaît sur la crête d’une vague. La crête se déplace et l’objet disparaît
dans un creux avant de revenir sur la crête suivante, et ainsi de suite. On note le temps chaque
fois que l’objet atteint le sommet d’une crête. L’observation continue le plus longtemps possible,
généralement jusqu’au moment où le point observé est trop éloigné, en raison du déplacement
du navire. Bien entendu, l’idéal pour prolonger au maximum la période d’observation est de
choisir un objet qui se trouve au départ devant la proue du navire jusqu’à ce qu’il soit toujours
visible.
Une autre méthode consiste à mesurer plusieurs périodes consécutives à l’intérieur d’un groupe
donné de vagues, sans arrêter le chronomètre. On suspend l’observation après le passage de
la dernière crête du groupe ou avant la disparition de l’objet. Le chronomètre est redéclenché
lors du passage de la première crête d’un nouveau groupe. L’observateur compte le nombre de
périodes et met fin à l’observation lorsqu’il en a chronométré 15 ou 20 au moins.
On peut également faire des observations en scrutant le tangage et le roulis à la proue du navire.
L’observateur prend le point le plus élevé ou le plus bas du cycle et commence à compter à partir
de là. Lorsque ce point revient au même endroit, il note le temps écoulé. En répétant ce processus
plusieurs fois, il peut obtenir une observation fiable. Il peut aussi procéder à des observations
nocturnes, au cours desquelles il ressent l’élévation et l’abaissement du navire.
Les périodes inférieures à cinq secondes dans des conditions de vent faible se prêtent mal aux
observations décrites ci‑dessus, mais ces vagues présentent de toute façon moins d’intérêt que
celles dont les périodes sont plus longues.
Avec un peu d’expérience, il est possible d’estimer la hauteur des vagues avec une bonne
fiabilité. Pour estimer la hauteur des vagues dont la longueur d’onde est beaucoup plus courte
que le navire, l’observateur devrait se placer le plus bas possible sur le bateau, de préférence
à mi‑longueur, où le tangage est moins fort, et du côté d’où provient l’ondulation. Il devrait
profiter des moments occasionnels où le roulis cesse.
CHAPITRE 4. OBSERVATIONS MARITIMES 673
O O
a) b)
Lorsque les vagues sont plus longues que le navire, on ne peut pas employer la méthode
précédente, car tout le bâtiment est soulevé par l’ondulation. Pour obtenir de bons résultats,
l’observateur monte ou descend sur le bateau jusqu’à ce que les vagues approchantes
apparaissent juste au niveau de l’horizon, alors que le navire est dans un creux et droit par
rapport à l’axe vertical (figure 4.2). Dans ce cas, la hauteur des vagues est égale à la hauteur à
laquelle se trouve l’observateur par rapport au niveau de l’eau sous lui (a). Lorsqu’il y a du roulis,
il faudrait que la vague qui arrive coïncide avec l’horizon au moment où le navire est droit dans
l’axe vertical, faute de quoi l’évaluation sera trop élevée (b).
Les conditions les plus difficiles sont de loin celles où la longueur d’onde dépasse la longueur du
navire avec une hauteur de vagues faible. On effectue alors la meilleure mesure en se tenant le
plus près possible de l’eau, mais l’estimation reste très approximative.
Les navires météorologiques sont normalement dotés de tous les instruments nécessaires. Si l’on
effectue toutefois des observations visuelles, il convient de suivre la méthode décrite plus haut et
de mettre le navire dans l’axe où les vagues proviennent directement de l’avant. Pour mesurer les
périodes, on peut jeter un objet sur le côté du navire. On devrait peindre des marques (distantes
d’un demi‑mètre) sur le flanc du bateau, à mi‑longueur.
La meilleure technique de mesure de la longueur d’onde consiste à mouiller une bouée à l’arrière
du navire, à une distance telle que les crêtes de deux vagues successives passent simultanément
sous la bouée et sous l’observateur. La distance séparant ces derniers correspond à la longueur
d’onde.
On obtient la vitesse en notant le temps nécessaire pour qu’une vague passe de l’arrière du
navire sous la bouée, et en tenant compte de la vitesse du bâtiment.
Brisants. Effondrement de vagues entières se propageant dans une eau très peu profonde, dont la
profondeur correspond à peu près à deux fois la hauteur des vagues.
Déferlement. effondrement partiel de la crête d’une vague produit par l’action du vent,
l’escarpement des vagues dû à la présence d’un courant contraire (de marée ou autre), ou
l’escarpement des vagues attribuable à l’arrivée sur des hauts‑fonds trop profonds pour former
des brisants.
Les observations faites à partir d’une station côtière ne peuvent être représentatives des
conditions en haute mer, car, près du rivage, les vagues sont modifiées par la profondeur de
l’eau, les marées et la réflexion contre des obstacles tels qu’escarpements rocheux et jetées. Par
674 PARTIE II. SYSTÈMES D’OBSERVATION
ailleurs, les eaux côtières peuvent être abritées par un cap ou, de façon moins évidente, par des
hauts‑fonds, qui sont susceptibles d’influer sur la hauteur et la direction de propagation. La
publication OMM (1991b) traite abondamment de ces phénomènes.
Si l’on effectue des observations malgré ces difficultés, il faudrait choisir les vagues de la même
manière qu’en mer. Quand il s’agit de recherche sur les vagues, on devrait indiquer la profondeur
moyenne précise de l’eau au moment de l’observation ainsi que l’heure.
On recommande l’emploi de la terminologie suivante, sauf dans les messages codés, pour la
transmission de renseignements et de prévisions météorologiques destinés à la navigation
maritime, à des publications, à l’aviation, etc.:
Dans tous les cas, lorsqu’une mesure tombe sur une valeur limite, elle doit être rattachée à la
catégorie inférieure; par exemple une mer de quatre mètres est décrite comme forte. Quand
aucun des termes ci‑dessus ne décrit correctement l’état de la mer, il faudrait employer le
qualificatif «confus».
4.2.2.14 Glace
On peut observer plusieurs formes de glace flottante en mer. La plus courante est produite par
la congélation de l’eau à la surface, à savoir la glace de mer. Cette dernière est présentée dans
OMM (1970).
Les autres formes sont la glace de cours d’eau et la glace d’origine terrestre. La glace de cours
d’eau se trouve dans les ports et les estuaires, où elle est entraînée par les courants de marée et
ne présente qu’un obstacle temporaire à la navigation. On traitera plus loin, dans un paragraphe
distinct, des glaces d’origine terrestre ou icebergs.
Les icebergs et la glace de mer peuvent être dangereux pour le transport maritime et tous deux
influent sur la navigation. La glace de mer modifie également les processus normaux d’échange
d’énergie entre la mer et l’air. L’étendue de la couverture de glace, qui varie sensiblement d’une
année à l’autre, a des effets marqués sur les zones océaniques adjacentes et sur les conditions
climatiques de grandes régions du globe. Les météorologistes et les océanographes s’intéressent
donc grandement à la répartition de cette couverture. Même si les observations à grande échelle
CHAPITRE 4. OBSERVATIONS MARITIMES 675
ont complètement changé avec l’apparition de la photographie par satellite, on a encore recours
à des stations côtières, à des navires et à des aéronefs afin de recueillir des données précises et de
vérifier sur le terrain les observations satellitaires.
Pour le moment, les mesures concernant la glace flottante reposent presque entièrement sur des
estimations visuelles. Les seuls observations instrumentales proviennent de radars classiques ou
d’appareils plus récents, notamment les capteurs passifs à micro‑ondes ou le radar aéroporté à
balayage latéral. Comme les icebergs réfléchissent mal l’énergie radar, on ne peut pas toujours
les détecter par ce moyen.
Le givrage peut être très dangereux en raison de ses effets sur les navires de petite taille, en
particulier si leur jauge brute est inférieure à 1 000 tonneaux environ. Même sur les bâtiments
plus importants, il peut provoquer des pannes de radio et de radar en raison du givrage des
antennes. La visibilité depuis la passerelle peut aussi être affectée. Des problèmes se sont
produits en raison du givrage de la cargaison située sur le pont de grands porte‑conteneurs.
Mis à part son effet possible sur la stabilité, le givrage peut rendre difficile le déchargement de
la cargaison dans le port de destination si les conteneurs et leurs amarres sont gelés et adhèrent
au pont. Les bateaux de pêche sont particulièrement sensibles au givrage. On trouvera de
plus amples informations dans le document OMM (1991b), les aspects météorologiques de la
question étant présentés en détail dans le document OMM (1974).
Il existe deux types principaux de givrage en mer: le givrage dû à l’eau de mer et le givrage dû
à l’eau douce. Le givrage dû à l’eau de mer peut provenir des embruns et de l’eau projetés par
l’interaction entre le navire ou l’installation et les vagues, des embruns soufflés depuis les crêtes
des vagues, ou des deux. Le givrage dû à l’eau douce peut provenir de la pluie verglaçante et/
ou de la bruine, ou, parfois, d’une chute de neige fondue suivie d’une baisse de température,
ou il peut provenir d’un brouillard givrant. Les deux types de givrage peuvent se produire
simultanément.
Les deux facteurs météorologiques les plus importants gouvernant le givrage en mer sont la
vitesse du vent et la température de l’air. Plus la vitesse du vent relatif par rapport au navire
est importante et plus la température est basse, plus le givrage est important. Il n’y a pas de
température limite de l’air au‑dessous de laquelle le risque de givrage diminue.
Le code de l’OMM (OMM, 2011b, 2011c) utilisé pour les bulletins météorologiques radio
émanant de navires en mer prévoit l’inclusion d’informations sur le givrage, soit sous forme
codée, soit en langage clair. La forme codée, groupe isolé de cinq chiffres, prévoit des
informations sur la cause du givrage, l’épaisseur de la glace et le taux de givrage. Les messages
en clair, qui doivent être précédés du mot ICING (givrage), sont particulièrement recommandés
pour indiquer des caractéristiques du givrage dangereuses pour les navires.
est rapide et que le vent est très faible, on obtient une couche élastique caractéristique du
nilas. Cette glace peut être sombre ou claire, selon son épaisseur; le nilas clair, plus ancien, peut
atteindre une épaisseur de 10 cm.
Sous l’effet du vent et des vagues, la glace vitrée ou le nilas peuvent se fractionner en «crêpes de
glace» susceptibles ultérieurement de geler et de s’épaissir pour donner de la glace grise et de la
glace blanchâtre, cette dernière pouvant atteindre 30 cm d’épaisseur. Ces glaces sont regroupées
sous le terme générique de jeune glace. Le mauvais temps peut les scinder en glaçons ou en
plaques de glace de différentes tailles.
Glace de 30 cm à 2 m d’épaisseur
L’étape suivante est la glace de première année, qui peut être mince, moyenne ou épaisse; la
glace mince de première année a une épaisseur qui se situe entre 30 et 70 cm, la glace moyenne
entre 70 et 120 cm et la glace épaisse des régions polaires peut atteindre 2 m environ à la fin de
l’hiver.
Vieille glace
La glace épaisse de première année qui survit à une saison de fonte estivale est appelée vieille
glace. Entrent dans cette catégorie la glace de deuxième année et la glace de plusieurs années,
selon qu’elle a traversé un ou plusieurs étés. L’épaisseur de la vieille glace varie normalement
de 1,2 à 3 m ou plus avant le début de la saison de fonte. Vers la fin de l’été, elle peut être
nettement moins épaisse. Il est souvent possible de reconnaître la vieille glace à sa teinte bleutée
en surface, tandis que la glace de première année présente une teinte verdâtre.
Couverture de neige
La glace se recouvre généralement de neige en hiver, ce qui l’isole de l’air et tend à ralentir sa
croissance. L’épaisseur de cette couverture varie considérablement d’une région à l’autre, selon
les conditions climatiques. Elle varie aussi sur des courtes distances en raison des vents et de la
topographie particulière de la glace.
Lorsque la glace est recouverte de neige, près de 90 % du rayonnement reçu est réfléchi vers
l’espace. La neige peut toutefois commencer à fondre quand la température de l’air excède
0 °C, au début de l’été. L’eau douce qui en résulte forme des mares à la surface, qui absorbent
environ 90 % du rayonnement et grossissent rapidement en faisant fondre la neige ou la glace
environnante. Elles peuvent même transpercer la banquise et former ce qu’on appelle des trous
de fonte. Ce lent processus de décroissance est propre à l’océan Arctique et aux mers dans
lesquelles le mouvement des glaces est limité par des côtes ou des îles. Lorsque la glace peut
dériver jusque dans des eaux plus chaudes (par exemple l’Antarctique, l’est du Groenland et la
mer du Labrador), la décroissance est accélérée par l’érosion due aux vagues et par l’élévation de
la température de l’air et de la mer.
On répartit la glace de mer en deux catégories selon sa mobilité: la glace dérivante, qui se
déplace en permanence sous l’effet du vent et des courants, et la banquise côtière, immobilisée
le long de certaines côtes ou îles. Lorsque la concentration est élevée (au moins 7/10), la glace
dérivante peut être appelée banquise.
La tension du vent sur la glace dérivante fait déplacer les plaques à peu près dans la direction
du vent. La force déviante liée à la rotation de la Terre (force de Coriolis) modifie la trajectoire
de la glace d’à peu près 30° à droite de la direction du vent de surface dans l’hémisphère
Nord. Comme le vent de surface est lui‑même dévié d’autant mais dans la direction opposée
par rapport au vent géostrophique (mesuré directement à partir des isobares), la direction de
déplacement des plaques de glace, attribuable à la seule dérive due au vent, est considérée
comme parallèle aux isobares.
CHAPITRE 4. OBSERVATIONS MARITIMES 677
La vitesse de déplacement varie non seulement en fonction de la vitesse du vent, mais aussi selon
la concentration et la déformation de la glace (voir le paragraphe ci‑dessous). Quand la densité
est faible (1/10 à 3/10) la glace peut réagir beaucoup plus au vent que lorsque la concentration
est plus importante (7/10 ‑8/10), et que la glace comporte donc peu de vides. On estime la
vitesse moyenne de dérive due au vent à 2 % de la vitesse du vent pour des glaces denses, mais
des glaces moins denses peuvent se déplacer beaucoup plus vite. Les glaces dérivantes flottant à
la surface sont également soumises aux courants présents dans les couches supérieures de l’eau,
courants de marée ou courants présentant une direction plus constante en raison d’autres forces.
Il est généralement très difficile de savoir si la glace est entraînée par les vents ou les courants,
mais lorsque les deux facteurs sont présents, le déplacement résultant est toujours la somme
vectorielle des deux. Normalement, c’est la tension du vent qui prévaut, en particulier au large
des côtes.
La surface de la glace se déforme sous l’effet des pressions. Quand il s’agit de nouvelle ou de
jeune glace, cela peut donner lieu à un phénomène d’empilement, les plaques montant les
uns sur les autres. Dans le cas d’une glace plus épaisse, on assiste à la formation de dorsales et
de monticules, selon le type de forces convergentes à l’origine de la pression. Au cours de ce
processus, lorsque les blocs s’entassent au‑dessus du niveau général de la glace, de grandes
quantités de glace s’enfoncent sous le poids des monticules. La partie immergée d’une dorsale
peut correspondre à trois à cinq fois sa hauteur, ce qui présente de graves dangers pour le
transport maritime. Il est généralement moins difficile de naviguer à proximité de dorsales
récemment formées qu’entre des dorsales plus anciennes, qui sont consolidées et érodées.
4.2.2.14.3 Icebergs
Les icebergs sont de grandes masses de glace flottante qui se sont détachées de glaciers ou
de plates‑formes glacière. Leur profondeur sous l’eau par rapport à leur hauteur au‑dessus
du niveau de la mer varie grandement selon leur forme. La masse sous‑marine d’un iceberg
antarctique provenant d’une plate‑forme flottante est généralement moindre que celle d’un
iceberg issu d’un glacier du Groenland. Pour un iceberg tabulaire antarctique typique, dont
les 10 à 20 m supérieurs sont constitués de vieille neige, on estime que le rapport entre la partie
émergée et la partie immergée est de un pour cinq, tandis que dans le cas d’un iceberg arctique,
presque entièrement composé de glace et recouvert de beaucoup moins de neige, ce rapport est
habituellement de un pour huit.
Les icebergs diminuent de taille par vêlage, fonte et érosion due aux vagues. On dit qu’un iceberg
vêle quand il se fragmente. Ce phénomène perturbe son équilibre, ce qui risque de modifier son
angle de dérive ou de le faire chavirer. Les icebergs présentent souvent de grandes projections
sous‑marines, parfois difficiles à observer. Dans les eaux froides, la fonte a principalement lieu
au niveau de la ligne de flottaison. Dans les eaux chaudes, c’est par le dessous que survient ce
phénomène et l’iceberg vêle fréquemment. Il est particulièrement dangereux de s’approcher
d’un iceberg qui fond dans des eaux chaudes, car il est instable et peut se fragmenter ou se
retourner à tout moment. Lorsqu’un iceberg se désagrège rapidement, il est souvent entouré
de nombreux bourguignons et fragments d’icebergs, qui constituent un véritable péril pour la
navigation.
Comme les icebergs ne réfléchissent pas bien l’énergie radar, il n’est pas toujours possible de les
détecter de cette façon. Les bourguignons et les fragments d’icebergs sont encore plus difficiles
à déceler à l’aide d’un radar à bord d’un navire, car ils sont souvent masqués par les échos fixes
provenant des vagues et de la houle. Les petits fragments sont particulièrement dangereux pour
la navigation en dépit de leur taille réduite, leur masse étant suffisante pour endommager un
navire qui les heurterait à une vitesse de croisière normale. Certains bourguignons constitués de
glace pure sont très difficiles à apercevoir, car ils dépassent à peine de la surface de la mer.
678 PARTIE II. SYSTÈMES D’OBSERVATION
Une bonne observation des glaces exige la connaissance de la nomenclature et une certaine
expérience. Avec ses illustrations, la publication OMM (1970) constitue le meilleur guide pour
identifier les glaces.
a) L’épaisseur: stade de formation (nouvelle glace, jeune glace, glace de première année,
vieille glace et leurs sous‑catégories);
c) La forme de la glace, qu’il s’agisse d’une banquise côtière ou de glace dérivante, et la taille
des plaques qui la constituent;
Comme les icebergs représentent une véritable menace pour la navigation, en particulier la nuit
ou dans des conditions de faible visibilité, il est important de signaler aussi le nombre d’icebergs
en vue au moment de l’observation, en particulier dans les eaux où ils sont moins fréquents.
Les observations de glace de mer peuvent être transmises en langage clair ou en code. L’OMM a
adopté deux codes internationaux pour la glace de mer. Le plus simple est le groupe ICE ajouté à
la forme symbolique SHIP. Le code ICEAN a été mis au point à l’intention des spécialistes pour la
transmission d’analyses et de prévisions concernant la glace de mer.
Voici les deux règles de base à respecter lors des observations effectuées à partir de navires et de
stations côtières:
b) Établir l’état des glaces en mer en deçà d’un rayon n’excédant pas la moitié de la distance
séparant le point d’observation de l’horizon.
L’OMM a élaboré une série de symboles pour les cartes de l’état actuel et prévu des glaces de
mer. Ces symboles sont destinés à l’échange international de renseignements et à la transmission
par radiotélécopie de données sur les glaces.
Les observateurs en mer peuvent consigner des phénomènes naturels dans des livres de bord
traditionnels ou des registres électroniques. Toutefois, les phénomènes spéciaux qui ont été
observés ne peuvent normalement pas être transmis sur le SMT en raison des limitations du
format international. Les observations peuvent être communiquées sous la forme de descriptions
écrites, de croquis, de photographies ou d’une combinaison de procédés. Des phénomènes très
divers peuvent être communiqués, notamment:
Des publications nationales ou des consignes figurant dans les registres électroniques indiquent
quels types de phénomènes méritent d’être communiqués et les informations nécessaires pour
signaler des types particuliers de phénomènes.
Les bouées ancrées présentent une large variété de configurations (en terme de système
d’ancrage, de types de capteurs, de procédés d’échantillonnage, de techniques de montage,
de télémétrie, etc.) servant à différentes sortes d’applications opérationnelles et de recherche
et à diverses disciplines. Cette section, qui n’indique pas les nombreuses possibilités exploitées
dans les systèmes actuels, porte sur les conditions des mesures météorologiques maritimes
effectuées par des bouées météorologiques ancrées opérationnelles. On trouvera dans
d’autres publications et sur certains sites Web des informations concernant d’autres systèmes
correspondant aux besoins des applications en matière de recherche, notamment:
• Les bouées TRITON ancrées dans les mers tropicales du Pacifique Ouest: http://www.
jamstec.go.jp/jamstec/TRITON/real_time/php/top.php
• Les bouées plus récentes m‑TRITON ancrées dans l’océan Indien: http://www.jamstec.go.
jp/iorgc/iomics/index.html
Les bouées ancrées en haute mer sont généralement équipées de capteurs permettant de
mesurer les éléments suivants:
a) La vitesse du vent;
b) La direction du vent;
c) La pression atmosphérique;
f) La température de l’air;
e) La salinité de surface;
g) La visibilité atmosphérique;
h) Les précipitations;
Pour les vagues, on mesure ou on évalue généralement les variables suivantes en utilisant les
définitions ci‑après (voir aussi la section 4.2.2.13 pour compléter ces définitions):
Hauteur significative des vagues. Évaluation de la hauteur moyenne du tiers des vagues les plus
hautes;
Hauteur maximale des vagues. Hauteur maximale des vagues observées pendant un temps
déterminé.
Période moyenne des vagues qui passent par la valeur zéro. Période des vagues correspondant au
passage par la valeur zéro de la hauteur en surface, qu’on peut évaluer à partir du moment du
deuxième ordre de la fréquence du spectre d’énergie des vagues.
Hauteur de crête. Hauteur des vagues correspondant au maximum du spectre d’énergie des
vagues (partie du spectre ayant l’énergie la plus élevée).
Période de crête. Période des vagues correspondant à la hauteur maximale du spectre d’énergie
des vagues.
Période du spectre des vagues. Période des vagues correspondant à la fréquence moyenne du
spectre.
Désormais, on considère que les observations émanant de bouées ancrées sont de meilleure
qualité que celles émanant de navires du point de vue de l’exactitude et de la fiabilité des
mesures (Wilkerson et Earle, 1990; Ingleby, 2010). En effet, les bouées ancrées sont généralement
considérées comme produisant les observations de la plus haute qualité d’une vaste gamme
de variables météorologiques maritimes et, outre leur utilisation par des prévisionnistes et leur
assimilation dans des modèles de prévision numérique du temps, elles fournissent également des
informations sur la climatologie des zones océaniques, des données de terrain de référence pour
le calibrage et/ou la validation des satellites et des évaluations des flux de surface (par exemple
Bourras, 2006).
CHAPITRE 4. OBSERVATIONS MARITIMES 681
Les incertitudes caractéristiques des mesures obtenues de bouées opérationnelles sont les
suivantes:
L’ensemble standard de capteurs montés sur les bouées ancrées mesure la vitesse du vent,
les rafales maximales (par exemple les rafales sur 3 à 5 s selon les prescriptions nationales), la
direction du vent, la pression barométrique, la température de l’air, la température de l’eau et les
spectres non directionnels d’énergie des vagues océaniques, à partir desquels on détermine la
hauteur significative des vagues et leur période maximale (ou moyenne). Pour les tsunamètres, la
mesure standard est la hauteur de la colonne d’eau.
De nombreuses bouées déployées dans des zones sensibles aux cyclones ou à de fortes
dépressions sont à même de mesurer des données de pression moyenne sur une minute. Ces
données sont enregistrées lorsque les données horaires de pression passent sous un seuil
prédéterminé (par exemple 1 008 hPa dans les tropiques). Les conditions de production de
données supplémentaires sur la pression sont les suivantes:
La mesure du vent est l’une des mesures les plus importantes effectuées par les bouées ancrées.
Elle est indispensable aux prévisionnistes de la météorologie marine.
682 PARTIE II. SYSTÈMES D’OBSERVATION
Définitions:
La direction du vent est la direction d’où souffle le vent, exprimée en degrés dans le sens horaire à
partir du nord vrai. Il s’agit de la moyenne vectorielle du relevé de la direction du vent.
La vitesse du vent est la moyenne scalaire de cette vitesse sur l’intervalle d’échantillonnage
(habituellement 10 minutes).
La vitesse maximale du vent est la vitesse la plus élevée du vent notée dans les relevés. Les rafales
sont déterminées à partir de la moyenne glissante des relevés sur un intervalle court (par
exemple 5 s).
Le vent est généralement mesuré par un anémomètre à hélice ou par un anémomètre à coupelles
et une girouette. Pour éviter l’usure mécanique, on commence à utiliser dans les bouées ancrées
des capteurs de vitesse et de direction du vent à ultrasons, sans pièces mobiles. Normalement, on
associe la mesure de la direction du vent à celle provenant d’un compas afin de pouvoir corriger
la direction relative du vent pour en obtenir la direction vraie.
Certains Membres utilisent généralement sur les bouées ancrées des girouettes à quatre pales
reliées à un rotor. Les mesures finales sont des évaluations statistiques du vent issues d’une série
chronologique d’échantillons de vent instantané recueillis à une fréquence minimale de 1 Hz sur
une durée déterminée. Le taux d’échantillonnage est fonction de la capacité de traitement. Dans
la plupart des bouées ancrées, on utilise une période d’acquisition de 8 minutes. Ces mesures
standard de vent sont effectuées toutes les heures.
Sur les bouées ancrées de certains Membres, la vitesse du vent à 10 m et 20 m au‑dessus du site
est déduite d’un algorithme (Liu et al., 1979) faisant intervenir la hauteur de l’anémomètre, la
vitesse du vent, une humidité relative constante de 85 %, une pression constante au niveau de
la mer de 1 013,25 hPa et la température de l’air et de l’eau. Si la température de l’air ou celle
de l’eau n’est pas disponible, on suppose qu’elles sont égales, en tenant compte que cela peut
introduire une erreur allant jusqu’à 5 %. Si les deux variables sont manquantes, les vitesses de
vent à 10 et 20 m ne sont pas calculées.
4.3.3 Température
La température est l’une des mesures de base de la météorologie. On fait généralement appel à
des thermistances électroniques pour effectuer toutes les mesures de température, exprimées en
degrés Celsius (°C). Ces mesures permettent également de déduire la pression au niveau de la
mer de la pression atmosphérique à une altitude non standard et la vitesse du vent à une altitude
standard d’une mesure à une altitude non standard.
CHAPITRE 4. OBSERVATIONS MARITIMES 683
En général, la mesure de la température de l’air est très fiable. Il est à noter cependant que la
position physique des capteurs de température risque d’affecter les mesures. Les emplacements
des thermomètres peuvent entraîner des relevés non représentatifs en cas de vent faible. La
température de l’air est mesurée à une fréquence déterminée pendant la période d’acquisition
(en général 1 Hz ou 0,1 Hz).
Si la mesure de la température de l’eau pose en général peu de problèmes, il est à noter que la
profondeur des capteurs varie selon la coque des bouées et que les capteurs de température
des bouées sont fixés à l’intérieur de leur coque. Comme ces coques sont de bons conducteurs
thermiques, les températures mesurées correspondent à la température moyenne de l’eau
avoisinant la coque immergée et non pas à la température de l’eau proche du capteur. Dans une
eau hautement stratifiée, surtout l’après‑midi et par vent calme, la température relevée par une
bouée peut être inférieure de 2 °C à 3 °C à la température pelliculaire de l’eau.
L’évaluation de l’état de la mer est sans doute la mesure la plus complexe effectuée à partir de
bouées ancrées. Elle est très importante pour les prévisionnistes en météorologie maritime,
les marins, les océanographes et autres scientifiques. Sur une bouée, toutes les mesures de
base concernant les vagues sont déduites d’une certaine façon de la série chronologique des
mouvements des bouées. Le National Data Buoy Center américain donne des informations
détaillées sur la mesure des vagues qu’il effectue (National Data Buoy Center, 2003, 2009).
Ce qu’on appelle «état de la mer» est une description des propriétés des vagues océaniques
à un moment et à un endroit donné. Il peut être représenté par le spectre des vagues ou, plus
simplement, la hauteur significative des vagues et une mesure de leur période (American
Meteorological Society, 2000). De nombreuses bouées ancrées fournissent la mesure de la
densité de la variance spectrale (Frigaard et al., 1997), qu’on appelle densité spectrale des
vagues. La plupart des bouées obtiennent l’ensemble des paramètres non directionnels
des vagues, hauteurs, périodes, pente, etc. à partir de cette densité spectrale. En outre, de
nombreuses bouées mesurent le spectre directionnel des vagues, dont elles déduisent la
direction moyenne et principale des vagues et les premières et deuxièmes coordonnées polaires
normalisées à partir des coefficients de Fourier, que les centres diffusent au moyen des codes
alphanumériques FM‑65 WAVEOB de l’OMM (OMM, 2011b, 2011c).
La plupart des bouées sont équipées d’accéléromètres qui mesurent leur élévation. Les
accéléromètres, montés de façon à rester verticaux par rapport à la coque ou stabilisés
parallèlement à la verticale de la Terre, sont utilisés dans les bouées et effectuent la grande
majorité des mesures des vagues. La stabilisation verticale, lorsqu’on y fait appel, est obtenue
au moyen d’un capteur de houle, de tangage et de roulis dont le plan de référence est monté sur
une plate‑forme stabilisée par gravité et indique une période naturelle de l’ordre de 40 secondes.
Ce type de matériel, qui est onéreux, comporte un système mécanique intégré permettant de
garder l’accéléromètre à la verticale lorsque la bouée et le capteur s’inclinent.
Des systèmes opérationnels non directionnels de mesure des vagues donnent des évaluations
de l’accélération ou des spectres de déplacement. S’ils ne sont pas indiqués directement, les
spectres de déplacement sont déduits des spectres d’accélération dans le cadre des calculs
684 PARTIE II. SYSTÈMES D’OBSERVATION
nécessaires pour le traitement à terre des données sur les vagues. À partir de ces spectres, on
calcule la période moyenne des vagues, leur période dominante, leur hauteur significative et leur
pente. Ces paramètres non directionnels des vagues se définissent ainsi:
La période moyenne des vagues, exprimée en secondes, peut être calculée de diverses façons.
Elle peut correspondre à la fréquence des vagues, qui divise leur spectre en zones égales, ou elle
peut être fondée sur le moment du deuxième ordre de la fréquence de la densité spectrale non
directionnelle. On peut aussi l’évaluer grâce à une méthode de passage par la valeur zéro.
La période dominante ou la période de crêtes des vagues, exprimée en secondes, est la période
correspondant à la fréquence centrale de la bande de fréquences avec une densité spectrale non
directionnelle maximale.
La hauteur significative des vagues, Hm0, est évaluée à partir de la variance du déplacement des
vagues déduite du spectre de déplacement selon l’équation suivante:
1
fu 2
H m0 = 4 S ( f ) df
∫
f1
où S(f ) désigne la densité spectrale de déplacement, df la largeur de la bande de fréquences, f u la
limite supérieure de fréquences, f1 la limite inférieure de fréquences.
Les systèmes directionnels de mesure des vagues requièrent, outre la mesure de l’accélération
verticale ou de l’élévation (déplacement), l’azimut de la bouée, le tangage et le roulis. Ces
paramètres permettent de calculer la pente est‑ouest et la pente nord‑sud. Dans la plupart des
bouées, on utilise diverses méthodes et divers ensembles de capteurs pour mesurer ces angles.
Pour que les systèmes de mesure du spectre directionnel des vagues soient utiles à l’ensemble
des utilisateurs, il est recommandé (Swail et al., 2010a; Swail et al., 2010b) de faire en sorte qu’ils
permettent d’évaluer cinq variables («the first 5») de façon fiable. Techniquement, il s’agit de
cinq variables définies pour une fréquence (ou période) donnée des vagues. La première variable
est l’énergie des vagues, qui est liée à leur hauteur, et les quatre autres sont les quatre premiers
coefficients de la série de Fourier, qui définissent la répartition directionnelle de cette énergie.
Pour chaque bande de fréquences, on définit non seulement la direction des vagues, mais aussi
leur dispersion (moment du deuxième ordre), leur asymétrie (moment du troisième ordre) et leur
kurtosis (quatrième ordre). L’asymétrie indique de quelle façon la répartition directionnelle est
concentrée (à gauche ou à droite de la moyenne), tandis que le kurtosis définit l’aplatissement
de la répartition. L’obtention de ces trois paramètres supplémentaires (dispersion, asymétrie
et aplatissement) pour chaque bande de fréquences permet d’améliorer la représentation du
champ des vagues.
La mesure des vagues par des bouées ancrées sert également à valider les mesures des vagues
émanant de radars haute fréquence.
La plupart des tsunamètres montés sur des bouées indiquent le niveau de l’eau (en fait la hauteur
de la colonne d’eau) en se basant sur des mesures de la pression et de la température réalisées au
fond des océans et converties en hauteur de la colonne d’eau en multipliant la pression par une
constante absolue de 670 mm par livre par pouce carré.
CHAPITRE 4. OBSERVATIONS MARITIMES 685
Les capteurs d’humidité employés dans les bouées comprennent un circuit qui mesure l’humidité
grâce à la variation de capacité d’un polymère fin exposé aux fluctuations de la vapeur d’eau.
Une membrane perméable aux gaz protège les pièces électroniques des embruns et des
particules, mais laisse entrer l’air dans le réservoir de l’instrument. Le capteur d’humidité est
dépendant de la température, et intègre donc une sonde de température qui fournit une
correction de température lors du calcul de l’humidité relative. L’acquisition de la donnée du
capteur est réalisée à une fréquence donnée lors de la période de mesure (par exemple 1 Hz
pour les bouées ancrées américaines et canadiennes). Sur les bouées britanniques, françaises
et irlandaises de la série K, on réalise une acquisition de valeur instantanée du circuit électrique
hygrométrique au moment de l’observation.
Pour comprendre et prévoir le comportement des océans, il faut surveiller leurs propriétés.
De nombreuses bouées permettent de surveiller les océans en mesurant les courants de
surface, les profils des courants, la température à proximité de la surface et la qualité de l’eau.
Parmi les paramètres se rapportant à la qualité de l’eau, on compte la turbidité, le potentiel
d’oxydoréduction (Eh), le pH, la chlorophylle a et l’oxygène dissous. Les données provenant de
bouées subissent un contrôle qualité en temps réel et, si possible, ces données sont diffusées sur
le SMT.
Les courants de surface sont mesurés pour fournir un appui au commerce, à la sécurité des
opérations, à des missions de recherche et de sauvetage et à des interventions à la suite de
marées noires, et faciliter la détermination des courants situés près de l’entrée des ports qui se
répercutent sur le transport maritime. La mesure des courants de surface par des bouées sert
aussi à valider la mesure de ces courants par des radars à haute fréquence. La plupart des bouées
acquièrent ces données grâce à des échantillonneurs acoustiques Doppler installés sur celles‑ci.
Les profils des courants océaniques indiquent le mouvement des océans à divers niveaux de la
colonne d’eau. Ces informations sont essentielles pour évaluer la dispersion des marées noires,
pour les opérations de recherche et de sauvetage, pour mesurer les contraintes qui s’exercent sur
les plates‑formes en mer et pour valider les modèles océaniques. Actuellement, ces données sont
acquises par des systèmes dirigés vers le bas et montés sur des bouées ou dans des cages. Sur les
plates‑formes pétrolières en mer, le profil des courants peut être descendant à partir de certains
niveaux de la colonne d’eau, ou ascendant à partir d’un système installé sur le fond.
La plupart des bouées reposent sur la technique des profileurs Doppler pour leurs capteurs
principaux de collecte de données de profil des courants océaniques. Ceux‑ci émettent des
impulsions d’énergie acoustique de courte durée et de haute fréquence le long de faisceaux
étroits. Les particules diffusantes (sans doute du necton et du plancton à déplacement passif)
situées dans la colonne d’eau renvoient l’énergie rétrodiffusée et les instruments traduisent les
déplacements de fréquences Doppler le long du faisceau en coordonnées cartésiennes pour
indiquer les courants océaniques à divers niveaux de la colonne d’eau.
4.3.12 Salinité
Il faut connaître la salinité de l’eau de mer pour initialiser les modèles océaniques permettant
d’obtenir des prévisions océaniques et de prévoir la circulation dans les océans (qui est largement
fonction de la densité). En général, on déduit la salinité de la mesure de la conductivité de l’eau
de mer. Certains instruments donnent la salinité directement (par le biais de calculs internes) et
686 PARTIE II. SYSTÈMES D’OBSERVATION
4.3.13 Précipitations
Des pluviomètres à siphon ont été montés sur certaines bouées ancrées.
Le rayonnement solaire, qui a une influence importante sur les processus physiques, biologiques
et chimiques à proximité de l’interface atmosphère‑océan, intéresse les scientifiques et
les ingénieurs. On utilise la mesure du rayonnement solaire en surface pour étalonner les
radiomètres dans le domaine visible montés sur des satellites. Le capteur est placé le plus haut
possible sur la plate‑forme pour éviter les ombres. On mesure le flux radiatif du soleil en watts
par mètre carré et le rayonnement photosynthétiquement actif en micromoles par mètre carré
par seconde.
4.3.15 Visibilité
Des capteurs de visibilité sont montés sur certaines stations lorsque la visibilité est un élément
essentiel de la sécurité de la navigation. Ces capteurs mesurent l’extinction d’une lumière dans
un volume réduit d’air situé entre l’émetteur et le récepteur. Il est à noter que ces mesures
s’appliquent à un point unique et qu’il en existe plusieurs définitions similaires mais différentes.
Ces plates‑formes présentent beaucoup de points communs avec les bouées ancrées.
Cependant, étant donné leur taille et donc la charge utile qui peut être embarquée, il est
relativement simple d’installer des capteurs supplémentaires, par exemple des visibilimètres.
Par mauvais temps, les embruns produits par le navire lui‑même sont susceptibles de fausser les
valeurs mesurées. En général, toutefois, les performances obtenues sont équivalentes à celles des
stations météorologiques automatiques terrestres.
Il est possible d’installer des stations météorologiques automatiques standard semblables à celles
qu’on trouve à terre (voir le chapitre 1 de la partie II) sur des tours d’observation construites
près des côtes, dans des eaux relativement peu profondes, et sur des plates‑formes situées dans
des zones reculées. On y ajoute souvent certains capteurs, comme des appareils de mesure de
vagues et du niveau moyen de l’eau au‑dessus d’un point de référence, des célomètres et des
capteurs de visibilité. Les plates‑formes fixes peuvent inclure de grandes structures gravitaires,
des plates‑formes mobiles à vérins et des plates‑formes semi‑submersibles. Les plates‑formes
semi‑submersibles et à vérins ainsi que les navires de forage peuvent être considérés comme
des plates‑formes stationnaires du fait qu’ils sont amarrés ou placés dynamiquement de façon
à rester à un endroit donné en cours de fonctionnement. Sur les plates‑formes où il y a une
présence humaine et sur les plates‑formes pétrolières, les mesures peuvent être complétées
par une estimation visuelle des nuages, de la visibilité et du temps sensible, ce qui permet
d’établir des messages d’observation synoptique complets. Les observations visuelles émanant
de plates‑formes d’extraction de pétrole ou de gaz devraient être effectuées conformément
CHAPITRE 4. OBSERVATIONS MARITIMES 687
aux procédures recommandées à la section 4.2. Dans certains cas, toutefois, on fait appel à des
procédures différentes. Par exemple, une plate‑forme peut produire des données sur les vagues
émanant d’une bouée ancrée à proximité et des données sur la température de surface de la mer
issues d’un bateau de ravitaillement proche.
Les plates‑formes et les tours sont des structures pratiques pour le montage de capteurs
météorologiques. Leur installation et leur entretien sont généralement moins compliqués et plus
économiques que pour les bouées ancrées, entraînant donc de meilleures fréquence et fiabilité
des données. La qualité des données n’est pas affectée par les mouvements du navire ou de
la bouée et ces données risquent moins d’être erronées du fait des dommages de l’action des
vagues sur les capteurs.
En conclusion, donc, les tours fixes et les plates‑formes en mer peuvent constituer une source
économique de données, les bouées ancrées devant être utilisées à des endroits plus reculés où il
n’y a pas d’autre solution.
Les bouées dérivantes sont employées depuis de nombreuses années en océanographie, surtout
pour mesurer les courants de surface. La mise au point de systèmes fiables de localisation par
satellites et de transmissions des données (OMM/COI, 1995) a entraîné une multiplication du
nombre de bouées voguant librement à la surface des océans. Par ailleurs, les performances des
capteurs utilisés en météorologie et en océanographie ont beaucoup évolué.
La publication UNESCO (1988) contient une description des bouées dérivantes et de leur
fonctionnement. Plus récemment, le Groupe de coopération OMM/COI pour les programmes
de bouées de mesure (DBCP) a publié un document intitulé Surface Velocity Programme Barometer
Drifter Design Reference (OMM/COI, 2009a). Voir aussi les rapports annuels et les comptes rendus
d’ateliers du DBCP, comme OMM/COI (2004a, 2004b).
c) Pour les applications polaires, on a conçu diverses bouées sur glace devant mesurer
des variables atmosphériques traditionnelles ainsi que l’état de la glace et de la neige
(température de la glace/neige et profils de température de la glace, épaisseur de la glace,
tension de la glace, état de l’eau sous la glace). En repérant la position de la bouée sur la
glace, on peut évaluer les déplacements de la glace. On a cherché à mettre au point des
bouées qui répondent simultanément aux besoins de la recherche océanographique et de
la météorologie opérationnelle, d’où:
i) La mise au point de la bouée dérivante SVP‑B, qui, pour l’essentiel, est une bouée
entraînée par les courants de surface, à laquelle on a ajouté un capteur de pression de
l’air;
ii) La mise au point de la bouée dérivante SVP‑BW (ou Minimet), qui, pour l’essentiel, est
une bouée SVP‑B ayant la possibilité de mesurer le vent au moyen de la technique du
vent déduit du bruit ambiant (WOTAN);
Les bouées dérivantes n’étant pas récupérables, leurs performances sont le fruit d’un
compromis entre les exigences scientifiques et les considérations économiques. En sus des
coûts d’acquisition du matériel, il faudrait noter que les frais de traitement et de diffusion des
données par le biais du système de satellites Argos sont importants et peuvent être un facteur
limitant le déploiement des bouées dérivantes, bien que la mise en place récente du système
de télécommunications satellitaires Iridium réduise cet obstacle. Toutefois, le rendement des
capteurs montés sur des bouées dérivantes est suffisant pour la météorologie synoptique ou
l’océanographie, selon le cas. On notera que la qualité des observations sur la vitesse du vent
étant douteuse, celles‑ci ne sont pas employées par les centres opérationnels (Ingleby, 2010).
Les incertitudes généralement associées aux valeurs issues des systèmes opérationnels sont les
suivantes:
Capacités:
c) Disposer de cadres et de techniciens qualifiés ayant acquis l’expérience voulue pour remplir
les fonctions qui leur incombent;
d) Élaborer des instructions techniques particulières sur la manière d’étalonner les instruments
d’observation météorologiques et océanographiques connexes au moyen des appareils
d’étalonnage en leur possession;
g) Mettre à profit les ressources et les capacités propres à leur zone de compétence, selon qu’il
convient et dans le meilleur intérêt de celle‑ci;
h) Respecter, dans la mesure du possible, les normes internationales relatives aux laboratoires
d’étalonnage telles que la norme ISO/CEI 17025;
i) Faire l’objet d’une évaluation effectuée par une autorité reconnue3 au moins tous les cinq
ans, aux fins de vérification de leurs capacités et des résultats obtenus.
1
Recommandation formulée par la CMOM lors de sa troisième session (2009).
2
Essentiellement les instruments géophysiques d’observation in situ mis en place à la surface ou sous la surface des
océans.
3
La CMOM est l’organe qui formule officiellement des propositions quant à la désignation des nouveaux CRIM et au
choix des autorités chargées d’effectuer les évaluations.
690 PARTIE II. SYSTÈMES D’OBSERVATION
Fonctions correspondantes:
a) Aider les Membres et États Membres de leur zone de compétence à étalonner leurs étalons
nationaux utilisés en météorologie et leurs instruments de surveillance océanographiques
connexes, selon leurs capacités respectives;
c) Apporter un soutien agissant aux Membres et États Membres en ce qui concerne la qualité
des mesures;
d) Conseiller les Membres et États Membres à propos des enquêtes sur le fonctionnement et
la maintenance des instruments et sur la mise à disposition de documents d’information
pertinents;
f) Coopérer avec les autres CRIM en matière de normalisation des mesures et capteurs
météorologiques et océanographiques connexes;
g) Informer régulièrement les Membres et États Membres et rendre compte chaque année au
Comité de gestion de la CMOM des services offerts aux Membres et États Membres et des
activités menées. Pour sa part, la CMOM devrait informer les Conseils exécutifs de l’OMM
et de la COI de l’UNESCO de la situation et des activités des CRIM et proposer d’éventuels
changements, si besoin est.
a) La gouvernance pour la définition des fonctions et l’adoption d’un CRIM est proposée par la
CMOM et approuvée par les conseils exécutifs de l’OMM et de la COI de l’UNESCO;
b) Un candidat aux fonctions de CRIM doit produire une déclaration de conformité, indiquer
les capacités du centre proposé, déclarer l’ensemble des compétences offertes en matière
d’instruments, s’engager officiellement à accueillir volontairement le centre et faire la
preuve de ses capacités auprès de la CMOM;
c) La création d’un CRIM est instaurée par la CMOM et le processus de désignation est
coordonné par la CMOM et les Secrétariats de l’OMM et de la COI, conformément au
processus approuvé par la JCOMM et documenté dans le rapport technique N° 53 de cette
dernière;
d) Si plusieurs CRIM sont établis dans une même Région de l’OMM et/ou de la COI, les centres
devraient coordonner leur action.
3. Les centres suivants ont été désignés comme centres régionaux d’instruments
maritimes:
Amérique du Nord, Amérique United States National Data Buoy Center Stennis Space Center,
centrale et Caraïbes Mississippi, États‑Unis.
ANNEXE 4.B. DESCRIPTION DES PRÉCIPITATIONS À L’USAGE DES
OBSERVATEURS DU TEMPS PRÉSENT À BORD DE NAVIRES
Les précipitations qui ne prennent pas la forme d’averses proviennent généralement de nuages
stratiformes (principalement des altostratus et des nimbostratus). Les averses sont pour leur
part originaires de gros nuages convectifs (principalement des cumulonimbus ou des cumulus
d’extension verticale modérée à forte); en général, elles débutent et s’arrêtent brusquement et
présentent des variations d’intensité. Les gouttes et les particules solides déversées pendant une
averse sont souvent plus grosses que dans les autres formes de précipitations.
Les gouttelettes provenant des nuages peuvent être surfondues (c’est‑à‑dire que leur
température est inférieure à 0 °C). Lorsqu’elles frappent une surface, les gouttelettes de pluie
surfondue forment un mélange d’eau et de glace dont la température est voisine du point de
congélation.
Les catégories décrites ci‑après sont conformes aux définitions données dans l’Atlas international
des nuages, Volume I, partie III.2 (OMM, 1975).
Bruine. Précipitation assez uniforme de très fines gouttes d’eau, dont le diamètre est
normalement inférieur à 0,5 mm. Les gouttes semblent presque flotter, ce qui rend visible les
moindres mouvements atmosphériques. La bruine provient d’un couche continue et assez dense
de nuages stratiformes, généralement bas et touchant parfois la surface (brouillard). Pour le
codage, la bruine peut être dite faible, modérée ou forte:
a) Une bruine faible est facile à déceler sur les vitres de la timonerie mais produit peu
d’écoulement à partir des ponts, des toits, etc.;
b) Une bruine modérée provoque un ruissellement d’eau sur les vitres, les ponts et les
superstructures;
c) Une bruine forte a les mêmes effets qu’une bruine modérée. La visibilité est inférieure à
1 000 m.
a) Une pluie faible est composée de grosses gouttes éparses ou de nombreuses gouttes plus
petites. La vitesse d’accumulation sur les ponts est faible et les flaques se forment très
lentement;
b) Une pluie modérée est formée de gouttes que l’on ne peut distinguer clairement. Des
embruns sont visibles et les flaques se forment rapidement. Le bruit sur les toits va d’un
tapotement à un faible grondement;
c) Une pluie forte déverse des trombes d’eau avec fracas sur les bâches et les ponts et forme un
brouillard de fines gouttelettes en s’écrasant sur les ponts.
692 PARTIE II. SYSTÈMES D’OBSERVATION
Neige. Précipitation de cristaux de glace, agglomérés ou non, provenant d’un nuage. La forme,
la taille et la concentration des cristaux varient considérablement selon les conditions existant au
moment de la précipitation. Pour le codage, une chute de neige est dite faible, modérée ou forte.
Averses. Elles se caractérisent par un début et une fin brusques et par des variations généralement
rapides, parfois violentes, de leur intensité. Les gouttes et les particules solides déversées sont
généralement plus grosses que dans les autres formes de précipitations. C’est la nature des
nuages qui détermine si une précipitation (de pluie ou de neige) prendra ou non cette forme. Les
averses, issues de gros nuages convectifs, se définissent ainsi:
a) Une averse de pluie ou de neige peut être codée faible, modérée ou forte, en fonction de
son intensité. La description est identique à celle donnée pour une chute de pluie ou de
neige faible, modérée ou forte. II faut savoir, cependant, que la visibilité est beaucoup plus
variable pendant une averse que pendant une pluie continue codée de même intensité;
b) Une averse violente est une averse de pluie extrêmement forte ou torrentielle. On observe
surtout ce phénomène dans les régions tropicales.
Neige roulée. Précipitation de particules de glace blanches et opaques provenant d’un nuage,
généralement coniques ou sphériques, dont le diamètre peut atteindre 5 mm. Leur structure
étant proche de celle de la neige, ces grains sont friables et s’écrasent facilement. Lorsqu’ils
heurtent une surface dure, ils rebondissent et ont tendance à se casser. Les chutes de neige
roulée prennent souvent la forme d’averses, qui contiennent fréquemment des flocons de neige,
lorsque la température près de la surface est voisine de 0 °C. L’intensité des chutes de neige
roulée, quand elles surviennent seules, est déterminée par la visibilité, comme dans le cas de la
neige.
a) Une grêle faible se caractérise par la chute de quelques grêlons, sans accumulation notable
sur les surfaces planes;
b) Une grêle modérée produit une lente accumulation de grêlons, suffisante pour blanchir les
ponts;
c) Une grêle forte se traduit par une accumulation rapide de grêlons, phénomène rare en mer
sous les latitudes tempérées.
Grésil. Précipitation de particules de glace translucides provenant d’un nuage, quasi sphériques,
présentant parfois des pointes coniques. Leur diamètre peut atteindre, voire dépasser, 5 mm.
En général, le grésil ne s’écrase pas facilement et, lorsqu’il heurte une surface dure, il rebondit
en produisant un bruit sec. Il survient toujours sous forme d’averse. Pour le chiffrement, le grésil
peut être dit faible, modéré ou fort, selon le barème de la vitesse d’accumulation donné pour la
grêle.
Neige en grains. Précipitation de très petites particules de glace blanches et opaques provenant
d’un nuage, relativement plates ou allongées, dont le diamètre est généralement inférieur à
1 mm. Lorsqu’ils atteignent une surface dure, les grains ne rebondissent pas. Les chutes de
CHAPITRE 4. OBSERVATIONS MARITIMES 693
neige en grains sont en principe peu intenses, elles sont issues le plus souvent de stratus ou de
brouillard et ne prennent jamais la forme d’averses. Elles correspondent en quelque sorte à la
bruine et se produisent quand la température se situe entre 0 °C et ‑10 °C environ. Comme il
n’existe qu’une seule spécification de code pour la neige en grains, il n’est pas nécessaire de
préciser l’intensité de la précipitation.
ANNEXE 4.C. PROCÉDURES RECOMMANDÉES AUX NAVIRES
D’OBSERVATION PROCÉDANT À DES RELEVÉS MANUELS POUR
SIGNALER DES CAS DE HOULE
Les procédures recommandées aux navires d’observation procédant à des relevés manuels
pour signaler des cas de houle, convenues lors de la cinquième session de l’Équipe pour les
observations de navire (SOT‑V) en 2009 (OMM/COI, 2009b) et mises en œuvre avec l’accord de
l’Équipe d’experts en climatologie maritime (OMM/COI, 2010), sont les suivantes:
a) Lorsque la houle est «non déterminée», ce qui signifie qu’aucune observation n’a été tentée,
elle n’est pas signalée;
b) Lorsqu’aucune houle n’est observée, la mer étant calme, on indique que la direction de la
houle primaire et celle de la houle secondaire sont faibles. Il n’est pas nécessaire de signaler
la période et la hauteur de la houle primaire ni celle de la houle secondaire, car on peut
inférer que, si la mer est calme, ces éléments sont de peu d’ampleur, eux aussi, et qu’ils
n’apporteraient donc pas d’informations supplémentaires;
c) Quand la direction de la houle est indéterminée, on signale une houle confuse. Lorsque
la période et la hauteur de la houle sont également confuses, il convient de le mentionner
dans le message. La période et la hauteur de la houle secondaire peuvent être omises;
d) Lorsque la houle est confuse mais que la période et la hauteur peuvent être estimées, la
direction de la houle est indiquée comme étant confuse et la période et la hauteur de
la houle primaire sont intégrées dans le rapport. La période et la hauteur de la houle
secondaire peuvent être omises;
f) Lorsque deux houles sont observées, leurs directions, périodes et hauteurs respectives sont
intégrées dans le rapport.
RÉFÉRENCES ET AUTRES LECTURES
American Meteorological Society, 2000: Glossary of Meteorology, Deuxième édition (consultable à l’adresse
http://glossary.ametsoc.org/wiki/Main_Page).
Barton, I.J., P.J. Minnett, K.A. Maillet, C.J. Donlon, S.J. Hook, A.T. Jessup et T.J. Nightingale, 2004: The
Miami 2001 infrared radiometer calibration and intercomparison. Part II: shipboard results.
Journal of Atmospheric and Oceanic Technology, 21(2):268–283.
Bourras, D., 2006: Comparison of five satellite‑derived latent heat flux products to moored buoy data.
Journal of Climate, 19(24): 6291‑6313.
Bowditch, N., 2002: The American Practical Navigator: An Epitome of Navigation. Édition du bicentenaire 2002,
NIMA Pub. No. 9. National Imagery and Mapping Agency, Bethesda.
Bradley, F. et C. Fairall, 2006: A Guide to Making Climate Quality Meteorological and Flux Measurements at Sea.
NOAA Technical Memorandum OAR PSD‑311, NOAA/ESRL/PSD, Boulder, Colorado.
Dohan, K., F. Bonjean, L. Centurioni, M. Cronin, G. Lagerloef, D.‑K. Lee, R. Lumpkin, N. Maximenko,
P. Niiler et H. Uchida, 2010: Measuring the global ocean surface circulation with satellite and in
situ observations. Proceedings of OceanObs’09: Sustained Ocean Observations and Information for
Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA
Publication WPP‑306.
Donlon, C., I.S. Robinson, W. Wimmer, G. Fisher, M. Reynolds, R. Edwards et T.J. Nightingale, 2008: An
infrared sea surface temperature autonomous radiometer (ISAR) for deployment aboard
Volunteer Observing Ships (VOS). Journal of Atmospheric and Oceanic Technology, 25(1):93–113.
Fairall, C.W., A.B. White, J.B. Edson et J.E. Hare, 1997: Integrated shipboard measurements of the marine
boundary layer. Journal of Atmospheric and Oceanic Technology, 14(3):338–359.
Freeland, H., D. Roemmich, S. Garzoli, P.‑Y. Le Traon, M. Ravichandran, S. Riser, V. Thierry, S. Wijffels,
M. Belbéoch, J. Gould, F. Grant, M. Ignazewski, B. King, B. Klein, K. Mork, B. Owens,
S. Pouliquen, A. Sterl, T. Suga, M. Suk, P. Sutton, A. Troisi, P. Vélez‑Belchi et J. Xu, 2010: Argo – A
decade of progress. Proceedings of OceanObs’09: Sustained Ocean Observations and Information for
Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA
Publication WPP‑306.
Frigaard, P.B., J. Helm‑Petersen, G. Klopman, C.T. Standsberg, M. Benoit, M.J. Briggs, M. Miles, J. Santas,
H.A. Schäffer et P.J. Hawkes, 1997: IAHR list of sea parameters. Proceedings of the Twenty‑seventh
IAHR Congress (San Francisco, 10–15 août 1997).
Goni, G., D. Roemmich, R. Molinari, G. Meyers, C. Sun, T. Boyer, M. Baringer, V. Gouretski, P. DiNezio,
F. Reseghetti, G. Vissa, S. Swart, R. Keeley, S. Garzoli, T. Rossby, C. Maes et G. Reverdin, 2010:
The Ship of Opportunity Program. Proceedings of OceanObs’09: Sustained Ocean Observations and
Information for Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise,
21‑25 septembre 2009). ESA Publication WPP‑306.
Hall, J., D.E. Harrison et D. Stammer (dir.), 2010: Proceedings of OceanObs'09: Sustained Ocean Observations
and Information for Society. (Venise, 21–25 septembre 2009). ESA Publication WPP‑306.
Hasse, L., M. Grossklaus, K. Uhlig. et P. Timm, 1998: A ship rain gauge for use in high wind speeds, Journal of
Atmospheric and Oceanic Technology, 15 (2), 380‑386.
Ingleby, B., 2010: Factors affecting ship and buoy data quality: a data assimilation perspective. Journal of
Atmospheric and Oceanic Technology, 27:1476‑1489.
Keeley, R., M. Pazos et B. Bradshaw, 2010: Data management system for surface drifters. Proceedings of
OceanObs’09: Sustained Ocean Observations and Information for Society (Vol. 2). (dir.: J. Hall,
D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA Publication WPP‑306.
Kennedy, J.J., R.O. Smith et N.A. Rayner, 2012: Using AATSR data to assess the quality of in situ sea‑surface
temperature observations for climate studies. Remote Sensing of Environment, 116:79–92.
Kent, E.C., G. Ball, D. Berry, J. Fletcher, A. Hall, S. North et S. Woodruff, 2010: The Voluntary Observing Ship
(VOS) Scheme. Proceedings of OceanObs’09: Sustained Ocean Observations and Information for
Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA
Publication WPP‑306.
Kent, E.C. et D.I. Berry, 2005: Quantifying random measurement errors in Voluntary Observing Ships’
meteorological observations. Dans: Advances in the Applications of Marine Climatology – The
Dynamic Part of the WMO Guide to the Applications of Marine Climatology, JCOMM TR No. 13,
REV. 1 (WMO/TD‑No. 1081), John Wiley & Sons (consultable à l’adresse http://www.wmo.int/
pages/prog/amp/mmop/jcomm_reports.html).
Kent, E.C. et P.K. Taylor, 2006: Toward estimating climatic trends in SST, Part I: methods of measurement.
Journal of Atmospheric and Oceanic Technology, 23(3):464–475.
696 PARTIE II. SYSTÈMES D’OBSERVATION
Kent, E.C., P.K. Taylor, B.S. Truscott et J.S. Hopkins, 1993: The accuracy of Voluntary Observing Ships’
meteorological observations – Results of the VSOP‑NA. Journal of Atmospheric and Oceanic
Technology, 10(4):591–608.
Kent, E.C., S.D. Woodruff et D.I. Berry, 2007: Metadata from WMO publication no. 47 and an assessment of
Voluntary Observing Ship observation heights in ICOADS. Journal of Atmospheric and Oceanic
Technology 24(2):214–234.
Liu, W.T., K.B. Katsaros et J.A. Businger, 1979: Bulk parameterization of air‑sea exchanges of heat and water
vapor including the molecular constraints at the interface, Journal of Atmospheric Sciences, 36,
1722‑1735.
McPhaden, M.J., K. Ando, B. Bourlès, H.P. Freitag, R. Lumpkin, Y. Masumoto, V.S.N. Murty, P. Nobre,
M. Ravichandran, J. Vialard, D. Vousden et W. Yu, 2010: The Global Tropical Moored Buoy
Array. Proceedings of OceanObs’09: Sustained Ocean Observations and Information for Society
(Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA
Publication WPP‑306.
Meldrum, D., E. Charpentier, M. Fedak, B. Lee, R. Lumpkin, P. Niiler et H. Viola, 2010: Data buoy
observations: the status quo and anticipated developments over the next decade. Proceedings of
OceanObs’09: Sustained Ocean Observations and Information for Society (Vol. 2). (dir.: J. Hall,
D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA Publication WPP‑306.
Merrifield, M., T. Aarup, A. Allen, A. Aman, P. Caldwell, E. Bradshaw, R.M.S. Fernandes, H. Hayashibara,
F. Hernandez, B. Kilonsky, B. Martin Miguez, G. Mitchum, B. Pérez Gómez, L. Rickards,
D. Rosen, T. Schöne, M. Szabados, L. Testut, P. Woodworth, G. Wöppelmann et J. Zavala, 2010:
The Global Sea Level Observing System (GLOSS). Proceedings of OceanObs’09: Sustained Ocean
Observations and Information for Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer)
(Venise, 21‑25 septembre 2009). ESA Publication WPP‑306.
Moat, B.I., M.J. Yelland et A.F. Molland, 2006: Quantifying the airflow distortion over merchant ships, part
II: application of the model results. Journal of Atmospheric and Oceanic Technology,
23(3):351–360.
Moat, B.I., M.J. Yelland, R.W. Pascal et A.F. Molland, 2005: An overview of the airflow distortion at
anemometer sites on ships. International Journal of Climatology, 25(7):997–1006.
National Data Buoy Center, 2003: Non‑directional and Directional Wave Data Analysis Procedures. NDBC
Technical Document 03‑01, National Data Buoy Center, Stennis Space Center, Mississippi
(consultable à l’adresse http://www.ndbc.noaa.gov/wavemeas.pdf).
———, 2009: Handbook of Automated Data Quality Control Checks and Procedures, NDBC Technical Document
09‑02, National Data Buoy Center, Stennis Space Center, Mississippi (consultable à l’adresse
http://www.ndbc.noaa.gov/NDBCHandbookofAutomatedDataQualityControl2009.pdf).
O’Carroll, A.G., J.R. Eyre et R.W. Saunders, 2008: Three‑way error analysis between AATSR, AMSR‑E, and in
situ sea surface temperature observations. Journal of Atmospheric and Oceanic Technology,
25(7):1197–1207.
Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), 1988: Guide des bouées
de mesure dérivantes. COI/OMM, Manuels et guides 20.
Organisation météorologique internationale – Comité météorologique international (OMI‑CMI), 1947:
Procès‑verbaux de la session de Paris, 1946. Publication N° 55, 105–106. Lausanne, La Concorde.
Organisation météorologique mondiale, 1955–: Liste internationale de navires sélectionnés, supplémentaires et
auxiliaires ( OMM‑N°47), Genève (Série, depuis peu annuelle. Avant 1966, la publication
s’intitulait Liste internationale de navires sélectionnés et supplémentaires; les éditions futures
s’intituleront Liste internationale de navires sélectionnés, VOSClim, supplémentaires et auxiliaires)
(consultable à l’adresse http://www.wmo.int/pages/prog/www/ois/pub47/pub47‑home.htm).
———, 1962: Precipitation Measurements at Sea. Technical Note No. 47 (WMO‑No. 124, TP. 55), Genève.
———, 1970: Nomenclature OMM des glaces de mer. Volumes I et III (OMM‑N° 259. TP 145), Genève.
———, 1972: Comparative Sea‑surface Temperature Measurements (R.W. James et P.T. Fox). Report on Marine
Science Affairs No. 5 (WMO‑No. 336), Genève.
———, 1974: The Meteorological Aspects of Ice Accretion on Ships (H.C. Shellard). Report on Marine Science
Affairs No. 10 (WMO‑No. 397), Genève.
———, 1975: Atlas international des nuages: Manuel de l’observation des nuages et des autres météores
(OMM‑N° 407), Volume I, Genève.
———, 1981: Precipitation Measurement at Sea (G. Olbrück). Marine Meteorology and Related Oceanographic
Activities Report No. 1, Genève.
———, 1987: Atlas international des nuages (OMM‑N° 407), Volume II, Genève.
CHAPITRE 4. OBSERVATIONS MARITIMES 697
———, 1989: Wind Measurements Reduction to a Standard Level (R.J. Shearman et A.A. Zelenko). Marine
Meteorology and Related Oceanographic Activities Report No. 22 (WMO/TD‑No. 311),
Genève.
———, 1991a: Recueil de notes de cours de météorologie maritime pour la formation professionnelle du personnel
météorologique des classes III et IV (J.M. Walker) (OMM‑N° 434), Genève.
———, 1991b: The Accuracy of Ship’s Meteorological Observations: Results of the VSOP‑NA (E.C. Kent, B.S.
Truscott, P.K. Taylor et J.S. Hopkins). Marine Meteorology and Related Oceanographic
Activities Report No. 26 (WMO/TD‑No. 455), Genève.
———, 1998: Guide de l’analyse et de la prévision des vagues (OMM‑N° 702), Genève.
———, 1999: The accuracy of meteorological observations from Voluntary Observing Ships: Present status
and future requirements (P.K. Taylor et E.C. Kent). Final Report of the First Session of the
Commission for Marine Meteorology Working Group on Marine Observing Systems Subgroup on
Voluntary Observing Ships (Athènes, 1999), WMO TC CMM 1999 (consultable à l’adresse http://
eprints.soton.ac.uk/3 47754/
———, 2001: Guide de l’assistance météorologique aux activités maritimes (OMM‑N° 471), Genève.
———, 2010: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2011a: Manuel du Système mondial d’observation (OMM‑N° 544), Volume II, Genève.
———, 2011b: Manuel des codes (OMM‑N° 306), Volume I.1, Genève.
———, 2011c: Manuel des codes (OMM‑N° 306), Volume I.2, Genève.
Organisation météorologique mondiale/Commission océanographique intergouvernementale (COI),
1995: Guide to Data Collection and Location Services using Service Argos. Data Buoy Cooperation
Panel Technical Document No. 3, Genève et Paris.
———, 1996: Guide to Moored Buoys and Other Ocean Data Acquisition Systems (E.A. Meindl). Data Buoy
Cooperation Panel Technical Document No. 8, Genève et Paris.
———, 2003a: Improving global flux climatology: the role of metadata (E.C. Kent, P.K. Taylor et S.A. Josey).
Advances in the Applications of Marine Climatology – The Dynamic Part of the WMO Guide to the
Applications of Marine Meteorology (WMO/TD‑No. 1081), Genève et Paris.
———, 2003b: The accuracy of marine surface winds from ships and buoys (P.K. Taylor, E.C. Kent,
M.J. Yelland et B.I. Moat). Advances in the Applications of Marine Climatology – The Dynamic Part of
the WMO Guide to the Applications of Marine Meteorology (WMO/TD‑No. 1081), Genève et Paris.
———, 2003c: Establishing more truth in true winds (S.R. Smith, M.A. Bourassa et R.J. Sharp). Advances in
the Applications of Marine Climatology – The Dynamic Part of the WMO Guide to the Applications of
Marine Meteorology (WMO/TD‑No. 1081), Genève et Paris.
———, 2004a: Data Buoy Cooperation Panel: Annual Report for 2003. Data Buoy Cooperation Panel Technical
Document No. 25, Genève et Paris (consultable à l’adresse http://www.jcommops.org/dbcp/
doc/dbcp‑25/DBCP25.pdf).
——— 2004b: Research, Applications and Developments involving Data Buoys. Presentations at the Data Buoy
Cooperation Panel Technical Workshop (Angra Dos Reis, Brésil, octobre 2003). Data Buoy
Cooperation Panel Technical Document No. 24, Genève et Paris.
———, 2009a: Global Drifter Programme Barometer Drifter Design Reference (A.L. Sybrandy, P.P. Niiler,
C. Martin, W. Scuba, E. Charpentier et D.T. Meldrum). Data Buoy Cooperation Panel Report
No. 4, revision 2.2, Genève et Paris (consultable à l’adresse http://www.jcommops.org/doc/
DBCP/SVPB_design_manual.pdf)
———, 2009b: Final Report of the Fifth Session of the JCOMM Ship Observations Team (Genève, 18‑22 mai 2009),
JCOMM Meeting Report No. 63 (consultable à l’adresse http://www.jcomm.info/index.php?
option= com_oe&task=viewDocumentRecord&docID=3830).
———, 2010: Final Report of the Third Session of the JCOMM Expert Team on Marine Climatology (Melbourne,
Australie, 8–12 février 2010), JCOMM Meeting Report No. 70 (consultable à l’adresse http://
www.jcomm.info/index.php?option= com_oe&task=viewDocumentRecord&docID= 4950).
Send, U., R.A. Weller, D. Wallace, F. Chavez, R. Lampitt, T. Dickey, M. Honda, K. Nittis, R. Lukas,
M. McPhaden et R. Feely, 2010: OceanSITES. Proceedings of OceanObs’09: Sustained Ocean
Observations and Information for Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer)
(Venise, 21–25 septembre 2009). ESA Publication WPP‑306.
Smith, S.R., M.A. Bourassa, E.F. Bradley, C. Cosca, C.W. Fairall, G.J. Goni, J.T. Gunn, M. Hoo, D.L. Jackson,
E.C. Kent, G. Lagerloef, P. McGillivary, L. Petit de la Villéon, R.T. Pinker, E. Schulz, J. Sprintall,
D. Stammer, A. Weill, G.A. Wick et M.J. Yelland, 2010: Automated underway oceanic and
atmospheric measurements from ships. Proceedings of OceanObs’09: Sustained Ocean
Observations and Information for Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer)
(Venise, 21‑25 septembre 2009). ESA Publication WPP‑306.
698 PARTIE II. SYSTÈMES D’OBSERVATION
Swail, V., R.E. Jensen, B. Lee, J. Turton, J. Thomas, S. Gulev, M. Yelland, P. Etala, D. Meldrum, W. Birkemeier,
W. Burnett et G. Warren, 2010a: Wave measurement needs and developments for the next
decade. Actes de OceanObs’09: Sustained Ocean Observations and Information for Society (Vol. 2).
(dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA Publication
WPP‑306.
Swail, V., B. Lee, A. Soares, D. Resio, K. Horsburgh, T. Murty, S. Dube, M. Entel et J. Flowerdew, 2010b:
Storm Surge. Proceedings of OceanObs’09: Sustained Ocean Observations and Information for
Society (Vol. 2). (dir.: J. Hall, D.E. Harrison et D. Stammer) (Venise, 21–25 septembre 2009). ESA
Publication WPP‑306.
United Kingdom Meteorological Office, 1995: Marine Observers Handbook. Onzième édition, UK Met Office
No. 1016, Londres.
United States Weather Bureau, 1963: Manual of Barometry (WBAN), Volume I, Première édition, U.S.
Government Printing Office, Washington (consultable à l’adresse http://babel.hathitrust.org/
cgi/pt?id=uc1.31822010663441;seq=7;view=1up;num=i).
Weller, R.A., E.F. Bradley, J.B. Edson, C.W. Fairall, I. Brooks, M.J. Yelland et P.W. Pascal, 2008: Sensors for
physical fluxes at the sea surface: energy, heat, water, salt. Ocean Science, 4(4):247–263.
Wilkerson, J.C. et M.D. Earle, 1990: A study of differences between environmental reports by ships in the
voluntary observing program and measurements from NOAA buoys. Journal of Geophysical
Research, 95 (C3): 3373‑3385.
Yelland, M.J., B. I. Moat et P. K. Taylor, 2001: Air flow distortion over merchant ships. Progress Report to the
Atmospheric Environment Service, Canada (consultable à l’adresse http://eprints.soton.ac.uk/
67256).
TABLE DES MATIÈRES DU CHAPITRE
Page
5.1 GÉNÉRALITÉS
Des techniques spéciales d’obtention de profils ont été mises au point de manière à collecter les
données à haute résolution spatio-temporelle requises pour l’analyse, la prévision et la recherche
aux petites échelles météorologiques, pour diverses applications. Le présent chapitre donne un
aperçu général des systèmes actuels, installés en surface, qui peuvent être utilisés à cette fin. Il
est divisé en deux grandes sections: l’une consacrée aux techniques de télédétection et l’autre
aux méthodes de mesure directe in situ. Certaines de ces techniques peuvent servir à effectuer
des mesures dans toute la troposphère tandis que d’autres sont réservées aux mesures dans la
basse troposphère et en particulier dans la couche limite planétaire.
La section 5.3 décrit les techniques de mesure in situ par des instruments fixés à divers supports
de manière à être directement en contact avec la couche limite (radiosondes ou instruments
montés sur des ballons libres ou captifs, des tours ou des mâts). Les chapitres 12 et 13 de la
partie I décrivent les techniques les plus couramment utilisées, faisant appel à des ballons, pour
obtenir des profils atmosphériques.
Les techniques d’obtention de profils sont amplement documentées. Pour les discussions
générales et les comparaisons, il convient de se référer aux ouvrages de Derr (1972), de l’OMM
(1980) et de Martner et al. (1993), ainsi qu’au numéro spécial de la revue Journal of Atmospheric
and Oceanic Technology (Volume 11, No. 1, 1994; voir http://journals.ametsoc.org/toc/atot/11/1).
Les sodars (acronyme de Sonic Detection And Ranging — détection et télémétrie acoustiques)
reposent sur le principe de la diffusion des ondes acoustiques par l’atmosphère. Selon la théorie
de la diffusion du son, une impulsion sonore émise dans l’atmosphère est diffusée sous l’effet des
variations de l’indice de réfraction de l’air provoquées par des fluctuations à petite échelle et de
type turbulent de la température et de la vitesse de l’air, qui se produisent naturellement dans
l’atmosphère et sont spécialement liées aux forts gradients de température et d’humidité associés
aux inversions. Dans le cas de la rétrodiffusion (180°), seules les fluctuations de température
dont l’échelle correspond à la moitié de la longueur d’onde du signal acoustique incident
déterminent le retour d’écho alors que dans d’autres directions celui-ci est causé aussi bien par
des fluctuations de température que par des fluctuations de la vitesse de l’air, sauf à un angle de
90°, où il n’y a pas de diffusion.
Sur le thème du sondage acoustique, on pourra consulter utilement les ouvrages de Brown et
Hall (1978), de Neff et Coulter (1986), de Gaynor et al. (1990) et de Singal (1990).
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 701
ET DE LA TROPOSPHÈRE
Divers types de sondeurs acoustiques ont été mis au point mais les plus couramment considérés
à des fins pratiques, sont le sodar monostatique et le sodar Doppler monostatique.
Un sodar Doppler monostatique sert non seulement à mesurer l’intensité du signal de retour
mais aussi à analyser le spectre des fréquences des signaux émis et reçus de façon à déterminer
l’écart de fréquence, dû à l’effet Doppler, entre le son émis et le son rétrodiffusé. Cette différence
vient du fait que les fluctuations de température suivent les mouvements de l’air, et elle permet
ainsi de mesurer la composante radiale du vent. Un sodar Doppler utilise en général trois
faisceaux, un faisceau vertical et deux faisceaux obliques, de façon à déterminer les composantes
du vent dans trois directions. De ces composantes sont déduits le vent vertical et le vent
horizontal. Le vecteur vent peut être représenté en coordonnées hauteur-temps à des intervalles
de hauteur compris entre 30 et 50 mètres.
La hauteur maximale que peuvent atteindre les sondeurs acoustiques dépend de leurs
caractéristiques propres mais aussi des conditions atmosphériques. Il existe des systèmes
économiques qui peuvent atteindre d’ordinaire des hauteurs de 600 m ou plus pour une
résolution verticale de quelques dizaines de mètres.
Les sodars Doppler monostatiques permettent d’établir des profils du vent et donnent aussi des
renseignements sur sa force. Ces systèmes peu onéreux qui fournissent des renseignements
sur les vents dans la couche limite, conviennent particulièrement pour la surveillance continue
des inversions et des vents à proximité d’installations industrielles susceptibles de poser des
problèmes de pollution.
Le principal défaut du sodar, outre sa portée restreinte, est sa sensibilité aux sons parasites.
Ceux‑ci peuvent provenir du trafic, des précipitations ou des vents forts. Il est donc exclu que
ce système puisse être utilisé par tous les temps. En outre, les sodars émettent des sons dont la
nature et l’intensité peuvent constituer une nuisance pour le voisinage, ce qui peut exclure leur
utilisation dans des environnements par ailleurs favorables.
Certains systèmes utilisent de la mousse absorbante pour atténuer les bruits extérieurs et réduire
les nuisances acoustiques. Comme cette mousse se détériore avec le temps, il faut la remplacer
régulièrement pour maintenir les performances de l’instrument.
702 PARTIE II. SYSTÈMES D’OBSERVATION
Les profileurs de vent sont des radars Doppler à ondes métriques (VHF) ou décimétriques
(UHF) conçus pour établir des profils du vent quelles que soient les conditions météorologiques.
Ces radars détectent les signaux rétrodiffusés par les irrégularités de l’indice de réfraction
radioélectrique liées aux tourbillons de turbulence, à des échelles correspondant à la moitié de
la longueur d’onde du radar (condition de Bragg). Comme les tourbillons de turbulence sont
emportés par le vent moyen, leur vitesse de déplacement permet de mesurer directement ce
dernier. Contrairement aux radars météorologiques classiques, les profileurs de vent peuvent
fonctionner en l’absence de nuages et de précipitations. Ils mesurent le plus souvent la vitesse
radiale de l’air dans trois directions ou plus (à la verticale et à 15° de la verticale vers le nord
et vers l’est) et de ces valeurs sont déduites les composantes horizontale et verticale du vent.
Certains systèmes, plus simples, ne mesurent la vitesse radiale que dans deux directions obliques
et, tablant sur une vitesse verticale de l’air négligeable, déterminent la composante horizontale
du vent. La technique de mesure du profileur de vent à quatre faisceaux est plus pratique que
celle à trois faisceaux, car ses mesures ne sont pas sensiblement affectées par le vent vertical
(Adachi et al., 2005).
Pour de plus amples renseignements, il convient de se référer à Gossard et Strauch (1983), Hogg
et al. (1983), Weber et al. (1990), Weber et Wuertz (1990) et OMM (1994).
Réseau de Réseau de
Parabole
Yagi ou de Yagi ou de
Type d’antenne Réseau de Yagi ou réseau
brins coaxiaux brins coaxiaux
d’antenne
colinéaires colinéaires
Les profileurs peuvent fonctionner sans surveillance et mesurer le vent de façon continue presque
à la verticale du site. Ce sont là leurs principaux avantages par rapport aux systèmes de suivi de
ballons.
Il existe pour tout profileur une portée minimale et une portée maximale en deçà et au-delà
desquelles il ne peut effectuer de mesure. La portée minimale dépend de la longueur de
l’impulsion émise, du temps de récupération du récepteur radar et de la puissance des échos
de sol renvoyés par les objets environnants. L’emplacement de ce type d’appareil doit donc
être choisi de telle sorte que ces échos de sol soient aussi faibles que possible. Dans des vallées
ou dans des dépressions, les sites doivent être choisis de façon que seul le sol situé à proximité
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 703
ET DE LA TROPOSPHÈRE
immédiate soit visible. Ces considérations sont très importantes dans le cas des profileurs
stratosphériques. Les incidences des échos de sol sur les radars à haute fréquence peuvent être
réduites grâce à des dispositifs de protection appropriés.
La puissance du signal reçu par les profileurs décroît en général avec la hauteur de mesure, qui
ne peut donc dépasser un certain seuil. Cette portée maximale dépend des caractéristiques
des radars et croit avec le produit de la puissance moyenne de l’émetteur par l’ouverture de
l’antenne, mais se heurte à une limite absolue qui est déterminée par la fréquence radar utilisée.
Autrement dit, ce sont les grands profileurs stratosphériques à forte puissance qui font des
mesures aux altitudes les plus élevées, bien que pour un profileur donné, la hauteur maximale
de mesure varie considérablement en fonction des conditions météorologiques; les données
recueillies peuvent présenter des lacunes aux basses altitudes en certaines occasions.
Vu qu’il importe d’effectuer des mesures jusqu’à des altitudes aussi élevées que possible, les
profileurs recueillent des données pendant plusieurs minutes de manière à intégrer les signaux
de faible puissance obtenus. En général, un profileur met 6 ou 12 minutes pour effectuer les
trois séries d’observations requises pour mesurer la vitesse du vent. De nombreux profileurs
combinent ces séries d’observations pour fournir une mesure toutes les heures.
Étant sensibles aux échos très faibles causés par les hétérogénéités de l’atmosphère, les profileurs
peuvent aussi détecter des signaux renvoyés par les aéronefs, les précipitations, les oiseaux
et les insectes. En général, ces signaux provoquent des confusions qui risquent de conduire à
des vitesses du vent erronées. Dans ces circonstances, il sera procédé à une comparaison ou à
une combinaison d’un certain nombre de mesures indépendantes pour donner une idée de la
cohérence des valeurs obtenues ou bien pour écarter les valeurs suspectes.
Dans les bandes de 1000 et 400 MHz, l’influence des précipitations risque d’être plus grande que
celle des hétérogénéités de l’indice de réfraction. Il en résulte que la vitesse verticale mesurée est
pondérée par la réflectivité et n’est donc pas utilisable en exploitation.
Les grands profileurs stratosphériques coûtent cher et se caractérisent par un réseau d’antennes
étendu (en général 100 m sur 100 m) et des émetteurs d’assez grande puissance. Du fait de
leurs dimensions, il est parfois difficile de trouver des emplacements appropriés, tandis que leur
résolution verticale et leur portée minimale excluent certaines applications. Leurs avantages
résident dans le fait qu’ils peuvent effectuer régulièrement des mesures du vent jusqu’à plus
de 20 km de hauteur et que leurs mesures ne sont perturbées que par les pluies de très fortes
intensités.
Les profileurs troposphériques qui fonctionnent dans la bande de fréquence 400‑500 MHz
devraient particulièrement convenir pour les mesures à l’échelle synoptique et à moyenne
échelle. Leur taille est modeste et ils sont relativement peu perturbés par la pluie.
Les profileurs de la couche limite sont moins coûteux et utilisent de petites antennes. La vitesse
verticale ne peut être mesurée sous la pluie, mais les gouttes augmentent la surface équivalente
radar et accroissent en fait la portée verticale utile à la mesure du vent horizontal.
Les profileurs sont des systèmes actifs et l’obtention des fréquences nécessaires est très
problématique dans bon nombre de pays. Toutefois, l’attribution nationale et internationale de
fréquences pour les profileurs est activement poursuivie.
électromagnétique émise par le radar Doppler à mesure que se propage l’onde sonore. Le radar
mesure la vitesse de propagation de ces perturbations de l’indice de réfraction à mesure qu’elles
s’élèvent à la vitesse locale du son. La longueur d’onde de l’onde acoustique est choisie pour
correspondre à la moitié de celle du radar à hyperfréquences (condition de Bragg) de sorte que
l’énergie rétrodiffusée par plusieurs ondes acoustiques s’additionne de manière cohérente au
niveau du récepteur, provoquant un net accroissement de la puissance du signal de retour. La
température virtuelle peut être déduite de la vitesse de propagation de l’impulsion acoustique,
car elle est proportionnelle au carré de la différence entre celle-ci et la vitesse verticale de l’air.
Pour en savoir plus sur cette technique amplement documentée, on peut consulter les ouvrages
de May et al. (1990), Lataitis (1992a, 1992b) et Angevine et al. (1994).
Diverses techniques expérimentales reposant sur le balayage des fréquences acoustiques pour
l’obtention d’un profil de la température virtuelle ont été élaborées. On a pu mettre au point
des systèmes de sondage radio-acoustique par l’adjonction d’une source sonore à un profileur
du type mentionné ci-dessus et par un traitement approprié du signal émis par ce dernier. Pour
des fréquences radar de 50, 400 et 1 000 MHz, des fréquences acoustiques d’environ 110, 900
et 2 000 Hz sont requises. À 2 000 Hz, l’atténuation du signal acoustique limite généralement
à 1 ou 2 km la portée verticale; à 900 Hz, celle-ci peut atteindre 2 à 4 km et à 110 Hz, à condition
d’utiliser de gros profileurs de 50 MHz, des portées maximales de l’ordre de 4 à 8 km peuvent
être atteintes dans des conditions favorables.
Des comparaisons avec des données de radiosondage révèlent que dans de bonnes conditions,
les températures virtuelles peuvent être mesurées avec une exactitude de quelque 0,3 °C pour
des résolutions verticales comprises entre 100 et 300 mètres. Les opérations risquent toutefois
d’être compromises en cas de vent fort et de précipitations.
La technique RASS est un moyen très prometteur d’obtenir des profils de la température virtuelle,
mais il faudra procéder à de nouvelles études avant de pouvoir exploiter ces systèmes en toute
confiance et de manière à répondre aux exigences des utilisateurs en matière de portée verticale,
de résolution et d’exactitude.
pondération et des radiations émises par la surface terrestre, il n’est pas possible d’obtenir des
profils précis de la température à proximité de la surface et dans la couche limite, lorsqu’on utilise
des radiomètres embarqués à bord d’un satellite.
Il existe une grande complémentarité entre les radiomètres de surface et ceux portés par des
satellites. Les mesures par satellite fournissent une résolution spatiale et temporelle grossière
dans la troposphère supérieure tandis que les mesures au sol donnent une haute résolution
spatiale et temporelle dans la couche limite et la troposphère inférieure. Les profils récupérés
à partir des radiomètres de surface peuvent être assimilés par des modèles numériques
météorologiques pour améliorer les prévisions à court terme (1 à 12 heures) en fournissant des
données sur la haute atmosphère pour les intervalles compris entre les mesures par radiosondes.
Aussi, les températures brutes de brillance données par un radiomètre terrestre peuvent être
assimilées directement par les modèles numériques météorologiques. Cette approche améliore
les résultats en évitant les erreurs inhérentes au processus de récupération du profil. Une
méthode semblable utilisant, directement dans les modèles, les luminances brutes fournies par
un radiomètre embarqué sur satellite a démontré, il y a quelques années, qu’elle améliorait les
résultats et est largement utilisée maintenant.
Les principaux avantages des radiomètres de surface sont leurs capacités à fournir des mesures
temporelles continues et à mesurer la teneur en eau des nuages. Des mesures continues de la
température, de l’humidité et de la teneur en eau des nuages de la haute atmosphère peuvent
être utilisées pour améliorer les prévisions de précipitations dans l’immédiat et à court terme.
Ces mesures peuvent aussi être utilisées pour détecter le développement ou le moment où se
produisent des changements bien définis de température (pour les études sur les émissions
de gaz, la pollution de l’air, les îlots thermiques urbains, la prévision et les avis de conditions
météorologiques extrêmes) (Kadygrov et al. 2003).
La fiabilité et l’exactitude des radiomètres profileurs ont été largement démontrées au cours
d’opérations de longue durée aux latitudes arctiques, moyennes et tropicales (Güldner
et Spänkuch, 2001; Liljegren et al., 2005). Une opération de 13 mois avec l’équipement
Radiometrics MP3000 (Gaffard et Hewison, 2003) montre que l’erreur quadratique moyenne
(RMS) entre la température observée par une radiosonde et celle récupérée par le radiomètre à
hyperfréquences varie de 0,5 K (près de la surface) à 1,8 K (à la hauteur de 5 km). Le Radiometrics
TP/WVP-3000 utilisé pendant 18 mois par Güldner et Spänkuch (2001) montre une erreur
similaire de 0,6 K (près de la surface) à 1,6 K (à la hauteur de 7 km en été et de 4 km en hiver).
Pour le profil de vapeur d’eau, cette erreur est inférieure à 1 g m-3 à toutes les altitudes (Gaffard et
Hewison, 2003; Güldner et Spänkuch, 2001).
L’énergie électromagnétique générée par les lasers dans le spectre visible et proche du visible (de
l’ultraviolet à l’infrarouge) est diffusée par les molécules de gaz et les particules en suspension
présentes dans l’atmosphère. Cette diffusion permet d’appliquer le principe du radar pour
observer l’atmosphère et ce au moyen d’un lidar (acronyme de Light Detection and Ranging:
détection et télémétrie par la lumière). La diffusion optique peut généralement se subdiviser en
diffusion inélastique et diffusion élastique. Lorsque la longueur d’onde du rayonnement laser
diffusé par les constituants atmosphériques diffère de celle du rayon laser incident, la diffusion
est dite inélastique. Le processus de diffusion inélastique le plus fréquemment utilisé dans les
lidars atmosphériques expérimentaux est la diffusion Raman, qui résulte d’un échange d’énergie
entre les photons incidents et l’état de rotation et de vibration des molécules diffusantes. Dans
le cas de la diffusion élastique, la longueur d’onde du rayonnement incident est la même que
celle du rayonnement diffusé. Cette diffusion, qui peut être de Rayleigh ou de Mie, dépend
de la nature et de la taille des particules et de la longueur d’onde du rayon laser incident
(voir le chapitre 7 de la partie II). Ces deux processus majeurs de diffusion peuvent avoir lieu
simultanément dans l’atmosphère.
Pour de plus amples renseignements, voir Hinkley (1976), OMM (1982), Thomas (1991), et Syed
et Browell (1994).
La majorité des lidars sont exploités en mode monostatique, c’est-à-dire que le récepteur est situé
au même point que l’émetteur laser. Le système lidar type comporte une source laser pulsée qui
envoie dans l’atmosphère des impulsions de lumière cohérente. La puissance moyenne des lasers
utilisés varie de quelques milliwatts à plusieurs dizaines de watts. Un télescope optique adjacent
au laser intercepte l’énergie rétrodiffusée. La lumière reçue par le télescope est focalisée sur une
cellule photomultiplicatrice ou une diode photosensible. L’information reçue est normalement
affichée pour permettre une surveillance en temps réel avant d’être transmise à un ordinateur
pour une analyse plus détaillée.
La force du signal de retour dépend à la fois de la quantité d’énergie diffusée par la cible et de
l’atténuation, à l’aller et au retour, de cette énergie entre le lidar et la cible. Cette atténuation
dépend de la part de l’énergie du faisceau qui s’en échappe par diffusion et de son absorption
par les gaz atmosphériques. Les processus de diffusion et d’absorption sont exploités dans
différents lidars qui fournissent ainsi tout un éventail de mesures.
Les lidars dont le fonctionnement repose sur le principe de la diffusion élastique (lidars Rayleigh
ou Mie ou tout simplement lidars) sont surtout utilisés pour l’étude des nuages et des particules.
Ils mesurent de façon très directe la hauteur de la base des nuages: la brusque hausse d’intensité
du signal qui correspond à sa réflexion par la base des nuages est facilement discernable et la
durée du trajet d’une impulsion laser entre l’émetteur et la base des nuages et entre celle-ci et
le récepteur permet de déterminer la hauteur de la base des nuages (voir le chapitre 15 de la
partie I).
Les lidars servent aussi à détecter les particules en suspension dans un air relativement limpide
et à établir une cartographie de certaines caractéristiques structurelles de l’atmosphère comme
la stabilité thermique et les hauteurs d’inversion. Les particules naturellement présentes dans
les basses couches de l’atmosphère sont suffisamment nombreuses pour que les lidars puissent
mesurer en permanence la vitesse du vent en l’absence de précipitations, comme les radars
météorologiques. Ils servent par ailleurs à établir une cartographie et à mesurer la concentration
des particules liées aux activités humaines, comme celles qui sont rejetées par les cheminées
d’usines.
Les observations effectuées au moyen du lidar ont apporté une contribution capitale et
exceptionnellement documentée à l’étude de la teneur de la stratosphère en aérosols, fortement
influencée par les grandes éruptions volcaniques et facteur important du bilan radiatif mondial.
Il est bien plus difficile d’obtenir des données quantitatives sur les nuages à cause des variations
de la forme et de la distribution des gouttelettes ainsi que de la teneur en eau des nuages, à
cause des problèmes de distinction entre l’eau, la glace et les structures mixtes et à cause des
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 707
ET DE LA TROPOSPHÈRE
propriétés des aérosols et des particules en suspension. Il faut recourir pour cela à des systèmes
de recherche complexes qui mesurent plusieurs paramètres à la fois, qui reposent sur des
hypothèses concernant les propriétés optiques du milieu considéré et qui utilisent des méthodes
mathématiques complexes de réduction des données.
Le lidar à absorption différentielle repose sur le principe selon lequel le coefficient d’absorption
des gaz atmosphériques varie fortement en fonction de la longueur d’onde. Ce type de lidar
utilise en général un laser qui peut être accordé à deux fréquences proches, l’une fortement
absorbée par un gaz particulier et l’autre non. Les différences constatées dans les mesures
en fonction de la distance peuvent servir à évaluer la concentration du gaz considéré. Cette
technique de télédétection ouvre des perspectives très prometteuses en ce qui concerne
la mesure de la composition de l’atmosphère et a été utilisée avec succès pour mesurer les
concentrations d’eau, de dioxyde de soufre, de dioxyde d’azote et, en particulier, la concentration
d’ozone.
L’utilisation de l’effet Raman présente un intérêt particulier du fait qu’il se caractérise par
un décalage de fréquence du rayonnement diffusé dont la valeur dépend de la nature des
molécules rencontrées (courbes de Stokes). La puissance du signal rétrodiffusé est fonction de
la concentration de ces molécules. Les lidars Raman ne nécessitent pas une longueur d’onde
particulière ou un laser accordé: les longueurs d’onde du laser peuvent être sélectionnées
dans une région du spectre où il n’y a pas d’absorption atmosphérique. En mesurant le spectre
Raman, on peut obtenir des mesures, localisées dans l’espace, de constituants atmosphériques
présélectionnés, mesures qui ont permis d’établir des profils troposphériques de la vapeur
d’eau, de l’azote et de l’oxygène ainsi que de constituants minoritaires de l’atmosphère. Les
principaux inconvénients de cette méthode sont le manque de sensibilité sur de longues portées
(les sections efficaces de diffusion étant restreintes) et la nécessité d’utiliser des lasers de grande
puissance qui peuvent se révéler dangereux pour les yeux.
Les systèmes lidars ont fourni une foule d’informations utiles pour la recherche, mais leur
utilisation en tant qu’outil opérationnel est plutôt restreinte. Ces systèmes coûtent en effet
relativement cher et leur mise au point, leur installation et leur exploitation nécessitent un
personnel hautement qualifié. En outre, certains lidars ne peuvent fonctionner que dans des
conditions bien déterminées, telles que l’obscurité ou l’absence de précipitations.
Pour qu’il soit possible de récupérer des données météorologiques à partir d’un GNSS, il faut
disposer d’un réseau de récepteurs GNSS en surface, d’un système de transmission de données
et d’une installation de traitement. C’est essentiellement pour effectuer des levés géodésiques
qu’on installe des réseaux de récepteurs GNSS. C’est pourquoi d’étroites relations sont
entretenues avec les instituts géographiques dans de nombreux pays. La collaboration repose en
général sur l’échange d’information ou le partage de sites.
Le lecteur trouvera davantage de détails sur les techniques de traitement dans la publication
OMM (2006b).
Le GNSS comprend trois secteurs: le secteur spatial, le secteur sol et le secteur utilisateur. Le
secteur spatial regroupe plusieurs satellites en orbite. Il existe à l’heure actuelle quatre systèmes
en service ou en cours de mise en service: GPS (États-Unis d’Amérique), GLONASS (Fédération
708 PARTIE II. SYSTÈMES D’OBSERVATION
de Russie), Galileo (Union européenne) et Compass (Chine). Les satellites du GNSS émettent des
signaux portant un code horaire sur un certain nombre d’ondes porteuses dont les fréquences
diffèrent suivant les systèmes de satellites.
Le principe du GNSS est le même pour l’ensemble des quatre systèmes. Des horloges atomiques
commandent toutes les composantes des signaux à bord des satellites. Le secteur sol ajuste
l’orbite des satellites et fournit les éphémérides de diffusion, distribuées au secteur utilisateur par
les messages de navigation que transmet le signal GNSS. Le secteur utilisateur se compose d’une
antenne et d’un récepteur (situés en surface ou dans l’espace). Le récepteur compare le code
horaire du signal émis par les satellites du GNSS aux données que lui fournit sa propre horloge
interne, ce qui lui permet de calculer la pseudo-distance (P) des satellites situés dans son champ
de vision. Dès qu’il dispose de la pseudo-distance d’au moins quatre satellites, le récepteur peut
calculer sa position et son erreur d’horloge. La technique de positionnement de base qui utilise
des signaux porteurs d’un code horaire offre une précision de l’ordre de 3 à 5 mètres.
Les principaux observables du GNSS sont la pseudo-distance (P) et la phase de la porteuse (L).
Par exemple, les signaux GPS sont diffusés sur deux fréquences différentes: L1 (1 575,42 MHz)
et L2 (1 227,60 MHz). Ces deux fréquences émettent les observables P et L. Un récepteur
bifréquence reçoit ainsi quatre observables par époque. Les équations 5.1 et 5.2 présentent
les deux paramètres P et L exprimés sous la forme d’une somme de toutes les composantes de
l’erreur que comprend la mesure GNSS:
P = ρ + c ( dtrec − dtsat ) + δ rel + Latm + I + K + M + δ tide + ε P (5.1)
Latm = s ∫ n ds − D + ∆S ≈ s ∫ ( n − 1) ds (5.3)
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 709
ET DE LA TROPOSPHÈRE
Le retard hydrostatique au zénith est lié à l’air sec de l’atmosphère et, compte tenu de sa nature
stationnaire, il est possible d’en déterminer la valeur avec beaucoup de précision à partir des
mesures fournissant la pression en surface (ps) et l’emplacement du récepteur (altitude h et
latitude φ), grâce par exemple à l’approximation de Saastamoinen (1972):
( )
−1
ZHDsaas ( ps , h, ϕ ) = 2, 2768 ⋅10−5 ps 1 − 2, 66 ⋅10−3 cos ( 2ϕ ) − 2, 8 ⋅10−7 h (5.7)
Le ZHD représente environ 90 % de l’allongement de la trajectoire dû au retard troposphérique.
Par contre, l’acquisition de données de surface ne permet pas de modéliser suffisamment bien
le ZWD en raison de la distribution irrégulière de la vapeur d’eau dans l’atmosphère. Il est donc
possible de réécrire le ZWD comme suit (selon Davis et al., 1985):
( )( )
−1
ZWD = 10−6 k2 Rv − k1Rd + k3 Rv z ∫ ρ w T −1 dz z ∫ ρ w dz z ∫ ρ w dz (5.8)
et en définissant la température moyenne pondérée comme suit:
( )( )
−1
Tm = z ∫ ρ w dz z ∫ ρ w T −1 dz (5.9)
d’où:
IWV = k (Ts )
−1
( ZTD − ZHDsaas ( ps , h,ϕ ) ) (5.11)
Le ZTD étant le résultat d’une estimation, sa précision est fonction de la méthode utilisée, de
l’exactitude de l’information a priori utilisée, de la stabilité de la position du récepteur et de
nombreux autres facteurs. Par exemple, il faut en général attendre environ 14 jours pour obtenir
des données précises sur les orbites exactes des satellites. En ce qui concerne le ZTD, il convient
donc d’établir une distinction entre les estimations en temps quasi réel et les estimations traitées
a posteriori. Il est évident qu’il existe une relation étroite entre l’exactitude de l’IWV et celle de
l’estimation du ZTD.
L’incertitude de mesure des estimations en temps quasi réel est d’environ 10 mm. Pour les
estimations traitées a posteriori, cette valeur est réduite à environ 5 à 7 mm. L’incertitude de
mesure d’IWV est fonction de la quantité totale de vapeur d’eau, elle est de l’ordre de 5 à 10 %
(Elgered et al., 2004). Les valeurs moyennes présentent une signature évidente des saisons: aux
latitudes moyennes, des valeurs très faibles sont observées en hiver (inférieures à 5 kg m–2),
tandis qu’en été les valeurs peuvent atteindre 40 kg m–2. Dans les régions tropicales, il n’est pas
rare de relever des valeurs supérieures à 50 kg m–2.
Ce procédé est fréquemment utilisé pour la mesure des vents dans la couche limite. Pour suivre
le ballon, on utilise d’ordinaire des théodolites optiques ou bien un radar de poursuite (pour une
description plus générale des méthodes de mesure du vent, voir le chapitre 13 de la partie I).
Pour effectuer des sondages dans la basse troposphère, il est préférable que la vitesse
ascensionnelle du ballon soit faible de manière à obtenir des mesures à des niveaux plus
rapprochés. Pour cela, il suffit d’équiper le ballon d’un parachute de freinage ou de réduire sa
force ascensionnelle nette.
Lorsqu’on utilise un radar de poursuite, un petit réflecteur est suspendu au ballon. Dans la basse
troposphère, le radar devrait être capable de détecter une cible à très courte distance, soit dès
une centaine de mètres et le point de lancement du ballon se trouver, de préférence, sous son
vent, au-delà de cette distance minimale.
On peut faire une mesure approximative du vent en utilisant un seul théodolite optique, mais
pour obtenir des données suffisamment exactes, il convient de faire appel à la méthode dite
à deux théodolites, la ligne de base entre les deux instruments devant avoir une longueur
supérieure à un kilomètre. Pour faciliter l’exécution des sondages et garantir l’exactitude des
hauteurs observées, il faudrait équiper les théodolites d’interfaces permettant d’enregistrer
les données dans un ordinateur qui effectuerait les calculs requis dans les délais voulus. Si les
conditions météorologiques sont favorables, il est possible de déterminer les profils du vent
jusqu’à une altitude de 3 000 mètres. Cette technique échoue toutefois lorsque les conditions
sont défavorables (précipitations, nuages bas ou brouillard).
Il est naturellement possible de collecter des données supplémentaires sur le vent dans les basses
couches avec des radiosondes ordinaires en effectuant des relevés de position plus fréquents
(2 à 10 par minute) durant les premières minutes d’un sondage complet normal.
Les systèmes de radiosondage ordinaires sont décrits en détail dans le chapitre 12 de la partie I.
Des radiosondes spéciales ont été conçues pour effectuer des observations plus détaillées de la
couche limite et de la basse troposphère. Elles diffèrent des radiosondes ordinaires en ce sens
qu’elles sont munies de capteurs plus sensibles et qu’elles permettent d’effectuer des mesures
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 711
ET DE LA TROPOSPHÈRE
plus fréquentes. Ces radiosondes servent en général à déterminer les profils de la température,
de l’humidité et du vent dans la couche comprise entre la surface et une altitude d’environ 3 à
5 km.
Vu que ces instruments ne sont appelés à atteindre qu’une altitude limitée, ils peuvent être
généralement transportés par un ballon-pilote. Le déroulement du sondage est par ailleurs très
similaire à celui d’un sondage ordinaire et les données se traitent à peu près de la même façon.
Lorsque l’altitude du sondage n’excède pas 2 000 mètres, on peut parfois se passer des capteurs
de pression, ce qui rend la sonde plus simple et moins coûteuse. Des systèmes plus simples
encore, qui ne mesurent que la température, sont également disponibles.
Les exigences fondamentales à satisfaire par les radiosondes utilisées pour la couche limite sont
les suivantes:
Direction du
de 0° à 360° ±5°
vent
Ces mesures sont habituellement effectuées au moins toutes les 30 secondes afin de fournir une
résolution verticale de 50 à 100 m.
Les tours et les mats spécialement équipés d’instruments sont utilisés à diverses fins, et
notamment pour l’étude de la diffusion des polluants dans l’atmosphère. À cet égard, il convient
de se référer à Panofsky (1973).
Pour certaines applications, les tours peuvent atteindre 100 m de haut et, pour les travaux de
surveillance de la pollution et de lutte contre celle-ci, elles devraient dépasser d’au moins 50 m
les sources importantes de polluants.
Les données sont d’ordinaire traitées et présentées automatiquement en même temps que les
renseignements sur les différences entre les niveaux fournis en vue de caractériser les conditions
météorologiques. Lorsqu’elles doivent être exploitées directement par des profanes (non
météorologues), par exemple le personnel chargé de maintenir les concentrations de polluants
712 PARTIE II. SYSTÈMES D’OBSERVATION
atmosphériques en dessous des seuils critiques, elles font souvent l’objet d’un complément de
traitement par ordinateur destiné à en extraire des indications facilement applicables à la tâche
considérée.
Les capteurs les plus couramment employés sur les tours ou sur les mâts sont les suivants:
Tous les capteurs devraient avoir des réponses linéaires ou linéarisées et une constante de
temps suffisamment faible pour que les données collectées représentent convenablement les
fluctuations locales des variables météorologiques.
Il est important que la structure de la tour ou du mât n’affecte pas indûment les capteurs et leurs
mesures. Si la structure et ouverte, les capteurs devraient être montés sur des perches, fixes
ou rétractables, d’une longueur d’au moins deux mètres et, de préférence, suffisante pour les
maintenir écartés de la tour ou du mât d’une distance égale à au moins dix fois le diamètre de
ces derniers. Si la structure est pleine ou si l’emploi de perches aussi longues est impossible, il
faut installer à chaque niveau, des deux côtés de la tour ou du mat, des perches qui en écartent
les capteurs d’une distance au moins égale à trois fois le diamètre de la structure; les mesures
instantanées se font alors avec les capteurs exposés du côté où le vent n’est pas perturbé.
Dans des cas spéciaux, on utilise parfois des tours afin d’établir des profils verticaux en y
installant non des capteurs à poste fixe, mais un dispositif de sondage simplifié conçu de la
manière suivante: une boucle de cordage fermée, actionnée par un treuil à main ou à moteur et
passant dans une poulie fixée le plus haut possible, sert à hisser ou à redescendre une radiosonde
aux niveaux souhaités. La radiosonde, qui est modifiée par l’ajout de capteurs de vent, transmet
ses données à un récepteur au sol. On peut ainsi obtenir des profils plus détaillés qu’au moyen
d’une installation de perches et déterminer l’altitude des particularités importantes. Par contre,
avec ce système, des observations prolongées ne sont possibles qu’à un seul niveau.
Dans certaines conditions météorologiques, la tour n’est pas assez haute pour permettre de
déterminer exactement l’étendue de la couche où les polluants se dispersent. En ce cas, à moins
qu’il n’existe dans un rayon maximal de 50 kilomètres une station de radiosondage capable de
fournir les informations nécessaires, la station où est érigé le mât ou la tour devrait disposer d’un
équipement spécial autorisant l’exécution de sondages locaux jusqu’à une altitude d’environ
3 000 mètres. Indépendamment de leur destination principale, ces données de sondage peuvent
compléter celles provenant du réseau aérologique de base et servir aussi à l’étude plus fouillée de
phénomènes météorologiques locaux.
Il faut faire vérifier périodiquement les équipements de mesure des tours par des spécialistes
hautement qualifiés, qui devraient contrôler tout spécialement l’état et le fonctionnement
des capteurs, des enregistreurs et de l’ensemble des câbles, prises et connexions exposés aux
intempéries.
Les applications typiques des ballons captifs comprennent la détermination des profils de la
température, de l’humidité et du vent (ainsi que de leurs fluctuations sur de courtes périodes)
depuis la surface jusqu’à une altitude d’environ 1 500 m, et l’étude à long terme des conditions
météorologiques à un ou plusieurs niveaux déterminés. Les capteurs nécessaires sont placés dans
une ou plusieurs nacelles suspendues au ballon ou fixées au câble d’amarrage. Leurs indications
sont en général transmises au sol soit par radio, soit par des conducteurs incorporés au câble qui
retient le ballon. Les techniques en question sont décrites par Thompson (1980).
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 713
ET DE LA TROPOSPHÈRE
Ces systèmes utilisent soit des ballons de grande taille (600 m3 environ), soit des ballons de petite
taille (10 à 100 m3 environ). Les plus petits servent en général à obtenir des profils tandis que les
grands permettent d’effectuer des mesures à des niveaux multiples. Les ballons captifs devraient
avoir une faible traînée et une ascension régulière, et sont normalement gonflés à l’hélium.
Les ballons les plus gros devraient être capables d’emporter, en plus du câble d’amarrage,
une charge de 50 kg à 1 500 mètres d’altitude et demeurer utilisables par des vitesses du vent
allant jusqu’à 5 m s-1 en surface et 15 m s-1 aux altitudes où ils sont appelés à monter. Le câble
d’amarrage devrait pouvoir résister sans rompre à une traction de 2 000 à 3 000 kg (200 à 300 kg
pour les ballons de petite taille).
Les principaux facteurs limitants pour l’exploitation d’un ballon captif sont une forte vitesse du
vent en altitude, la turbulence à proximité de la surface et le risque de foudre.
Le treuil qui sert à manœuvrer le ballon peut être actionné soit à la main, soit par un moteur
électrique. Il devrait autoriser au moins deux vitesses d’enroulement/déroulement du câble
(par exemple, 1 et 2 m s-1), comporter un frein à main, un compteur de longueur de câble et un
dispositif de contrôle de la tension de ce dernier et, qu’il soit actionné électriquement ou non,
être protégé contre les décharges atmosphériques par une prise de terre.
Employer des conducteurs pour acheminer les signaux jusqu’au sol n’est pas une bonne solution
à plusieurs égards. Il est en effet préférable d’utiliser des radiosondes spéciales, à résolution
plus fine que les radiosondes normalement utilisées pour les sondages libres. Les capteurs
de température et d’humidité doivent être munis d’un écran horizontal qui les protège du
rayonnement solaire et de la pluie tout en leur assurant une ventilation convenable. Il faut leur
adjoindre des capteurs supplémentaires pour la mesure de la vitesse et de la direction du vent.
Direction du
de 0° à 360° ±1°
vent
Il est possible de recourir pour la transmission des signaux à n’importe laquelle des fréquences
allouées normalement aux radiosondes, mais le choix se porte souvent sur la bande de 400 MHz.
Le poids maximal des équipements de mesure et de transmission (y compris la batterie) devrait
demeurer largement inférieur à celui que le ballon est capable d’emporter, une charge de 5 kg
représentant une limite raisonnable. La radiosonde devrait être suspendue au-dessous du
ballon à une distance au moins égale à trois fois le diamètre de celui-ci, de telle façon qu’elle
conserve la stabilité voulue pour que les capteurs restent bien protégés par leur écran et soient
convenablement ventilés.
Les sondages peuvent s’effectuer pendant la montée et la descente du ballon soit en continu, soit
avec des pauses à des niveaux choisis. Pour les niveaux les plus bas, il est possible d’estimer la
hauteur d’après la longueur de câble déroulée, mais, pour les niveaux plus élevés, ceci ne donne
que des indications approximatives et l’on doit faire appel à une autre méthode. Cette méthode
consiste en calculs opérés à partir de l’équation hydrostatique et des distributions observées de
la pression, de la température et de l’humidité. L’incrément en mètres géopotentiels entre les
niveaux n et n+1 est ainsi donné par:
29.27 Tv ln ( pn / pn+1 ) (5.12)
où Tv est la température virtuelle moyenne entre les niveaux n et n+1, tandis que pn et pn+1 sont
les pressions correspondantes. Si on a besoin de convertir les mètres géopotentiels en mètres
géométriques, ce qui arrive rarement, on le fait aisément avec les tables météorologiques de la
Smithsonian Institution. C’est la hauteur du baromètre de la station qui sert de niveau de référence
dans les calculs.
Lorsque les variables météorologiques sont observées niveau par niveau, il faudrait effectuer à
chaque niveau plusieurs cycles de mesures, en attendant entre chacun d’eux que les lectures
des instruments se stabilisent (deux à trois minutes). L’ensemble du sondage exigera ainsi une
demi‑heure à une heure. Comme pour tous les autres sondages, il faudrait comparer dans un
abri de contrôle, immédiatement avant le début et après la fin des opérations, les indications
fournies par les instruments de la radiosonde avec celles d’un baromètre et d’un psychromètre à
aspiration. De même, comme pour tous les autres sondages, il faudrait se procurer les données
au niveau de la station au moyen non de la radiosonde, mais d’instruments classiques installés
dans un abri ordinaire.
Les données du radiosondage devraient être, à chaque niveau, les moyennes des valeurs
mesurées de la pression, de la température et de l’humidité et, en ce qui concerne la vitesse du
vent, sa moyenne calculée sur une période de 100 ou 120 secondes. Si la direction du vent n’est
pas mesurée directement, on peut l’estimer grossièrement (c’est-à-dire avec une incertitude de
±30°) en déterminant l’orientation de l’axe longitudinal du ballon par rapport au nord.
Il importe de souligner qu’avant de procéder à tout sondage ou série de sondages par ballon
captif les responsables de l’opération doivent en informer les services de la navigation aérienne
et obtenir leur autorisation.
ANNEXE. TÉLÉDÉTECTION DU VENT PAR LIDAR DOPPLER PULSÉ
HÉTÉRODYNE BASÉE SUR LE SOL
INTRODUCTION
Les lidars (Light Detection And Ranging), signifiant lidars atmosphériques dans le domaine
d’application de la présente annexe, se sont révélés être des systèmes intéressants pour
la télédétection par laser des polluants atmosphériques et de plusieurs paramètres
météorologiques tels que les nuages, les aérosols, les gaz et (lorsque la fonctionnalité Doppler
est disponible) le vent. Les mesures sont effectuées sans contact direct et dans n’importe quelle
direction à l’aide d’un rayonnement électromagnétique. Les systèmes lidar complètent les
technologies de mesure in situ classiques. Ils peuvent être utilisés pour plusieurs applications
qui ne peuvent pas être correctement mises en œuvre avec des méthodes de mesure in situ ou
ponctuelles.
Plusieurs méthodes permettent d’utiliser les lidars pour mesurer le vent atmosphérique. Les
quatre méthodes les plus couramment utilisées sont le lidar Doppler cohérent, pulsé ou à ondes
continues, le lidar Doppler à détection directe et le lidar Doppler à résonance (couramment
utilisé pour les mesurages de la couche de sodium mésosphérique). Pour de plus amples
informations, se reporter aux références [1] et [2].
1. DOMAINE D’APPLICATION
La présente annexe spécifie les exigences et les modes opératoires d’essais de performance
relatifs aux techniques de lidar Doppler pulsé hétérodyne et présente leurs avantages et limites.
Dans la présente annexe, le terme «lidar Doppler» s’applique uniquement à des systèmes lidars
pulsés hétérodynes permettant d’extraire des mesures du vent à partir de la diffusion d’une
lumière laser sur des aérosols dans l’atmosphère. Leurs performances et leurs limites sont décrites
sur la base de conditions atmosphériques normalisées.
La présente annexe décrit la détermination de la vitesse du vent sur la ligne de visée (vitesse
radiale du vent).
Note: La détermination du vecteur vent à partir de mesures individuelles sur la ligne de visée n’est pas décrite dans
la présente annexe car elle est hautement spécifique à une configuration de lidar particulière. Un exemple d’extraction
du vecteur vent est donné dans le supplément B.
La présente annexe peut être utilisée dans les champs d’application suivants:
1
Dans le document de l’ISO, la présente annexe du Guide des instruments et des méthodes d’observation météorologiques
(OMM-N° 8) est dénommée «norme».
716 PARTIE II. SYSTÈMES D’OBSERVATION
e) Gestion des risques industriels (surveillance directe des données ou par assimilation des
données dans des modèles de flux à micro-échelle);
La présente annexe s’adresse aux fabricants de lidars Doppler pulsés hétérodynes ainsi qu’aux
organismes en charge des essais et de la certification de leur conformité. Elle fournit également
des recommandations aux utilisateurs pour un usage adéquat de ces instruments.
2. RÉFÉRENCES NORMATIVES
3. TERMES ET DÉFINITIONS
Pour les besoins de la présente annexe, les termes et définitions suivants s’appliquent.
Taux de disponibilité des données. Rapport entre le nombre de données de mesure effectivement
acquises ayant une qualité de données prédéfinie et le nombre attendu de données de
mesure pendant une période de mesure donnée.
Résolution en portée affichée. Intervalle spatial constant entre les centres de deux portes de mesure
successives.
Note: La résolution en portée affichée est également la taille d’une porte de mesure sur le dispositif d’affichage. Elle
est déterminée par la longueur de la porte de mesure et le recouvrement entre des portes successives.
Résolution en portée effective. Variable liée à l’application décrivant un intervalle de portée intégré
pour lequel la variable cible est fournie avec une incertitude définie.
Résolution temporelle effective. Variable liée à l’application décrivant un intervalle de temps intégré
pour lequel la variable cible est fournie avec une incertitude définie.
Portée maximale d’acquisition, RMaxA . Distance maximale jusqu’à laquelle le signal lidar est
enregistré et traité.
Portée opérationnelle maximale, RMaxO. Distance maximale jusqu’à laquelle le signal lidar permet de
déterminer une vitesse de vent fiable.
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 717
TROPOSPHÈRE
Notes:
1. La portée opérationnelle maximale est inférieure ou égale à la portée maximale d’acquisition.
2. La portée opérationnelle maximale est définie le long d’un axe correspondant à l’application. Elle est mesurée
verticalement pour un profileur de vent. Elle est mesurée horizontalement pour les lidars à balayage capables de
mesurer dans la totalité d’un hémisphère.
3. La portée opérationnelle maximale peut être augmentée en prolongeant la période de mesure et/ou en réduisant
la résolution en portée.
4. La portée opérationnelle maximale dépend des paramètres lidar, mais aussi des conditions atmosphériques.
Portée minimale d’acquisition, RMinA . Distance minimale à partir de laquelle le signal lidar est
enregistré et traité.
Note: Si la portée minimale d’acquisition n’est pas indiquée, elle est supposée être égale à zéro. Elle peut être
différente de zéro lorsque la réception est masquée pendant l’émission des impulsions.
Portée opérationnelle minimale, RMinO. Distance minimale à laquelle le signal lidar permet de
déterminer une vitesse de vent fiable.
Notes:
1. La portée opérationnelle minimale est également appelée zone aveugle.
2. Dans les lidars pulsés, la portée opérationnelle minimale est limitée par la lumière parasite dans le lidar pendant
l’émission des impulsions, par la profondeur de foyer ou par le temps de commutation émetteur/récepteur du
détecteur. Elle peut dépendre de la durée d’impulsion (Tp) et de la largeur de la porte de mesure.
Notes:
1. La porte de mesure est centrée sur la distance de mesure.
2. La porte de mesure est définie en nombre d’intervalles ou en porte de mesure de distance équivalente.
Résolution en portée. Variable liée au matériel décrivant le plus court intervalle de portée à partir
duquel des informations de signal indépendantes peuvent être obtenues.
Résolution temporelle. Variable liée au matériel décrivant le plus court intervalle de temps à partir
duquel des informations de signal indépendantes peuvent être obtenues.
Note Le biais de vitesse doit être réduit au minimum par un étalonnage adéquat, par exemple sur une cible fixe.
Plage de vitesse. Plage déterminée par la vitesse minimale mesurable du vent, la vitesse maximale
mesurable du vent et l’aptitude à mesurer le signe de la vitesse, sans ambiguïté.
Note: Selon l’application lidar, la plage de vitesse peut être définie sur la vitesse radiale du vent (lidars à balayage)
ou sur les vitesses horizontales du vent (profileurs de vent).
718 PARTIE II. SYSTÈMES D’OBSERVATION
Note: La résolution en vitesse dépend de la durée d’impulsion, du rapport porteuse/bruit et du temps d’intégration.
Cisaillement du vent. Variation du vecteur vent dans un plan perpendiculaire à la direction du vent.
Un lidar Doppler pulsé émet une impulsion laser dans un faisceau laser étroit (voir la figure 5.A.1).
Lorsqu’il se propage dans l’atmosphère, le rayonnement laser est diffusé dans toutes les
directions par les aérosols et les molécules. Une partie du rayonnement diffusé revient vers le
lidar; elle est capturée par un télescope, détectée et analysée. Les aérosols et les molécules se
déplaçant avec l’atmosphère, il en résulte un décalage de fréquence par effet Doppler pour la
lumière laser diffusée.
Aux longueurs d’onde (et donc fréquences) pertinentes pour un lidar Doppler hétérodyne
(cohérent), la majeure partie du rayonnement rétrodiffusé provient des aérosols.
4
1 Particules diffusantes se déplaçant avec le vent
2 Trajet optique de l’impulsion laser émise (faisceau laser)
3 Axe optique du récepteur
4 Instrument lidar
L’analyse vise à déterminer la différence, Δf, entre la fréquence, ft, de l’impulsion laser émise
et la fréquence, fr, de la lumière rétrodiffusée. Selon l’équation de Doppler, cette différence
est proportionnelle à la composante du vent sur la ligne de visée, comme indiqué dans la
formule 5.A.1:
∆ f = f r − f t = −2vr / λ (5.A.1)
où
Le mesurage est résolu en portée car le rayonnement rétrodiffusé reçu au temps, t, après
l’émission de l’impulsion laser s’est propagé du lidar jusqu’aux aérosols à la portée, x, puis est
retourné jusqu’au lidar à la vitesse de la lumière, c. La formule 5.A.2 montre la relation linéaire
entre la portée et le temps.
t
x = c⋅ (5.A.2)
2
2 4
1 3
6
5 7
9
8
1 Laser pulsé
2 Élément optique séparant les lumières reçue et émise
3 Télescope (utilisé pour l’émission et la réception)
4 Diffuseurs
5 Laser de l’oscillateur local (laser continu)
6 Boucle d’asservissement de fréquence (ce dispositif fixe la différence, ft – flo)
7 Élément optique alignant le faisceau de l’oscillateur local sur l’axe optique du faisceau lumineux
reçu et les mélangeant
8 Détecteur quadratique
9 Convertisseur analogique-numérique et unité de traitement numérique des signaux
où
t est le temps;
K est la constante instrumentale tenant compte des pertes de transmission dans le récepteur;
(t) est la modulation aléatoire de l’amplitude du signal par l’effet de chatoiement (voir la
section 4.5.4);
Le rendement hétérodyne, 𝛾(t), est une mesure de la qualité du mélange optique des ondes
rétrodiffusées et de l’oscillateur local sur la surface du détecteur. Il ne peut pas dépasser 1.
Un bon rendement hétérodyne nécessite un dimensionnement et un alignement soigneux
de l’oscillateur local par rapport à l’onde rétrodiffusée. Les conditions optimales de mélange
sont décrites dans la référence [3]. Le rendement hétérodyne n’est pas une fonction purement
instrumentale; il dépend aussi de la turbulence de l’indice de réfraction (Cn2) le long du
faisceau laser (voir la référence [4]). Dans des conditions de forte turbulence atmosphérique, les
fluctuations de l’indice de réfraction dégradent le rendement hétérodyne. Cela peut se produire
lorsque le lidar est utilisé à proximité du sol pendant une chaude journée d’été.
Dans la formule 5.A.4, Pr(t) est la puissance instantanée de la lumière rétrodiffusée. Elle est
donnée par l’équation lidar (voir la référence [3]):
+∞
2x
Pr ( t ) = A ⋅ ∫x
−2
⋅ G ( x) ⋅ g t − ⋅ β ( x ) ⋅ τ ( x ) dx
2
(5.A.4)
0
c
avec
x
τ ( x ) = exp − α (ζ ) dζ
∫
0
où
G(x) est la fonction de sensibilité dépendant de la portée (0 ≤ G(x) ≤ 1) tenant compte, par
exemple, de l’atténuation du rendement du récepteur à courte portée pour éviter la
saturation du détecteur;
L’extraction de la mesure de la vitesse radiale à partir de signaux hétérodynes fait appel à une
analyse spectrale. Celle-ci est effectuée dans le domaine numérique après conversion
analogique-numérique des signaux hétérodynes. Un aperçu du traitement est donné à la
figure 5.A.3. L’analyse de fréquence est appliquée à une fenêtre temporelle (t, t + Δt) et répétée
pour un nombre, N, d’impulsions lidar. La fenêtre définit une porte de mesure (x, x + Δx) avec
x = c ∙ t / 2 et Δx = c ∙ Δt / 2. N est lié au temps d’intégration, tint = 1/fPRF, du mesurage (fPRF est la
fréquence de répétition des impulsions). L’analyse des signaux consiste à moyenner les fonctions
de densité de puissance spectrale des signaux par porte de mesure. Un estimateur de fréquence
est ensuite utilisé pour estimer la fréquence centrale du pic du signal. Il s’agit d’une estimation,
fhet , de la fréquence, fhet = Δf + ft – flo, du signal hétérodyne (voir la figure 5.A.3).
Par exemple, lorsque le signal est à valeurs réelles (pas de démodulation complexe), le décalage
de fréquence ft – flo est fixé à environ Fs / 4, de sorte que v r ≤ λ Fs / 8 . Inversement, une
spécification du système exigeant la possibilité de mesurer les vitesses radiales jusqu’à la valeur
vmax impose Fs ≥ 8vmax / λ .
La fonction décrivant la moyenne spatiale du vent (noyau d’intégration) est égale au produit
de convolution entre le profil d’impulsion et le profil de la porte de mesure. Sa longueur est
fonction de la longueur de l’impulsion dans l’atmosphère, Δr (voir la formule 5.A.6), de la porte
de mesure, Δx, et du facteur de pondération, 𝜅, où 𝜅 est le rapport entre la largeur de porte à mi-
hauteur (FWHM) et Δx.
c ⋅ Tp
∆r = (5.A.6)
2
où
La résolution en portée, ΔR, est définie comme la largeur à mi-hauteur du noyau d’intégration.
Pour une impulsion gaussienne et une porte de mesure non pondérée, ΔR est donné par la
formule 5.A.7[6]:
c ∆t ∆x
∆R = ⋅ = (5.A.7)
2 π ⋅ ∆t π ⋅ ∆x
erf erf
2Tp 2∆ r
722 PARTIE II. SYSTÈMES D’OBSERVATION
1 2 3 4
N
.
.
.
Pour une impulsion gaussienne et une porte de mesure pondérée par des poids gaussiens, ΔR est
donné par la formule 5.A.8:
c 2 2
∆R = ⋅ Tp2 + (κ ⋅ ∆t ) = ∆ r 2 + (κ ⋅ ∆ x ) (5.A.8)
2
Comme le montre la figure 5.A.3, plusieurs signaux sont pris en compte et découpés en portes de
mesure. Le spectre moyen est calculé et un estimateur de fréquence est appliqué.
Des portes de mesure successives peuvent se recouvrir partiellement (les mesurages successifs
de la vitesse radiale sont alors partiellement corrélés), être adjacentes ou disjointes (il existe alors
un «trou» dans le profil de la vitesse radiale dans la ligne de visée).
Plusieurs estimateurs de fréquence possibles sont présentés dans la référence [6] avec une
première analyse de leurs performances. Leurs performances sont discutées de manière plus
approfondie dans la référence [7]. Quel que soit l’estimateur, la densité de probabilité des
estimations est la somme d’une distribution uniforme de «mauvaises» estimations (erreurs
grossières) réparties sur l’ensemble de la bande [–fmax, fmax] et d’une distribution relativement
étroite de bonnes estimations, souvent modélisée par une loi normale, comme indiqué dans la
formule 5.A.9:
2
b
+
1−b
exp −
(
fhet − f het )
p ( fhet ) = 2 fmax 2πσ f 2σ f2
, pour f ∈ − f
r max , fmax (5.A.9)
0 sinon
En principe, la fréquence moyenne, f het, peut être différente de la fréquence «vraie» du signal
hétérodyne, fhet. Cela peut se produire, par exemple, en cas de glissement de fréquence pendant
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 723
TROPOSPHÈRE
l’impulsion laser (voir la référence [8]). Toutefois, ces conditions sont rarement rencontrées et un
bon lidar Doppler pulsé hétérodyne produit dans la pratique des mesures sans biais des
décalages de fréquence Doppler.
Les mesurages par lidar Doppler hétérodyne ont pour but de caractériser le champ de vent. Dans
chaque intervalle de portée, l’évaluation de la variable mesurée conduit à la vitesse radiale; voir la
formule 5.A.5.
Il existe d’autres variables cibles, comme la variabilité de la vitesse radiale, qui ne sont pas traitées
dans la présente annexe.
Les variables cibles peuvent être utilisées comme données d’entrée pour différentes méthodes
d’extraction permettant d’obtenir des produits météorologiques tels que le vecteur vent en un
point ou sur une ligne (profil), dans un plan arbitraire ou dans l’espace dans son ensemble. Cela
inclut également le mesurage des cisaillements du vent, des turbulences de sillage d’aéronefs
(voir la figure du supplément C), des vents anabatiques ou catabatiques. Un autre objectif des
mesurages par lidar Doppler est de déterminer les propriétés cinématiques et les paramètres des
champs de vent hétérogènes tels que la divergence et la rotation. Voir les exemples d’applications
dans le supplément C.
Le bruit de Schottky (ou de grenaille) est représenté par n(t) dans la formule 5.A.3. Sa variance
est proportionnelle à la puissance de l’oscillateur local, comme indiqué dans la formule 5.A.10:
n2 SN = 2eSPlo B (5.A.10)
où
ηe
S est la sensibilité du détecteur, S = , où 𝜂 est le rendement quantique du détecteur;
hf t
B est la bande passante de détection.
724 PARTIE II. SYSTÈMES D’OBSERVATION
Il provoque des erreurs grossières et limite la portée maximale du signal. Si aucune autre source
de bruit ne prédomine, la force du signal hétérodyne en fonction du niveau de bruit est mesurée
par le rapport porteuse/bruit, CNR, comme indiqué dans la formule 5.A.11[6]:
η ⋅ K ⋅ γ (t )
CNR = Pr ( t ) (5.A.11)
h ⋅ ft ⋅ B
Note: Certains auteurs désignent parfois par «rapport signal/bruit» ce qui est défini dans la présente annexe en tant
que «rapport porteuse/bruit».
Des sources de bruit supplémentaires peuvent affecter le rapport signal/bruit. Comme le bruit de
Schottky, leur densité spectrale est constante sur la bande passante de détection (bruit blanc).
a) Le bruit d’obscurité est généré par les fluctuations du courant d’obscurité du détecteur, iD,
comme indiqué dans la formule 5.A.12:
n2 DN = 2e iD B � (5.A.12)
Le bruit d’intensité relatif (dB/Hz) est le bruit de la puissance de l’oscillateur local rapporté au
niveau de puissance moyen. Le bruit d’intensité relatif (RIN) présente généralement un pic à la
fréquence d’oscillation de relaxation, puis chute à des fréquences plus élevées jusqu’à ce qu’il
converge avec le niveau de bruit de Schottky (bruit rose). Le courant de RIN augmente avec le
carré de la puissance de l’oscillateur local.
2
n2RIN = ( SPlo ) 100,1RIN B (5.A.14)
Dans un bon système lidar, iD, RIN, 1/RL sont suffisamment faibles pour que le bruit de Schottky
de l’oscillateur local constitue la principale source de bruit. Dans ce cas uniquement, la
formule 5.A.14 est applicable.
4.5.4 Chatoiement
Pour un lidar Doppler cohérent, le signal hétérodyne est la somme de nombreuses ondes
rétrodiffusées par des particules individuelles. Étant donné que les particules sont réparties
de façon aléatoire le long du faisceau dans des volumes beaucoup plus longs que la longueur
d’onde du laser, les ondes rétrodiffusées ont une phase aléatoire lorsqu’elles atteignent la
surface sensible du détecteur. Elles s’additionnent donc de façon aléatoire. De ce fait, le signal
hétérodyne a une phase et une amplitude aléatoires. Ce phénomène est appelé chatoiement
(voir la référence [10]). Il limite la précision des estimations de fréquence.
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 725
TROPOSPHÈRE
Un mesurage précis de la vitesse radiale nécessite une connaissance exacte de fr – flo. Toute
incertitude dans cette valeur entraîne un biais de fr . Si la fréquence du laser, ft, n’est pas stable, il
convient soit de la mesurer soit de la fixer par rapport à flo.
L’assignation en distance des mesurages Doppler est basée sur le temps écoulé depuis l’émission
de l’impulsion laser. Ce temps doit être mesuré avec une précision satisfaisante (l’erreur, εt,
doit être inférieure ou égale à 2δ · x / c, où δ · x est la précision requise pour l’assignation de
la portée). Cela exige notamment de déterminer au moins avec cette précision le temps de
l’émission de l’impulsion laser.
Les lidars Doppler reposent sur la rétrodiffusion des aérosols. Les aérosols sont pour la plupart
générés au niveau du sol, puis soulevés à des plus hautes altitudes par convection ou turbulence.
Ils se trouvent donc en grandes quantités dans la couche limite planétaire (généralement
1 000 m d’épaisseur durant la journée dans les zones tempérées, 3 000 m dans les régions
tropicales), mais à des concentrations beaucoup plus faibles au-dessus. De ce fait, les lidars
Doppler mesurent difficilement les vents au-dessus de la couche limite planétaire, excepté en
présence de couches d’aérosols à haute altitude telles que les poussières désertiques ou les
panaches volcaniques.
Les faisceaux laser sont fortement atténués par le brouillard ou les nuages. De ce fait, la portée
maximale des lidars Doppler est fortement limitée dans le brouillard (quelques centaines de
mètres au mieux) et ne permet pas de mesurer les vents à l’intérieur ou au-delà d’un nuage.
Ils sont capables de pénétrer dans des nuages peu visibles comme les cirrus. Par conséquent,
des informations concernant les vents à haute altitude (8 à 12 km) peuvent être extraites de la
rétrodiffusion des particules glacées.
Les lidars Doppler détectent les gouttelettes d’eau ou les cristaux de glace des nuages lorsqu’ils
sont présents dans l’atmosphère. Étant des diffuseurs efficaces, ils peuvent dominer la puissance
du signal rétrodiffusé par l’atmosphère, en cas de fortes précipitations par exemple, auquel cas le
lidar Doppler mesure la vitesse radiale des hydrométéores plutôt que le vent radial.
La pluie lessive l’atmosphère, rabattant les aérosols sur le sol. La portée d’un lidar Doppler est en
général nettement réduite après la pluie jusqu’à ce que les aérosols soient à nouveau soulevés.
La présence d’eau de pluie sur le hublot d’un lidar Doppler atténue fortement sa transmission.
À moins qu’il ne soit équipé d’un essuie-glace ou d’une soufflerie, il convient d’essuyer
manuellement son hublot.
Comme expliqué à la section 4.2, le rendement de détection hétérodyne est dégradé par
la présence de la turbulence de l’indice de réfraction le long du faisceau. La turbulence de
l’indice de réfraction est le plus souvent présente à proximité de la surface pendant les journées
ensoleillées. La portée maximale d’un lidar Doppler en visée horizontale proche de la surface
peut donc être nettement dégradée dans de telles conditions.
726 PARTIE II. SYSTÈMES D’OBSERVATION
La durée de l’impulsion laser, Tp, est la largeur de bande à mi-hauteur de l’enveloppe d’impulsion
laser, g(t). Tp définit la longueur explorée de l’atmosphère, Rp, contribuant au signal lidar
instantané, comme indiqué dans la formule 5.A.15:
c ⋅ Tp
Rp = (5.A.15)
2
Par exemple, une durée d’impulsion de 200 ns correspond à une longueur explorée d’environ
30 m.
La fréquence de répétition des impulsions, fPRF, est la fréquence d’émission des impulsions
laser. fPRF détermine le nombre d’impulsions émises et moyennées par ligne de visée pendant la
durée de mesure. Elle détermine également la portée maximale univoque au-delà de laquelle
les signaux issus de deux impulsions laser consécutives se chevauchent. La portée maximale
univoque, RMaxO, est liée à fPRF comme indiqué dans la formule 5.A.16:
c
RMaxO = � (5.A.16)
2 fPRF
max
Par exemple, pour une portée opérationnelle maximale de 15 km, la valeur maximale de fPRF est
10 kHz.
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 727
TROPOSPHÈRE
Cependant, comme pour les radars, des types spécifiques de modulation (fréquence de
porteuse, fréquence de répétition, etc.) peuvent surmonter l’ambiguïté en portée au-delà de
RMaxO.
L’émetteur/récepteur est défini au moins par les paramètres indiqués dans le tableau 5.A.1.
Diamètre du faisceau laser et facteur de Pour un faisceau gaussien, le diamètre du faisceau laser est
troncature défini comme le diamètre mesuré à 1/e2 en puissance au niveau
de l’ouverture du lidar. Le diamètre du faisceau laser définit le
niveau d’éclairement et donc la sécurité oculaire. Le facteur de
troncature est le rapport entre le diamètre mesuré à 1/e2 et la
dimension physique de l’ouverture de l’instrument.
En principe, les systèmes pulsés sont des systèmes monostatiques. Pour les systèmes à ondes
continues, des configurations bistatiques sont également disponibles.
L’échantillonnage du signal lidar pulsé en fonction de la distance est déterminé par les
paramètres indiqués dans le tableau 5.A.2.
Nombre de portes de mesure Pour un traitement en temps réel, l’estimation spectrale de toutes
les portes de mesure doit être calculée dans un délai inférieur au
temps d’intégration.
Plage de mesure de la vitesse radiale Des vitesses de vent aussi faibles que 0,1 m/s peuvent être
du vent mesurées à l’aide de systèmes lidar Doppler. Dans la partie
supérieure, la plage de mesure n’est limitée que par la conception
technique, principalement la bande passante de détection. Une
plage de vitesse radiale du vent de plus de 70 m/s peut être
mesurée.
Accélération angulaire Définit la rapidité avec laquelle la vitesse angulaire peut varier.
À définir pour des trajectoires complexes avec des changements
rapides de direction. Des dépassements angulaires peuvent être
observés à une accélération angulaire élevée.
Résolution angulaire Pas angulaire minimal que la ligne de visée peut couvrir. Elle peut
être limitée par un facteur de réduction du moteur, la position, un
encodeur ou un frottement mécanique.
Le facteur de mérite (FOM) aide à comparer les performances en portée de lidars ayant des
paramètres différents. L’exemple illustré à la figure 5.A.4 permet de classer la sensibilité des
lidars pulsés, indépendamment des paramètres atmosphériques. Le FOM est calculé à partir de
l’équation lidar (voir la formule 5.A.4) et est proportionnel au rapport porteuse/bruit (CNR) sur le
spectre de vitesse, qui est défini sur la densité spectrale moyenne comme le rapport de l’intensité
de crête du signal Doppler à l’écart type du bruit spectral, supposé être constant (bruit blanc). N
est le nombre d’impulsions moyennées.
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 729
TROPOSPHÈRE
Le FOM est défini pour un ensemble de paramètres du lidar, par la formule 5.A.17:
où
E est l’énergie laser à la sortie du laser (l’énergie reçue est proportionnelle à la puissance de
crête et à l’empreinte laser);
Tp est la durée d’impulsion (ce terme provient d’une bande passante étroite, inversement
proportionnelle à Tp);
D est le diamètre du télescope collecteur (pour des applications types à longue portée, la
dimension optimale est de 100 à 150 mm pour des longueurs d’onde dans le domaine de
proche infrarouge);
Lorsque l’on compare deux lidars à deux longueurs d’onde différentes, il convient de prendre
en compte la dépendance spectrale des paramètres atmosphériques. Le FOM doit être calculé
avec un temps d’intégration inférieur ou égal à 1 s pour éviter des fluctuations du vent ou de la
turbulence supérieures à la largeur de bande spectrale Doppler.
Un lidar peut augmenter son FOM avec un temps d’accumulation plus long dans cette limite de
temps de 1 s.
Compte tenu de l’état de la technique des composants optiques à faible aberration, ηall peut être
estimé par le produit de la transmission sur le trajet d’émission et de la transmission sur le trajet
de réception.
Il doit être noté que le FOM d’un lidar Doppler pulsé peut ne pas être augmenté indéfiniment par
l’augmentation de la surface de collecte, D², car la cohérence spatiale de l’onde reçue est limitée
par la turbulence de l’indice de réfraction qui dégrade le rendement hétérodyne[3]. Une limite
pratique se situe à un diamètre utile d’environ D = 125 mm pour les lidars à longue portée.
Étant donné que le rapport porteuse/bruit sur le spectre de vitesse est inversement proportionnel
au carré de la portée, la portée opérationnelle maximale est approximativement proportionnelle
à la racine carrée du FOM, lorsque l’absorption atmosphérique peut être négligée. Lorsque le
FOM est exprimé en mJ ns m2, la portée opérationnelle maximale, exprimée en km, est presque
égale à la racine carrée du FOM.
730 PARTIE II. SYSTÈMES D’OBSERVATION
Le tableau 5.A.4 calcule le FOM pour des valeurs de lidar types et leur portée de mesure type
correspondante.
Tableau 5.A.4. Facteur de mérite pour des caractéristiques de lidar types et leur portée de
mesure type correspondante
Une bonne pratique consiste à adapter la durée d’impulsion à la porte de mesure souhaitée
(voir la section 4.6) de sorte que la résolution spatiale dépende de ces deux paramètres de
façon égale. Sur la base de cette hypothèse, la résolution spatiale est proportionnelle à la durée
d’impulsion. Plus l’impulsion est brève, meilleure est la résolution. La résolution en vitesse est
proportionnelle à la largeur du spectre et est plus grande lorsque le spectre est étroit. La largeur
du spectre étant inversement proportionnelle à la durée d’impulsion, la résolution en portée et la
résolution en vitesse sont aussi inversement proportionnelles.
L’exactitude de mesure de la vitesse radiale est définie (conformément à la norme ISO 5725-1) en
termes de:
a) Justesse (ou biais) comme la différence statistique moyenne entre un grand nombre de
mesures et la valeur vraie;
b) Exactitude (ou incertitude) comme l’écart type statistique d’une série de mesures
indépendantes. Elle n’est pas liée à la valeur vraie.
Des données lidar de bonne qualité sont obtenues lorsque la fidélité des mesurages de la vitesse
radiale est supérieure à une valeur cible (par exemple 1 m/s) avec une probabilité prédéfinie
d’occurrence (par exemple 95 %).
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 731
TROPOSPHÈRE
Une valeur d’erreur (1σ) de 0,5 m/s doit être jugée adéquate pour des applications
météorologiques types et pour les mesurages du vent visant à déterminer les statistiques de
catégories de dispersion en vue de la modélisation de la pollution atmosphérique[13]. Pour des
applications d’énergie éolienne, les exigences peuvent être plus élevées (0,2 m/s).
La disponibilité des données est définie comme le rapport de données ayant une fidélité P au
nombre total de données pendant une période de mesure.
La disponibilité des données de mesure, c’est-à-dire l’aptitude à déterminer le profil de vent, est
principalement fonction de la concentration d’aérosol et des nuages. D’autres critères de filtrage
peuvent être appliqués, selon l’exactitude requise des données. Par exemple, il convient de
rejeter les données qui présentent un écoulement très hétérogène autour du disque de balayage.
En supposant que la ligne de visée du lidar reste dans la couche limite planétaire (c’est-à-dire
aucune variation significative du signal le long de la ligne de visée), la figure 5.A.5 illustre une
courbe type de disponibilité des données d’un lidar pulsé en fonction de la portée.
Dans ce cas, la portée pour une disponibilité des données de 80 % (P80) est de 7 500 m.
Les performances illustrées dans ce schéma sont fondées sur une atmosphère normalisée:
b) Aucune précipitation;
100
90
80
70
60
50
40
30
20
10
0
0 2 000 4 000 6 000 8 000 10 000 X
X Portée en mètres
Y Disponibilité en %
La portée de mesure doit être définie avec un critère de disponibilité donné. Une étude récente à
ce sujet est décrite dans la référence [14].
Si la disponibilité n’est pas mentionnée, la portée opérationnelle maximale est supposée être R80,
c’est-à-dire la distance maximale sur laquelle la disponibilité est supérieure à 80 %.
Pour une disponibilité donnée, une variation de la précision de la vitesse entraîne une variation
de la portée opérationnelle maximale.
5.4.1 Généralités
Pour évaluer précisément l’exactitude des variables cibles, il convient que le fabricant procède
à un ensemble d’essais de validation pour la portée et la vitesse. Certains peuvent être réalisés
dans des conditions de laboratoire. D’autres essais de validation ne peuvent être réalisés que
par comparaison à d’autres instruments de référence tels que des anémomètres à coupelles ou
soniques.
5.4.2.1 Généralités
Cet essai consiste à obtenir des mesures du vent en orientant le faisceau vers une cible dure (tout
bâtiment dans la portée du lidar) fixe (immobile) et à vérifier que la mesure de la vitesse radiale
retournée par le lidar est de 0 m/s.
Cet essai vérifie que la différence de fréquence, ft – flo, entre les impulsions laser émises et
l’oscillateur local est connue ou déterminée avec une exactitude suffisante (voir la section 4.5.3).
Il convient de relever les mesures de vitesse d’une cible dure pendant au moins 10 min. L’essai est
satisfaisant si la série chronologique de vitesses radiales de la cible dure est centrée sur environ
0 m/s.
Lors de cet essai, le faisceau lidar pulsé est vertical et les mesures de la vitesse radiale sont
relevées pendant au moins 20 min à une fréquence d’au moins un profil de vitesses radiales
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 733
TROPOSPHÈRE
chaque seconde. Désignons par vr (x,k), k = 1,…,K la série chronologique des vitesses
radiales mesurées à la distance x. L’essai consiste à établir le spectre de puissance de la série
chronologique, comme indiqué dans la formule 5.A.18:
2
K
1
V ( x, f ) = ∑vr ( x, k ) exp ( −2 jπ fkδ t ) (5.A.18)
K k =1
où
Note: L’essai doit être réalisé la nuit lorsque la variabilité naturelle du vent est faible, c’est-à-dire lorsque le vent est
jugé calme. Il se peut alors que les erreurs de mesure soient nettement supérieures aux fluctuations naturelles du vent
de sorte que la portion f–5/3 du spectre de puissance soit masquée.
Décrite de manière détaillée dans la référence [15], cette technique permet d’estimer la fidélité
du mesurage du lidar sans données accessoires.
Dans la figure 5.A.6, la ligne représente V(f ). À basses fréquences, il convient que V(f ) soit
proportionnel à f-5/3 (comportement spectral de la variabilité naturelle du vent; voir les tirets). À
des fréquences élevées, le spectre devient plat (ligne en tirets et pointillés) à un niveau
directement égal à la variance des erreurs de mesure, σ e2 ( x ).
102
100
10–2
10–4
10–6
10–5 10–4 10–3 10–2 10–1 100
f Fréquence
V(x,f ) Spectre de puissance
Le dernier essai consiste à diriger le faisceau lidar au voisinage immédiat d’un anémomètre
sonique installé sur un mât ou une plate-forme fixe et à comparer les vitesses radiales lidar avec la
projection des vecteurs vent tridimensionnels acquis par l’anémomètre sonique dans la direction
du faisceau.
Les données lidar et de l’anémomètre sonique doivent être moyennées sur une minute.
La direction du faisceau lidar doit être déterminée avec une exactitude suffisante (de l’ordre de
1° ou mieux) et aussi près que possible du plan horizontal. Le faisceau lidar doit être à la même
hauteur que l’anémomètre sonique (différence de hauteur de l’ordre de 1 m ou moins).
La valeur quadratique moyenne des différences entre les données lidar et de l’anémomètre
sonique doit être inférieure à 0,1 m/s.
Le mât doit être équipé d’au moins trois anémomètres à coupelles montés horizontalement.
La possibilité de comparer des lidars Doppler à des radars météorologiques Doppler peut
être une option lorsque les deux systèmes sont situés au même endroit. On commence juste
à connaître les détails de ce type de comparaison car le déploiement de systèmes intégrant
les deux capteurs de télédétection par tout temps du champ de vent au niveau des aéroports,
notamment pour la détection des cisaillements du vent, ne fait que débuter. Des études ont été
menées récemment[16;17;18]. Il convient que les deux capteurs soient situés au même endroit et
explorent le même volume atmosphérique pour garantir des comparaisons représentatives.
Outre l’exigence relative à l’implantation, il est très important de sélectionner des situations
météorologiques dans lesquelles les traceurs ciblés par les deux capteurs représentent réellement
le flux d’air. Par temps sec, le lidar Doppler fonctionne mieux, bien que dans de telles conditions
d’air clair, le radar mesure uniquement les retours en raison de la diffusion due aux insectes.
Ces signaux diffusés par les insectes ne fournissent aucune indication précise concernant
le mouvement réel de l’air. La comparaison avec les données de lidars Doppler montre
généralement des différences de plusieurs mètres par seconde. Par conséquent, la classification
par écho en termes de cibles radar doit être activée afin de pouvoir rejeter les retours dus aux
insectes. Cela signifie que le radar doit être capable de mesurer à deux polarisations linéaires
orthogonales. En cas de précipitations toutefois, les conditions sont optimales pour le radar,
alors que le lidar peut avoir une portée de couverture nettement réduite. Dans des situations
météorologiques de faible pluie ou de bruine provenant de nuages stratiformes, on s’attend à ce
que les deux capteurs radar et lidar fournissent des données de haute qualité. De telles situations
sont donc les mieux adaptées à cette procédure de validation. Un filtrage approprié des données
radar sur la base de la classification de la cible en utilisant des moments dipolaires doit être
effectué afin d’éliminer les retours non météorologiques.
Si ces exigences sont satisfaites, il est possible de comparer un radar météorologique Doppler
et un lidar Doppler sur la base des profils de vent horizontal tels qu’obtenus, par exemple, par
les méthodes d’analyse VVP (traitement du volume de vitesses) ou VAD (affichage vitesse-
azimut). Dans ce cas, la géométrie de balayage doit être prise en compte. Dans l’idéal, il convient
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 735
TROPOSPHÈRE
que la géométrie de balayage du radar et du lidar soit la même en ce qui concerne les angles
d’élévation. Une autre option, qui reste à évaluer, pourrait consister à comparer les vitesses
radiales réelles du vent, porte de mesure par porte de mesure, entre les systèmes radar et lidar.
Une comparaison avec des radars profileurs de vent peut être effectuée si les deux systèmes
sont situés au même endroit. Les conditions météorologiques dans lesquelles les deux capteurs
fonctionnent de façon optimale ne s’excluent pas mutuellement (suffisamment de traceurs
d’aérosols pour le lidar et suffisamment de tourbillons turbulents comme cibles pour la diffusion
de Bragg pour le profileur de vent). Il faut veiller à ce que les deux capteurs soient exposés à des
conditions atmosphériques optimales. De plus, une attention particulière doit être portée au
mode de balayage utilisé pour obtenir le profil vertical du vent afin que le volume exploré par le
lidar corresponde à celui exploré par le profileur de vent.
Dans des conditions de ciel clair, l’atmosphère peut être décrite par la visibilité, V, la
concentration d’aérosol et le type d’aérosol, les deux dernières propriétés pouvant être décrites
par les deux paramètres optiques du lidar: coefficients d’extinction et de rétrodiffusion. La
visibilité (voir, par exemple, la norme ISO 28902-1) et l’humidité sont mesurées par des capteurs
météorologiques locaux standard basés sur le sol, contrairement au type d’aérosol et à sa
distribution granulométrique. Pour simplifier, les types d’atmosphère peuvent être classés en
quelques catégories selon leur rapport lidar. Les valeurs du rapport lidar dans le domaine de
proche infrarouge sont généralement limitées à une fourchette de 30 à 50 stéradians. RMaxO ne
dépendra pas trop de la variabilité de l’aérosol sur le site, excepté dans des conditions associées à
des sources locales de pollution.
La visibilité est un paramètre important pour la portée du lidar. L’équation lidar (voir la
formule 5.A.4) indique que la puissance reçue est proportionnelle au coefficient de rétrodiffusion
et diminue de façon exponentielle avec l’extinction, donc augmente avec la visibilité. Étant donné
que α (x) et β (x) sont proportionnels, il existe un maximum pour la fonction Pr(t) (voir l’équation
lidar à la formule 5.A.4, et la figure 5.A.7), et donc pour RMaxO.
Pour écarter les conditions de visibilité défavorables pour les lidars Doppler cohérents (brouillard
et atmosphère très propre), seules des conditions de brume et de ciel clair sont choisies pour
les mesurages de portée. Les lidars actuels peuvent fonctionner dans des conditions de
précipitation, mais sont sujets à des erreurs dans la détermination de la composante verticale du
vent; la composante horizontale s’est avérée être très exacte (voir la référence [18]).
736 PARTIE II. SYSTÈMES D’OBSERVATION
14 000
A B C D
13 000
5
12 000
11 000
10 000 4
9 000
8 000 3
7 000
6 000 2
5 000
1
4 000
3 000
2 000
1 000
0
1 2 3 4 5 10 20 30 40 50 60 80 100 X
X Visibilité en km
Y Portée maximale en mètres
1à5 Différentes valeurs du FOM (voir le tableau 5.A.5)
A Brouillard
B Brume
C Clair
D Très clair
Numéro de courbe 1 2 3 4 5
FOM type pour un temps
d’intégration de 1 s 20 30 60 100 150
(mJ ns m2)
La rétrodiffusion variant rapidement pour des valeurs élevées d’humidité relative, il convient
d’éliminer par filtrage les données correspondant à une humidité relative > 70 % de l’ensemble
des données de mesure. Ainsi, des conditions de précipitation (pluie, neige) ne sont pas prises en
compte.
a) Le lidar est utilisé dans des conditions opérationnelles (vertical pour les profileurs, faible
élévation pour les lidars à balayage);
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 737
TROPOSPHÈRE
d) Aucune précipitation;
Il convient d’éliminer par filtrage les données ne correspondant pas à ces conditions pour
l’évaluation de la portée opérationnelle maximale.
b) Des ensembles de données sont créés selon les conditions atmosphériques mentionnées
ci-dessus. 100 h de données filtrées sont requises au minimum pour obtenir un ensemble
de données statistiques satisfaisant. Cela représente environ 4 jours de mesurages cumulés,
avec un temps d’accumulation de 1 s. Selon les conditions atmosphériques, la période
d’évaluation peut durer de 4 jours à 1 mois.
a) Vue dégagée: Une visibilité non restreinte peut être limitée par des zones bâties, des arbres
et des bâtiments construits à proximité du site d’installation du lidar. Si la vue est limitée
par des bâtiments, il est possible d’éviter la limitation de la vue horizontale en sélectionnant
un plus grand angle d’élévation. Dans le cas d’un balayage à affichage vitesse-azimut, les
signaux de mesure ne provenant pas de l’atmosphère libre, mais d’obstacles, doivent être
exclus de l’évaluation;
Il est recommandé de faire contrôler à l’avance l’emplacement de mesure envisagé par des
experts (tels que des météorologues).
Pour obtenir la portée opérationnelle optimale, il convient d’installer le lidar sur un sol recouvert
d’herbe tondue sans structures à proximité susceptibles de provoquer de la turbulence
atmosphérique affectant le fonctionnement et les performances du lidar. Il convient d’installer
le lidar à au moins 3 m au-dessus du sol, notamment lorsqu’il n’est pas installé sur un sol
herbeux mais, par exemple, sur du béton, de l’asphalte ou une plate-forme métallique lisse, afin
d’éviter les effets de turbulence à proximité de la sortie optique qui détruiront la cohérence de
l’atmosphère et diminueront ainsi de façon drastique la détection.
738 PARTIE II. SYSTÈMES D’OBSERVATION
En ce qui concerne les mesurages lidar Doppler, les facteurs d’interférence sont:
6.3.1 Généralités
Pour s’assurer que le système fonctionne conformément aux spécifications et pour éliminer les
écarts et erreurs techniques telles que les mauvais réglages[19], une maintenance et des essais
de fonctionnement doivent être réalisés à intervalles réguliers. Outre les informations données
dans la présente section, les champs d’application types et les exigences correspondantes sont
indiqués dans le supplément D.
6.3.2 Maintenance
La maintenance, telle que le nettoyage régulier des composants optiques, l’étalonnage, etc., est
une exigence de base du programme d’assurance de la qualité. Les opérations de maintenance
peuvent être effectuées par le personnel sur le site, en utilisant un logiciel de détection
automatique de la chute du signal due, par exemple, au dépôt de poussière, et en effectuant
les corrections appropriées des données, ou une combinaison des deux. Les intervalles de
maintenance typiques sont de trois mois, selon les conditions environnementales.
Il convient d’effectuer des essais de fonctionnement tous les 6 à 36 mois. Les essais dépendent de
la conception de chaque système. Le fabricant doit spécifier les modes opératoires d’essai et doit
fournir les outils d’essai nécessaires.
6.3.4 Incertitude
(pour information)
Comme indiqué dans la présente annexe, plusieurs méthodes permettent d’utiliser les lidars
pour mesurer le vent atmosphérique. Les quatre méthodes les plus couramment utilisées sont
le lidar Doppler cohérent pulsé et à ondes continues, le lidar Doppler à détection directe et le
lidar Doppler à résonance (plus couramment utilisé pour les mesurages de la couche de sodium
mésosphérique).
a) L’énergie éolienne;
e) La surveillance des dangers liés au vent pour des applications météorologiques pour
l’aviation;
f) Le cisaillement du vent;
La norme ISO 28902-3 s’adressera aux fabricants de lidars Doppler à ondes entretenues ainsi
qu’aux organismes concernés par les essais et la certification de leur conformité. Il fournira
également des recommandations aux utilisateurs pour un usage approprié de ces instruments.
Une bibliographie complète de publications indépendantes sera fournie.
SUPPLÉMENT B. EXTRACTION DU VECTEUR VENT
(pour information)
B.1 Généralités
Le vent est une grandeur vectorielle tridimensionnelle, le champ de vent étant généralement
fonction de l’espace et du temps. Par conséquent, le mesurage du vent instantané à une
position particulière nécessite toujours la détermination de trois composantes vectorielles. Un
lidar Doppler simple est uniquement capable de mesurer la composante (ou projection) du
vecteur vent le long de la ligne de visée du faisceau laser. Trois systèmes lidar distincts seraient
donc requis pour effectuer un mesurage local exact à un moment donné. En posant certaines
hypothèses, il est possible d’estimer le vecteur vent complet à partir d’un seul lidar Doppler
«monostatique». Ce processus est appelé extraction du vecteur vent, car l’exactitude de
l’estimation du vecteur vent dépend de la validité des hypothèses concernant le champ de vent.
La figure ci-dessous représente le vecteur vent u ( r , t ) dans le système de coordonnées
cartésiennes avec les vecteurs unitaires i , j , k . Les composantes ux, uy, uz sont des fonctions
scalaires de position et de temps, r = r ( x, y, z, t ) est le vecteur position ou rayon d’une particule
d’air.
ux
dr
u = = u (B.1)
dt y
u
z
ou
(
u = u x ⋅ i + u y ⋅ j + uz ⋅ k ) (B.2)
Le système de coordonnées de la figure pointe vers l’est (E) avec la direction x positive ( i ), vers le
nord (N) avec la direction y positive ( j ) et vers le zénith avec la direction z positive ( k ).
Zénith
ux u ⋅ sin θ
uh = = h
uy (B.5)
uh ⋅ cos θ
ou, en notation en composantes:
uh = uh = U ⋅ cos φ = u2x + u2y (B.6)
La valeur uh désigne la vitesse du vent horizontal ou plus familièrement la vitesse du vent. Selon
la convention météorologique, la direction du vent est définie comme la direction opposée au
vecteur vent, uh . Elle est orientée dans le sens des aiguilles d’une montre du nord à l’est, au sud et
à l’ouest (voir la figure ci-dessus).
Dans le cas d’un lidar balayant dans un disque à un angle d’élévation fixe dans un écoulement
uniforme du vent, les points de vitesse individuels dans la ligne de visée suivent une forme de
cosinus en fonction de l’angle d’azimut. Les pics de la fonction correspondent à l’alignement
parallèle ou anti-parallèle de l’angle d’azimut avec la direction du vent. La fonction passe par
zéro lorsque l’angle d’azimut est perpendiculaire à la direction du vent car il n’y a aucune
composante de vitesse le long de la ligne de visée. Les données sont aussi présentées de façon
pratique sous forme d’un diagramme polaire qui fournit en un clin d’œil des informations sur la
vitesse, la direction et la composante verticale du vent. Une routine standard d’ajustement par les
moindres carrés fournit les meilleures estimations des valeurs des trois paramètres inconnus (soit
u, v et w, ou en variante, vitesse horizontale, vitesse verticale et direction du vent).
Dans les mesurages lidar, la composante vr du vecteur vent local u ( r , t ) dans la direction du
faisceau du laser, c’est-à-dire la vitesse radiale à toute position arbitraire r , est le mesurande
direct déterminé à partir du déplacement de fréquence Doppler (voir la figure 5.A.5). Si le
vecteur vent u ( r ) est écrit dans un système de coordonnées sphériques ( er , eθ , eφ ) au lieu d’un
système de coordonnées cartésiennes ( i , j , k ) , la vitesse radiale vr est facilement définie
(comparer avec la formule B.2)[20]:
(
u ( r ) = u ( r, θ , φ ) = ur ⋅ er + uθ ⋅ eθ + uφ ⋅ eφ ) (B.7)
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 743
TROPOSPHÈRE
où:
er est le vecteur unitaire dans la direction du faisceau;
eθ , eφ sont les vecteurs unitaires dans la direction de l’azimut et de l’élévation;
La projection du vecteur vent u ( r ) sur la direction du faisceau, c’est-à-dire le produit scalaire (∘),
peut être calculée à l’aide de la formule B.8:
u ( r ) er = ur ≡ vr ≡ −vLOS (B.8)
Par convention, v LOS est égale à la composante radiale négative vr du vecteur vent local à la
position r . Le signe négatif de v LOS correspond à la convention selon laquelle, dans les systèmes
lidar, la vitesse du vent est considérée comme positive en direction du laser.
(
vLOS = −vr = − ux ⋅ cos φ ⋅ sin θ + u y ⋅ cos φ ⋅ cos θ + uz ⋅ sin φ ) (B.9)
Il convient que l’atmosphère soit explorée à différents angles afin de détecter les composantes
(cartésiennes) ux, uy, uz du vecteur vent à l’aide du lidar Doppler.
Note: Les composantes du vent ux, uy, uz sont fréquemment désignées par u, v, w.
Toutefois, toutes les composantes du vent sont généralement sujettes à des fluctuations spatiales
et temporelles car le champ de vent ne peut généralement pas être considéré comme homogène
et fixe en raison de divers processus atmosphériques à petite échelle tels que les ondes de
gravité, la convection, la turbulence ou les effets d’écoulement orographiques. Il convient donc
de poser des hypothèses d’homogénéité pour extraire une estimation du vecteur vent à partir
des composantes radiales. Plus cette hypothèse est solide, plus l’estimation est représentative du
champ de vent réel. Le problème a été largement traité dans la littérature et expliqué dans des
ouvrages relatifs au radar et au lidar; voir par exemple les références [21] et [22].
Par conséquent, en supposant que le champ de vent peut être considéré comme fixe sur la
période de mesure et horizontalement homogène sur le volume échantillonné, c’est-à-dire si le
champ de vent est fonction uniquement de la coordonnée verticale z, alors les mesurages du
vent radial pour une hauteur géométrique fixe sont donnés par l’équation matricielle simple
(formule B.10):
A ⋅ u = vr (B.10)
Les lignes de cette matrice A (n x 3) sont constituées des vecteurs unitaires directionnels
décrivant le pointage des n faisceaux. Le vecteur vr est également de dimension n et contient les
vents radiaux obtenus dans les n directions de pointage. Ce n’est rien d’autre qu’une notation
compacte pour les n produits scalaires (intérieurs) tels qu’indiqués dans la formule B.8. Pour
n = 3, l’inverse A–1 existe si A a un rang 3 (par exemple tous les vecteurs lignes sont linéairement
indépendants) et le vecteur vent peut être obtenu directement par la formule B.11:
u = A−1 ⋅ vr (B.11)
744 PARTIE II. SYSTÈMES D’OBSERVATION
Pour n > 3 et rang (A) = 3, le système linéaire est surdéterminé et a généralement une seule
solution ou pas (de solution exacte) du tout. Il est toutefois possible de trouver une solution
approximative qui minimise A · u – vr2. Cette solution des moindres carrés peut être exprimée par
le pseudo-inverse (ATA)–1 · AT de la matrice A comme indiqué dans la formule B.12:
( )
−1
u = AT A ⋅ AT ⋅ vr (B.12)
Dans le cas de la technique d’affinage de faisceau Doppler, les mesurages sont effectués dans
au moins trois directions linéairement indépendantes. Cette méthode permet un balayage très
rapide, mais elle peut donner des mesures biaisées si le champ de vent n’est pas homogène. La
validité des hypothèses d’extraction (homogénéité, fixité) peut être évaluée dans une certaine
mesure si plus de trois directions sont utilisées. Un exemple explicite de la méthode d’affinage de
faisceau Doppler avec n = 3 et n = 4 est donné dans la référence [23].
Si le lidar est suffisamment puissant pour fournir plusieurs balayages d’azimut à différentes
élévations dans un délai raisonnable, ceux-ci peuvent être combinés pour compiler un balayage
de la totalité du volume. Cela permet d’utiliser un modèle plus élaboré du champ de vent qui
peut être ajusté au vecteur d’observations de vr. Cela signifie que, de la même manière que
dans la formule B.10, il est possible d’étendre la série de Taylor en incorporant également le
cisaillement du vent, c’est-à-dire les premières dérivées spatiales. Pour les radars Doppler, cette
procédure est standard et connue généralement en tant que traitement du volume de vitesses.
Elle a été publiée à l’origine dans la référence [26]. Cette analyse conduit ensuite à la formule B.13
au lieu de la formule B.10:
vr = sin θ ⋅ cos φ ⋅ u0 + cos θ ⋅ cos φ ⋅ v0 + sin φ ⋅ w0
+ r ⋅ sin2 θ ⋅ cos2 φ ⋅ u'x
+ r ⋅ cos2 θ ⋅ cos2 φ ⋅ v'y
(
+ r ⋅ cos θ ⋅ sin θ ⋅ cos2 φ ⋅ u'y + v'x ) (B.13)
(
+ sin θ ⋅ cos φ ⋅ ( r ⋅ sin φ − z0 ) ⋅ u'z + w'x )
+ cos θ ⋅ cos φ ⋅ ( r ⋅ sin φ − z0 ) ⋅ (v'
z +w )
'
y
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 745
TROPOSPHÈRE
Il convient de noter que ce modèle ne permet pas d’extraire d’information sur la vorticité
horizontale car u’y et v’x apparaissent uniquement sous forme d’une somme dans la formule B.13.
Cette méthode a été appliquée aux données lidar et comparée aux données de radars
météorologiques Doppler dans la référence [16].
SUPPLÉMENT C. APPLICATIONS
(pour information)
C.1.1 Généralités
À l’heure actuelle, l’un des principaux défis dans le marché de l’énergie éolienne est l’estimation
optimale de la production électrique future d’un parc éolien. Aujourd’hui, la méthode utilisée
pour l’estimer consiste à obtenir la meilleure évaluation possible du potentiel éolien d’un site
donné, la meilleure évaluation de la production potentielle d’une éolienne en fonction du vent
qu’elle reçoit et à évaluer convenablement la perte totale de production pouvant se produire
pendant l’exploitation du parc éolien. Certaines de ces pertes peuvent être dues aux sillages, à
la perte de rendement d’une éolienne, au temps d’arrêt lié à l’exploitation et à la maintenance
du parc éolien et à d’autres paramètres susceptibles d’affecter le fonctionnement global du
parc éolien. À l’heure actuelle, le lidar Doppler cohérent basé au sol est un outil approprié
pouvant être utilisé durant toutes les phases de l’exploitation d’un parc éolien, de la phase de
développement jusqu’à la mise en service, l’exploitation et le renouvellement d’anciens parcs
éoliens.
À l’heure actuelle, le profileur vertical lidar basé au sol (de type pulsé ou à ondes continues) est
largement utilisé dans le secteur de l’énergie éolienne par les principaux développeurs pour
fournir des données extrêmement précises sur la vitesse du vent et pour réduire l’incertitude
horizontale et verticale pendant les campagnes d’évaluation des ressources éoliennes. À l’heure
actuelle, le lidar Doppler cohérent basé sur le sol peut être utilisé sans mât durant une campagne
et les données qu’il fournit sont considérées comme précieuses. Compte tenu des dimensions des
éoliennes et de la hauteur qu’elles peuvent atteindre, le lidar permet d’évaluer convenablement
le profil vertical du vent qui est critique pour la conception d’une éolienne. Le cisaillement du
vent vertical (variation de la vitesse du vent le long de l’axe vertical) et la rotation de vent vertical
(changement de direction du vent le long de l’axe vertical) sont deux éléments clés à prendre en
compte qui peuvent avoir une incidence sur la production énergétique annuelle d’un parc éolien.
Les parcs éoliens sont de plus en plus installés en mer et aujourd’hui, le lidar pulsé à balayage
basé sur le sol peut être utilisé pour des campagnes d’évaluation des ressources éoliennes en mer
depuis la côte. Cela permet de réduire l’incertitude horizontale lors de la campagne d’évaluation
des ressources éoliennes, et ceci à un coût beaucoup plus réduit que le mât météorologique
standard en mer. En outre, la corrélation du vent mesuré à l’aide du lidar à balayage peut être
utilisée pour valider certains modèles de vent pour le passage de la mer à la côte.
C.1.3.1 Généralités
Outre le profileur vertical, lorsqu’une éolienne ne peut pas être atteinte dans la distance de 2,5D
de vent libre de l’éolienne (où D est le diamètre du rotor), le lidar à balayage basé sur le sol peut
également être utilisé pour vérifier la courbe de puissance, en effectuant un balayage du sol
jusqu’à la face avant de l’éolienne.
Lorsque l’on considère globalement un parc éolien, certains coefficients de perte sont appliqués
par les développeurs de parcs éoliens lors du calcul de la production annuelle d’énergie
électrique; plus ces informations sont précises, meilleur est le projet et plus facile est le
financement.
Le lidar basé sur le sol est utilisé dans différents programmes pour la validation du coefficient
de déficit lié aux pertes de sillage. Les principaux développeurs/propriétaires de parcs éoliens
disposent de leur propre outil de modélisation de l’écoulement du vent afin d’optimiser la
conception et l’implantation des parcs éoliens, et aujourd’hui, le lidar basé sur le sol est l’outil
approprié utilisé pour valider leurs modèles grâce aux données générées par le lidar. En termes
d’optimisation de l’exploitation des parcs éoliens, le lidar monté sur nacelle est aussi largement
utilisé, pour la régulation des éoliennes, la détection des défauts d’alignement ou l’étalonnage
d’anémomètres montés sur nacelle.
C.2.1 Généralités
Les cisaillements du vent sont définis comme des variations significatives des vents debout et
arrière dans la trajectoire de décollage et d’approche susceptibles d’affecter les aéronefs[29].
Ces variations rapides de la vitesse de l’air ne peuvent pas être contrecarrées par l’accélération
ou la décélération due aux effets d’inertie. De ce fait, la portance et la traînée, et donc la
trajectoire de vol qui en résulte, varient. Les effets du cisaillement du vent mentionnés ci-dessus
sont particulièrement dangereux s’ils se produisent à proximité du sol, c’est-à-dire pendant le
décollage ou l’atterrissage, au cours desquels ils peuvent provoquer de graves accidents. C’est la
raison pour laquelle, depuis la conférence de Chicago, les normes de l’Organisation de l’aviation
civile internationale (OACI) ont pris en compte les menaces liées au cisaillement du vent pour
le trafic aérien civil en mentionnant les cisaillements du vent dans l’Annexe 3 de la Convention
relative à l’aviation civile internationale – Assistance météorologique à la navigation[29] et en publiant
le Manuel sur le cisaillement du vent dans les basses couches (document de l’OACI n° 9817)[30].
L’Annexe 3 de l’OACI fait la distinction entre deux aspects des cisaillements du vent: les alertes et
les avertissements de cisaillement du vent.
748 PARTIE II. SYSTÈMES D’OBSERVATION
a) Les alertes de cisaillements du vent consistent à fournir des alertes automatiques d’intensité
des cisaillements du vent observée par des capteurs à distance basés sur le sol. Les alertes
sont produites lorsque les cisaillements du vent sont supérieurs à 15 kn (7,5 m/s) en termes
de variations du vent debout/arrière. Comme indiqué dans la référence [30], le danger des
cisaillements du vent est principalement lié aux forts vents horizontaux qui induisent de
fortes variations du vent debout et arrière pour les aéronefs;
b) Les avertissements de cisaillements du vent doivent donner des informations concises sur
l’existence observée ou prévue de cisaillements du vent susceptibles de nuire aux aéronefs.
Ils concernent la zone s’étendant jusqu’à une hauteur de 500 m ainsi que les trajectoires
de décollage et d’approche. Ils sont préparés par le centre météorologique en charge des
observations météorologiques au niveau d’un aéroport donné. Les avertissements de
cisaillements du vent seront préparés «manuellement» à partir de toutes les observations
(au sol, à bord des aéronefs) et des prévisions météorologiques disponibles.
Conformément aux meilleures pratiques décrites dans la référence [30], les lidars Doppler
cohérents constituent une bonne technologie candidate pour produire des alertes et/ou
avertissements de cisaillements du vent car:
a) Les zones d’intérêt sont les trajectoires de décollage et d’approche qui peuvent être
explorées par un lidar Doppler cohérent à balayage à élévation constante (généralement
avec une élévation de 3°) ou des balayages de la trajectoire de descente[31] ou des lignes de
visée le long de la trajectoire de descente;
b) La zone d’exploration pour les alertes de cisaillements du vent couvre deux extensions de
3 milles marins des pistes, c’est-à-dire une portée de mesure d’au moins 7 km. Il convient
que la portée de mesure soit d’au moins 7 km dans des conditions atmosphériques
appropriées (décrites à la section 5);
c) Les alertes de cisaillements du vent sont fournies dans les trois zones (de 1 mille marin) qui
composent les extensions de chaque côté des pistes, couramment appelées ARENA («Area
noted for attention»). Pour calculer les différences de vent debout ou de vent arrière, au
moins deux points sont nécessaires. Cela correspond à une résolution théorique requise
d’au moins 1 852 km. Toutefois, pour obtenir des alertes de cisaillements du vent précises
et pouvoir surveiller tous les types de cisaillements du vent et notamment les plus faibles
que sont les microrafales (dimension > 1,5 km), une résolution en portée de 200 m est
généralement utilisée avec les lidars et les radars;
d) Les documents de l’OACI indiquent la fréquence d’alerte type adaptée à la détection des
cisaillements du vent. Dans les meilleures pratiques mondiales, cette fréquence varie de 1 à
3 min;
e) En premier lieu, il est important de noter qu’il convient que les configurations (telles
que le temps d’accumulation, la vitesse de balayage, la fréquence d’alerte, la forme de la
zone d’exploration, la portée d’exploration) d’un équipement tel qu’un lidar dédié aux
alertes ou avertissements de cisaillements du vent soient adaptées aux exigences locales
(phénomènes locaux types de cisaillement du vent et besoins des utilisateurs, tels que les
contrôleurs aériens).
De plus, il convient de considérer les systèmes lidars Doppler conformes aux exigences
spécifiées dans le supplément D comme un complément précieux aux observations des radars
météorologiques Doppler, car ils présentent des performances complémentaires en ce qui
concerne les précipitations. Les lidars Doppler fonctionnent mieux dans des conditions d’air
clair alors que le radar Doppler ne reçoit que de faibles signaux et, inversement, lorsque les
précipitations limitent les observations par lidar Doppler, le radar Doppler fonctionne de façon
optimale. Un exemple décrivant la configuration au niveau de l’aéroport international de Hong
Kong, comportant un lidar Doppler, est donné dans la référence [31].
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE ET DE LA 749
TROPOSPHÈRE
Les différents acteurs du contrôle aérien sont vivement intéressés par l’étude des turbulences
de sillage car leur intensité (couramment caractérisée par leur circulation) détermine la distance
minimale de séparation entre les aéronefs pour assurer la sécurité. Les turbulences de sillage
sont constituées de deux forts tourbillons horizontaux à l’arrière de chaque bout d’aile. Ils
sont générés par la portance de l’aéronef qui induit un écoulement d’air de l’intrados des ailes
vers l’extrados en contournant l’extrémité des ailes. Les turbulences de sillage sont très stables
comparées aux turbulences et peuvent durer jusqu’à 3 min dans des conditions atmosphériques
stables. Leur circulation est déterminée par le poids et la vitesse de l’aéronef et par l’envergure.
Leur dimension est d’environ 20 m, mais elles peuvent être très dangereuses, notamment
pendant les phases de décollage et d’atterrissage de l’avion.
C’est la raison pour laquelle, depuis les années 1960, l’OACI a établi des réglementations
fixant les distances de séparation en trois catégories. En raison de l’augmentation du trafic
aérien mondial et du développement de très gros porteurs, plusieurs projets visent à réviser les
réglementations en matière de contrôle aérien et notamment les distances de séparation. Ainsi,
un très grand nombre d’études des turbulences de sillage ont été lancées depuis les années
1990 en utilisant des modèles numériques de dynamique des fluides et une technologie lidar
Doppler afin d’optimiser les distances de séparation tout en assurant la sécurité [32;33]. Les lidars
Doppler cohérents à balayage sont particulièrement adaptés pour mesurer les turbulences de
sillage car ils permettent de mesurer avec une haute résolution inférieure à 10 m et une haute
fréquence jusqu’à 5 s les turbulences de sillage générées par l’aéronef au-dessous de 500 m, afin
de surveiller les effets de sol et le comportement des turbulences de sillage en effet de sol. En
général, les mesurages de turbulences de sillage sont effectués à proximité des pistes avec des
balayages de l’indicateur de hauteur radar à angles étroits, généralement de 10° à 40°, pour
cartographier verticalement le mouvement des turbulences de sillage.
Les mesurages lidar peuvent en outre faire l’objet d’un traitement ultérieur pour calculer les
caractéristiques des turbulences de sillage telles que la probabilité de détection, la localisation de
leurs noyaux et leur circulation (intensité)[34;35].
50
4
40
30
5 20
3
–10 0 10 20
1
2
1 Lidar
2 Piste
3 Vent traversier
4 Tourbillon
5 Balayage en site
Principe de mesure pour la détermination des turbulences de sillage d’un aéronef à l’aide
d’un lidar Doppler
750 PARTIE II. SYSTÈMES D’OBSERVATION
Étant donné que le lidar Doppler ne fournit que la vitesse radiale du vent, l’implantation
de l’instrument est cruciale car un vent orienté dans la direction de la piste doit avoir une
projection significative sur la ligne de visée du lidar. En général, l’amplitude et donc la qualité
de la composante de vent orientée dans la direction de la piste, projetée sur la ligne de visée, se
détériore selon cos2 θ, θ étant l’angle entre la ligne de visée et la piste[6].
Un autre point est que, dans l’idéal, la pente de descente de 3° doit être explorée. Cela peut
idéalement être réalisé avec un seul balayage à élévation constante si le lidar est situé au seuil
de la piste. Si plusieurs seuils de piste doivent être surveillés avec un seul instrument, il est
impossible de suivre exactement la descente de 3° et les contraintes de temps mentionnés ci-
dessus ne permettent généralement pas d’explorer plus d’une élévation. Toutefois, un balayage
de 3° centré sur la position réelle du lidar surclasse encore un système d’alerte de cisaillement
du vent dans les basses couches basé sur des anémomètres, en termes de détection des
cisaillements du vent sur la pente de descente.
SUPPLÉMENT D. CHAMPS D’APPLICATION TYPIQUES ET EXIGENCES
CORRESPONDANTES
(pour information)
Selon les besoins des applications principales (voir le tableau ci-dessous), trois classes de
précision sont définies pour la vitesse du vent. Ces classes sont liées à une résolution spatiale et
temporelle définie. La précision de la vitesse du vent doit être garantie dans toutes les portées
d’intérêt.
a) Classe A: x ≤ 0,1 m/s (par exemple pour des applications d’énergie éolienne);
b) Classe B: 0,1 < x ≤ 0,5 m/s (par exemple pour des applications météorologiques)[13];
c) Classe C: 0,5 < x ≤ 1,0 m/s (par exemple pour une prévision immédiate)[13].
PARTIE II. SYSTÈMES D’OBSERVATION
752
Distance par
Vitesse radiale du rapport à la
Aviation: surveillance des
vent dans des plans piste 25 (5 avec
tourbillons (systèmes basés sur – 0,1 1 – < 50
perpendiculaires à la + 300 à 500 recouvrement)
le sol)
piste de chaque
côté
[1] Henderson, S.W., P. Gatt, D. Rees et R.M.N. Huffaker, 2005: «Wind lidar», dans Laser Remote
Sensing (T. Fujii et T. Fukuchi, dir.). 469–722, CRC Press, ISBN-10: 8247-4256-7.
[2] Measures R.M., 1992: Laser Remote Sensing: Fundamentals and Applications. Krieger Publishing,
524 p., ISBN-10: 8946-4619-2.
[3] Frehlich, R. et M. Kavaya, 1991: «Coherent laser radar performance for general atmospheric
refractive turbulence». Appl. Opt., 30:5325–5352.
[4] Belmonte A., 2003: «Analyzing the efficiency of a practical heterodyne lidar in the turbulent
atmosphere: telescope parameters». Opt. Express., 11:2041–2046.
[5] Frehlich, R., S. Hannon et S. Henderson, 1997: «Coherent Doppler lidar measurements of winds
in the weak signal regime». Appl. Opt., 36:3491–3499.
[6] Banakh, V.A. et I.N. Smalikho, 1997: «Estimation of the turbulence eddy dissipation rate from
the pulsed Doppler lidar data». Atmos. Oceanic Opt., 10(12).
[7] Frehlich R., 1996: «Simulation of coherent Doppler lidar performance in the weak signal
regime». J. Atmos. Ocean. Technol., 13:646–658.
[8] Dabas, A., P. Drobinski et P. Flamant, 2000: «Velocity biases of adaptive filters in heterodyne
doppler lidar measurements». J. Atmos. Ocean. Technol., 17:1189–1202.
[9] Dabas A., 1999: «Semi empirical model for the reliability of a matched filter frequency
estimator for Doppler lidar». J. Atmos. Ocean. Technol., 16:19–28.
[10] Goodman J.W., 1975: «Statistical properties of laser speckle patterns» dans Laser Speckle
(J.C. Dainty, dir.). Springer.
[11] American National Standards Institute (ANSI) Z136.1-2014: American National Standard for Safe
Use of Lasers. ISBN: 978-1-940168-00-5.
[12] CEI 60825-1:2014: Sécurité des appareils à laser – Partie 1: Classification des matériels et exigences.
[13] Organisation météorologique mondiale : http://www.wmo-sat.info/oscar/requirements.
[14] Boquet, M., P. Royer, J.P. Cariou, M. Machta et M. Valla, 2016: «Simulation of doppler lidar
measurement range and data availability». J. Atmos. Ocean. Technol., document accepté,
DOI: 10.1175/JTECH-D-15-0057.1.
[15] Frehlich R., 2001: «Estimation of velocity error for doppler lidar measurements». J. Atmos.
Ocean. Technol., 18:1628–1639.
[16] Ernsdorf, T., B. Stiller, B.R. Beckmann, A. Weipert, S. Kauczok et R. Hannesen, 2014: «Inter-
comparison of X-band radar and lidar low-level wind measurement for air traffic control
(ATC)». Eighth Europ. Conf. on Radar in Meteorol. and Hydrol., Garmisch-Partenkirchen,
Allemagne.
[17] Hannesen, R., S. Kauczok et A. Weipert, 2014: «Quality of clear-air radar radial velocity data: do
insects matter?» Eighth Europ. Conf. on Radar in Meteorol. and Hydrol., Garmisch-
Partenkirchen, Allemagne.
[18] Weipert, A., S. Kauczok, R. Hannesen, T. Ernsdorf et B. Stiller, 2014: «Wind shear detection
using radar and lidar at Frankfurt and Munich airports». Eighth Europ. Conf. on Radar in
Meteorol. and Hydrol., Garmisch-Partenkirchen, Allemagne.
[19] Jörgensen, H., T. Mikkelsen, J. Streicher, H. Herrmann, C. Werner et E. Lyck, 1997: «Lidar
calibration experiment». Appl. Phys. B., 64:355–361.
[20] Bronstein, I.N., K.A. Semendjajew, G. Musiol et H. Mühlig, 1993: Taschenbuch der Mathematik.
Harri Deutsch.
[21] Fukao, S. et K. Hamazu, 2013: Radar for Meteorological and Atmospheric Observations. Springer.
[22] Banakh V.A. et I.N. Smalikho, 2013: Coherent Doppler Wind Lidars in a Turbulent Atmosphere.
Artech House.
[23] Srinivaso, R.I., V.K. Anandan et R.R. Narasimha, 2008: «Evaluation of DBS wind measurement
technique in different beam configurations for a VHF wind profiler». J. Atmos. Ocean. Technol.,
25(12):2304–2312.
[24] Lhermite R.M., 1962: «Note on wind variability with Doppler radar». J. Atmos. Sci.,
19(4):343–346.
[25] Browning, K.A. et R. Wexler, 1968: «The determination of kinematic properties of a wind field
using Doppler radar». J. Appl. Meteorol., 7(1):105–113.
[26] Waldteufel, P. et H. Corbin, 1979: «On the analysis of single Doppler radar data». J. Appl.
Meteor., 18:532–542.
[27] CEI 61400-12-1:2005: Éoliennes – Partie 12-1: Mesurage des performances de puissance des éoliennes
de production d’électricité.
754 PARTIE II. SYSTÈMES D’OBSERVATION
1
En cours d’élaboration
RÉFÉRENCES ET AUTRES LECTURES
Adachi, A., T. Kobayashi, K.S. Gage, D.A. Carter, L.M. Hartten, W.L. Clark et M. Fukuda, 2005: Evaluation of
three-beam and four-beam profiler wind measurement techniques using a five-beam wind
profiler and collocated meteorological tower. Journal of Atmospheric and Oceanic Technology,
22:1167–1180.
Angevine, W.M., W.L. Ecklund, D.A. Carter, K.S. Gage et K.P. Moran, 1994: Improved radio acoustic
sounding techniques. Journal of Atmospheric and Oceanic Technology, 11(1):42–49.
Bevis, M., S. Businger, S. Chiswell, T.A. Herring, R.A. Anthes, C. Rocken et R. H. Ware, 1994: GPS
meteorology: Mapping zenith wet delays onto precipitable water, Journal of Applied.
Meteorology, 33: 379–386.
Brown, E.H. et F.F. Hall, 1978: Advances in atmospheric acoustics. Reviews of Geophysics and Space Physics,
16:47–109.
Cadeddu, M.P., G.E. Peckham et C. Gaffard, 2002: The vertical resolution of ground-based microwave
radiometers analyzed through a multiresolution wavelet technique. IEEE Transactions on
Geoscience and Remote Sensing, 40(3):531–540.
Candlish, L.M., R.L. Raddatz, M.G. Asplin et D.G. Barber, 2012: Atmospheric temperature and absolute
humidity profiles over the Beaufort Sea and Amundsen Gulf from a microwave radiometer.
Journal of Atmospheric and Oceanic Technology, 29:1182–1201.
Davis, J.L., T.A. Herring, I.I. Shapiro, A.E.E. Rogers et G. Elgered, 1985: Geodesy by radio interferometry:
Effects of atmospheric modeling errors on estimates of baseline length. Radio Science,
20(6):1593–1607.
Derr, V.E., 1972: Remote Sensing of the Troposphere. United States National Oceanic and Atmospheric
Administration, WPL, Boulder, Colorado.
Elgered, G., H.-P. Plag, S. Barlag et J. Nash, 2004: COST716 Final Report, Union européenne.
Gaffard, C. et T. Hewison, 2003: Radiometrics MP3000 microwave radiometer trial report. Technical
Report‑TR26, Met Office, Workingham, Berkshire, Royaume-Uni.
Gaynor, J.E., C.B. Baker et J.C. Kaimal, 1990: The international sodar intercomparison experiment.
Proceedings of the Fifth International Symposium on Acoustic Remote Sensing. McGraw-Hill,
New York, p. 67–74.
Gossard, E.E. et R.G. Strauch, 1983: Radar Observations of Clear Air and Clouds. Elsevier, Scientific Publishing
Co., Amsterdam.
Güldner, J. et D. Spänkuch, 2001: Remote sensing of the thermodynamic state of the atmospheric boundary
layer by ground-based microwave radiometry. Journal of Atmospheric and Oceanic Technology,
18:925–933.
Hinkley, E.D., 1976: Laser Monitoring of the Atmosphere: Topics in Applied Physics. Volume 14, Springer Verlag,
New York.
Hogg, D.C., M.T. Decker, F.O. Guiraud, K.B. Earnshaw, D.A. Merritt, K.P. Moran, W.B. Sweezy, R.G. Strauch,
E.R. Westwater et C.G. Little, 1983: An automatic profiler of the temperature, wind and
humidity in the troposphere. Journal of Climate and Applied Meteorology, 22:807–831.
Kadygrov, E.N., E.A. Miller et A.V. Troitsky, 2013: Study of atmospheric boundary layer thermodynamics
during total solar eclipses. IEEE Transactions on Geoscience and Remote Sensing, 51(9):4672–4677.
Kadygrov, E.N. et D.R. Pick, 1998: The potential for temperature retrieval from an angular-scanning
single-channel microwave radiometer and some comparisons with in situ observations.
Meteorological Applications, 5:393–404.
Kadygrov, E.N., G.N. Shur et A.S. Viazankin, 2003: Investigation of atmospheric boundary layer
temperature, turbulence, and wind parameters on the basis of passive microwave remote
sensing, Radio Science, 38(3):13.1–13.12.
Lataitis, R.J., 1992a: Signal power for radio acoustic sounding of temperature: The effects of horizontal
winds, turbulence and vertical temperature gradients. Radio Science, 27:369–385.
———, 1992b: Theory and Application of a Radio-acoustic Sounding System. NOAA Technical Memorandum ERL
WPL‑230.
Liljegren, J.C., S.A. Boukabara, K. Cady-Pereira et S.A. Clough, 2005: The Effect of the half-width of the
22-GHz water vapor line on retrievals of temperature and water vapor profiles with a
12-channel radiometer, IEEE Transactions on Geoscience Remote Sensing, 43(5):1102–1108.
Madhulatha, A., M. Rajeevan, M.V. Ratnam, J. Bhate et C.V. Naidu, 2013: Nowcasting severe convective
activity over southeast India using ground-based microwave radiometer observations. Journal
of Geophysical Research: Atmospheres, 118(1):1–13.
756 PARTIE II. SYSTÈMES D’OBSERVATION
Martner, B.E., D.B. Wuertz, B.B. Stankov, R.G. Strauch, E.R. Westwater, K.S. Gage, W.L. Ecklund, C.L. Martin
et W.F. Dabberdt, 1993: An evaluation of wind profiler, RASS and microwave radiometer
performance. Bulletin of the American Meteorological Society, 74(4):599–613.
May, P.T., R.G. Strauch, K.P. Moran et W.L. Eckund, 1990: Temperature sounding by RASS, with wind profiler
radars: A preliminary study. IEEE Transactions on Geoscience and Remote Sensing, 28(1):19–28.
Navas-Guzman, F., O. Stahli et N. Kampfer, 2013: Study of cloud effect on the tropospheric temperature
retrievals. Dans: URSI Commission F Microwave Signatures 2013: Specialist Symposium on Microwave
Remote Sensing of the Earth, Oceans, and Atmosphere, octobre 2013, Finlande, p.136.
Neff, W.D. et R.L. Coulter, 1986: Acoustic remote sounding. Dans: Probing the Atmospheric Boundary Layer
(dir.: Lenschow, D.H.). American Meteorological Society, 201–236.
Organisation météorologique mondiale, 1980: Lower Tropospheric Data Compatibility: Low-level
Intercomparison Experiment (Boulder, États-Unis d’Amérique, 1979). Instruments and Observing
Methods Report No. 3, Genève.
———, 1982: Indirect Sensing: Meteorological Observations by Laser Indirect Sensing Techniques
(A.O. Van Gysegem). Instruments and Observing Methods Report No. 12, Genève.
———, 1994: Comparison of windprofiler and rawinsonde measurements (J. Neisser, V. Görsdorf et
H. Steinhagen). Papers Presented at the WMO Technical Conference on Instruments and Methods of
Observation (TECO‑94), Instruments and Observing Methods Report No. 57
(WMO/TD‑No. 588), Genève.
———, 2006a: Operational Aspects of Different Ground-Based Remote Sensing Observing Techniques for Vertical
Profiling of Temperature, Wind, Humidity and Cloud Structure: A Review (E.N. Kadygrov). Instruments
and Observing Methods Report No. 89 (WMO/TD‑No. 1309), Genève.
———, 2006b: National/Regional Operational Procedures of GPS Water Vapour Networks and Agreed International
Procedures (S. de Haan). Instruments and Observing Methods Report No. 92 (WMO/TD‑No. 1340),
Genève.
Panofsky, H.A., 1973: Tower micrometeorology. Dans: Workshop on Micrometeorology (dir.: Haugen, D.A.),
Chapitre 4, American Meteorological Society.
Saastamoinen, J., 1972: Atmospheric correction for the troposphere and stratosphere in radio ranging of
satellites. Geophysical Monograph Series: The Use of Artificial Satellites for Geodesy, 15:247–251.
Singal, S.P., 1990: Current status of air quality related boundary layer meteorological studies using sodar.
Proceedings of the Fifth International Symposium on Acoustic Remote Sensing, McGraw‑Hill,
New York, 453–476.
Smith, E.K. et S. Weintraub, 1953: The constants in the equation for atmospheric refractive index at radio
frequencies. Proceedings of the IRE, 41(8):1035–1037.
Solheim, F., J.R. Godwin, E.R. Westwater, Y. Han, S.J. Keihm, K. Marsh et R. Ware, 1998: Radiometric
profiling of temperature, water vapor, and cloud liquid water using various inversion methods,
Radio Science, 33:393–404.
Syed I. et E.V. Browell, 1994: Recent Lidar technology developments and their influence on measurements
of tropospheric water vapor. Journal of Atmospheric and Oceanic Technology, 11(1):76–84.
Thayer, G.D., 1974: An improved equation for the radio refractive index of air. Radio Science, 9(10):803‑807.
Thomas, L., 1991: Lidar probing of the atmosphere. Indian Journal of Radio and Space Physics, 20:368‑380.
Thompson, A.R., J.M. Moran et G.W. Swenson, 1986: Interferometry and Synthesis in Radio Astronomy.
John Wiley and Sons, New York.
Thompson, N., 1980: Tethered balloons. Dans: Air-sea Interaction: Instruments and Methods (dir.: F. Dobson,
L. Hasse et R. Davis), Chapitre 31, Plenum Press, New York.
Ware, R., R. Carpenter, J. Güldner, J. Liljegren, T. Nehrkorn, F. Solheim et F. Vandenberghe, 2003: A multi-
channel radiometric profiler of temperature, humidity and cloud liquid, Radio Science,
38:8079–8032.
Ware, R., D. Cimini, E. Campos, G. Giuliani, S. Albers, M. Nelson, S.E. Koch, P. Joe et S. Cober, 2013:
Thermodynamic and liquid profiling during the 2010 Winter Olympics. Atmospheric Research,
132–133:278–290.
Weber, B.L. et D.B. Wuertz, 1990: Comparison of rawinsonde and wind profiler radar measurements.
Journal of Atmospheric and Oceanic Technology, 7(1):157–174.
Weber, B.L., D.B. Wuertz, R.G. Strauch, D.A. Merritt, K.P. Moran, D.C. Law, D. van de Kamp, R.B. Chadwick,
M.H. Ackley, M.F. Barth, N.L. Abshire, P.A. Miller et T.W. Schlatter, 1990: Preliminary evaluation
of the first NOAA demonstration network wind profiler. Journal of Atmospheric and Oceanic
Technology, 7(6):909–918.
Westwater, E., S. Crewell, C. Mätzler et D. Cimini, 2005: Principles of Surface-based Microwave and
Millimeter Wave Radiometric Remote Sensing of the Troposphere. Quaderni Della Società
Italiana di Elettromagnetismo, 1(3).
CHAPITRE 5. TECHNIQUES SPÉCIALES D’OBTENTION DE PROFILS DE LA COUCHE LIMITE 757
ET DE LA TROPOSPHÈRE
Westwater, E.R., Y. Han, V.G. Irisov, V. Leuskiy, E.N. Kadygrov et S.A. Viazankin, 1999: Remote sensing of
boundary layer temperature profiles by a scanning 5-mm microwave radiometer and RASS:
Comparison experiments. Journal of Atmospheric and Oceanic Technology, 16:805–818.
Westwater, E.R., J. B. Snider et M.J. Falls, 1990: Ground‑based radiometric observations of atmospheric
emission and attenuation at 20.6, 31.65, and 90.0 GHz: A comparison of measurements and
theory. IEEE Transactions on Antennas and Propagation, 38(10):1569–1580.
TABLE DES MATIÈRES DU CHAPITRE
Page
6.1 INTRODUCTION
L’étude des éclairs intra‑nuages et nuage‑sol met en évidence un grand nombre de processus
physiques différents. Chaque processus est associé à des champs électriques et magnétiques
caractéristiques. On sait que les éclairs émettent une énergie électromagnétique importante
dans la bande des fréquences radio entre moins de 1 Hz et près de 300 MHz, avec une crête se
situant dans le spectre de fréquences d’environ 5 à 10 kHz pour des éclairs distants d’au moins
50 km environ. Il est possible en outre de détecter le rayonnement électromagnétique des éclairs
à des fréquences encore plus élevées, notamment dans les hyperfréquences (de 300 MHz à
300 GHz), et bien sûr dans le visible (entre environ 1014 et 1015 Hz). À des fréquences supérieures
à la crête spectrale, l’amplitude du spectre varie de façon à peu près inversement proportionnelle
à la fréquence jusqu’à 10 MHz environ, puis de façon inversement proportionnelle à la racine
carrée de la fréquence entre environ 10 MHz et 10 GHz. On sait aussi que les éclairs produisent
des rayons X (jusqu’à 1020 Hz voire plus), mais ce rayonnement est normalement impossible à
détecter, au niveau du sol, à plus d’un kilomètre environ de la source. En général, tout signal
électromagnétique observable provenant d’un éclair peut servir à détecter et à localiser le
processus de l’éclair qui l’a produit. Outre le rayonnement électromagnétique, les éclairs
émettent des ondes acoustiques qui permettent aussi de les localiser. Il n’est pas question ici
d’examiner les techniques de localisation acoustique, fondées sur le temps d’arrivée du signal
acoustique et sur la propagation acoustique.
Les éclairs peuvent être définis comme étant de fortes décharges transitoires de courant
électrique (des dizaines de kiloampères en général) se produisant dans l’atmosphère et dont la
longueur se mesure en kilomètres. Comme pour toute décharge dans l’air, un canal d’éclair est
formé de gaz ionisé, à savoir un plasma conducteur, dont la température crête est généralement
de 30 000 K, soit cinq fois la température de la surface du Soleil. Les éclairs se produisaient
à la surface de la Terre bien avant l’apparition des êtres humains et il se pourrait qu’ils aient
tenu un rôle primordial dans l’origine de la vie sur la planète. À l’échelle mondiale, il se produit
entre quelques dizaines et une centaine d’éclairs par seconde. Chaque année, on enregistre,
uniquement aux États‑Unis d’Amérique, environ 25 millions de décharges de foudre entre les
nuages et le sol, responsables de plus de décès que les tornades et les ouragans (à noter que, en
moyenne, environ les trois quarts des éclairs se confinent aux nuages et n’atteignent pas le sol).
La foudre est à l’origine de nombreux incendies de forêt et plus de 30 % des pannes de lignes
électriques ont un rapport avec la foudre. En moyenne, un avion commercial est touché par la
foudre une fois par an. Si elle tombe sur un objet ou un système non protégé, la foudre peut avoir
des conséquences catastrophiques.
Environ 90 % (voire plus) des éclairs nuage‑sol consistent en décharges négatives descendantes
(une charge négative est transportée jusqu’au sol, le processus débutant dans le nuage d’orage
et se propageant vers le bas). Il existe d’autres types d’éclairs nuage‑sol, à savoir les décharges
positives descendantes, les décharges négatives ascendantes et les décharges positives
ascendantes. Il peut aussi s’agir de décharges de foudre bipolaires, séquentiellement porteuses
de charges positives et négatives vers le sol au cours d’un même éclair. Une décharge de foudre
négative descendante se compose essentiellement d’arcs. Chaque décharge contient en général
entre 3 et 5 arcs, mais les observations ont montré que les éclairs peuvent regrouper entre 1 et
26 arcs. Dans la moitié des cas environ, les décharges de foudre à la terre comptent plusieurs
760 PARTIE II. SYSTÈMES D’OBSERVATION
(a)
a) (b)
b)
Figure 6.1. Éclair qui semble avoir au moins sept points d’impact au sol (voire jusqu’à dix).
L’image a) est une prise de vue fixe et l’image b), une prise de vue strioscopique (ou
femtoseconde). Certains points d’impact sont associés aux ramifications d’un même arc,
tandis que d’autres sont associés à différents arcs dont le cheminement vers le sol diffère
(d’après Hendry, 1993).
points d’impact pouvant être distants de plusieurs kilomètres. Les deux grands processus qui
composent un éclair sont le traceur et l’arc en retour; ils se produisent l’un après l’autre, le traceur
précédant l’arc en retour. Dans ce qui suit, des précisions sont apportées au sujet des décharges
de foudre. Rakov et Uman (2003) et d’autres références citées en fin de chapitre proposent
davantage de détails.
Les figures 6.1 a) et 6.1 b) proposent deux clichés d’une décharge négative nuage‑sol.
La photographie 6.1 a) a été obtenue à l’aide d’un appareil photo fixe, tandis que la
photographie 6.1 b) a été capturée par un appareil subissant un déplacement horizontal pendant
la durée de l’éclair. Cette deuxième image fait ainsi apparaître, selon une évolution temporelle,
sept canaux lumineux distincts entre le nuage et le sol. L’intervalle sombre qui sépare ces canaux
correspond à une durée de l’ordre de dizaines de millisecondes, ce qui explique pourquoi
souvent, à l’œil nu, les éclairs semblent scintiller. Chaque canal lumineux correspond à un arc
distinct, le premier arc se trouvant à droite (le temps de l’éclair s’écoulant de la droite vers la
gauche). Les deux premiers arcs sont ramifiés et l’orientation des ramifications vers le bas indique
qu’il s’agit d’une décharge de foudre descendante.
Les figures 6.2 a) et 6.2 b) proposent une représentation schématique d’une décharge de foudre
à trois arcs correspondant à une image fixe et à une image strioscopique, respectivement.
Le courant associé mesuré à la base du canal est représenté dans la figure 6.2 c). Dans la
figure 6.2 b), le temps s’écoule de gauche à droite et l’échelle de temps n’est pas continue.
Chacun des trois arcs, pour lesquels est représentée la luminosité en fonction de la hauteur
au‑dessus du sol et de la durée, se compose d’un processus descendant, nommé traceur, et d’un
processus ascendant, nommé arc en retour. Le traceur crée un canal conducteur entre la région
source chargée du nuage et le sol, et répartit la charge négative de la région source du nuage
le long de ce trajet, tandis que l’arc en retour emprunte ce canal depuis le sol jusqu’à la région
source chargée du nuage où il neutralise la charge négative du traceur. Ainsi les deux processus
que constituent le traceur et l’arc en retour servent à transporter la charge négative du nuage
vers le sol. Comme on le voit sur la figure 6.2 b), le traceur qui engendre le premier arc en retour
est différent des traceurs qui produisent les arcs en retour subséquents (ainsi se nomment les arcs
en retour qui suivent le premier arc en retour). Il y a lieu de noter que, selon la signature optique
du premier traceur, il s’agit d’un processus intermittent, c’est pourquoi on parle de traceur par
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 761
DL DL
SL
RS RS RS
a) 1 2 3
b)
Courant
Courant
persistant
Temps c)
Figure 6.2. Schéma d’un éclair à la terre à trois arcs dont sont indiqués la luminosité et le
courant correspondant à la base du canal; la figure a) est une prise de vue fixe, la figure b),
une prise de vue strioscopique (SL: traceur par bonds, DL: traceur continu, RS: arc en retour),
et la figure c), un courant de foudre.
bonds. Les photographies femtoseconde font apparaître par contre que la tête des traceurs des
arcs en retour subséquents se déplace de façon continue vers le bas; ces traceurs se nomment
donc des traceurs continus. La différence entre ces deux types de traceurs est liée au fait que le
traceur par bonds se propage dans un air vierge, alors que le traceur continu suit le trajet déjà
ionisé par l’arc ou les arcs précédents. Il arrive que le traceur d’un arc en retour subséquent
progresse par bonds successifs le long du canal déjà formé; on parle alors d’un traceur
subséquent par bonds. Il existe aussi des traceurs subséquents dits «chaotiques». Tous ces types
de traceurs produisent de brusques émissions de rayons X dont l’énergie atteint généralement
250 keV (deux fois l’énergie émise pour une radiographie du thorax) (Dwyer, 2005).
La différence de potentiel électrique entre la pointe du traceur par bonds descendant et le sol
atteint probablement quelques dizaines de mégavolts, ce qui est comparable à la valeur de la
différence de potentiel entre la région source chargée du nuage et le sol, ou équivaut au moins
à une fraction importante de cette valeur. La grandeur de la différence de potentiel entre deux
points, l’un à la source chargée du nuage et l’autre au sol, est l’intégrale linéaire de l’intensité du
champ électrique entre ces points. Il est possible d’obtenir une estimation des valeurs supérieure
et inférieure de la différence de potentiel entre la limite inférieure de la région principale de
charge négative et le sol en multipliant respectivement le champ électrique généralement
observé dans le nuage, 105 V/m, et le champ électrique prévu au sol sous un nuage d’orage
immédiatement avant que se produise un éclair, 10 4 V/m, par la hauteur au‑dessus du sol de
la limite inférieure de la région principale de charge négative, soit environ 5 km. L’intervalle
résultant est de 50 à 500 MV.
Une fois la connexion établie entre le sol et un traceur descendant par bonds, le premier arc en
retour commence à se propager. Le courant de foudre de ce premier arc en retour mesuré au sol
atteint une valeur crête d’environ 30 kA en quelques microsecondes, puis en quelques dizaines
de microsecondes son intensité diminue de moitié. L’arc en retour neutralise depuis le sol une
charge de plusieurs coulombs que conduit initialement le traceur par bonds dans le canal ionisé
qu’il crée et dans toutes les ramifications de ce canal, ainsi que les charges supplémentaires du
nuage qui se propagent dans le canal de l’arc en retour.
Une fois la connexion établie entre le sol et un traceur continu, le deuxième arc en retour (ou
tout autre arc en retour subséquent) remonte le canal d’éclair, ce qui de nouveau permet de
neutraliser la charge du traceur. L’intensité du courant de foudre des arcs en retour subséquents
mesuré au sol atteint généralement une valeur crête d’environ 10 à 15 kA en moins d’une
microseconde, pour ensuite diminuer de moitié en quelques dizaines de microsecondes.
Le fort courant électrique des arcs en retour chauffe rapidement le canal d’éclair jusqu’à des
températures pouvant dépasser 30 000 K, la pression dans le canal dépasse alors 1 MPa, et
conduit à l’expansion violente du canal. Un rayonnement optique intense est émis et une onde
de choc acoustique se propage vers l’extérieur, c’est le tonnerre.
762 PARTIE II. SYSTÈMES D’OBSERVATION
Il existe un type d’éclair particulier, fort probablement le phénomène naturel qui produit le
rayonnement le plus intense dans les hautes et très hautes fréquences (de 3 à 300 MHz). Il
s’agit de la décharge intra‑nuage compacte. Le Vine (1980) est le premier à mentionner ce
phénomène qui est ainsi nommé (Smith et al., 1999) en raison de son étendue relativement
faible qui se mesure en centaines de mètres. Le phénomène tend à se produire à haute
altitude (principalement au‑dessus de 10 km) et semble associé à une forte convection (les
convections les plus fortes ne déclenchant cependant pas toujours ce type de décharge). Il
tend à produire moins de lumière que d’autres types d’éclair et une seule impulsion électrique
bipolaire (impulsion bipolaire étroite) d’une durée totale de 10 à 30 μs et d’une amplitude de
l’ordre de 10 V/m à 100 km, ce qui est comparable ou supérieur aux arcs en retour des éclairs
nuage‑sol. Pour mettre en évidence l’intensité de la signature électromagnétique à large bande
du phénomène, notons que les 48 décharges intra‑nuages compactes analysées par Nag et al.
(2010) ont été enregistrées, en moyenne, par 11 (soit entre 4 et 22) des stations composant le
réseau étasunien de détection des éclairs (NLDN), stations espacées d’une distance moyenne
de 300 à 350 km.
Les décharges de foudre, aussi bien nuage‑sol qu’intra‑nuages, intègrent plusieurs processus
auxquels sont associés des champs électromagnétiques qui représentent des signatures
caractéristiques. On examine brièvement dans ce qui suit les caractéristiques principales des
champs électriques et magnétiques mesurés, engendrés par les différents processus composant
les éclairs sur des distances atteignant des dizaines voire des centaines de kilomètres. L’accent
est mis en particulier sur les processus qui produisent des variations importantes à l’échelle de la
microseconde voire sur une moindre durée.
Le tableau ci‑dessous propose une liste succincte de presque toutes les signatures des éclairs
décelables dans les champs de rayonnement, qu’il est possible d’enregistrer au sol. Il y a lieu de
noter que les processus K et M ne semblent montrer aucune signature caractéristique à l’échelle
de la microseconde. Mis à part les arcs en retour (première ligne) et les décharges intra‑nuages
compactes (dernière ligne), les impulsions qui correspondent aux processus des éclairs présentés
ici se produisent sous la forme de séquences par intervalles inférieurs à la milliseconde. Les
impulsions associées aux traceurs (deuxième et troisième lignes) sont vraisemblablement émises
par la partie inférieure du canal de l’éclair à la terre juste avant la propagation de l’arc en retour,
tandis que les impulsions de claquage préliminaire (quatrième et cinquième lignes) et les salves
d’impulsions régulières (sixième ligne) sont produites par les processus des éclairs prenant place
à l’intérieur du nuage d’orage. Les caractéristiques indiquées ci‑dessous se rapportent aussi bien
aux séries d’impulsions qu’aux impulsions prises séparément.
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 763
12
10 a)
8
6
4
E (V/m)
2
0
–2
–4
–6
16 JUL 97 Flash 90
–8 CG T = 21:30:16.609 Z
–10
–200 0 200 400 600 800 1 000
t (µs)
6
4 b)
2
0
E (V/m)
–2
–4
–6
–8
–10 IC 16 JUL 97 Flash 96
T = 21:33:11.880 Z
–12
–200 0 200 400 600 800 1 000
t (µs)
5
c)
0
E (V/m)
–5
–10
Figure 6.3. Exemples de formes d’ondes des impulsions électriques (E) caractéristiques: a) du
claquage préliminaire dans les éclairs négatifs nuage‑sol (CG), b) du claquage préliminaire
dans les éclairs intra‑nuages (IC) et c) des décharges intra‑nuages compactes (CID). À un
champ électrique positif correspond une déviation ascendante (convention s’appliquant au
signe de la charge électrique atmosphérique) (d’après Rakov, 1999).
préliminaire est habituellement la même que celle de l’impulsion de l’arc en retour qui suit.
Les impulsions de claquage préliminaire peuvent avoir des amplitudes comparables, voire
supérieures à celle de l’impulsion de l’arc en retour correspondant. Juste avant l’impulsion
du premier arc en retour, puis avant certaines impulsions des arcs en retour subséquents, se
produisent des séries d’impulsions associées, dans le premier cas, au processus de traceur par
bonds et, dans les suivants, aux processus des traceurs continus (train d’impulsions régulières)
ou des traceurs chaotiques (train d’impulsions irrégulières). On a pu observer que ces séries
d’impulsions duraient quelques millisecondes, et que l’amplitude des impulsions était entre
dix et cent fois moins grande que celle des impulsions de l’arc en retour correspondant. La
figure 6.4 a) fournit une représentation des impulsions du traceur par bonds juste avant
celle de l’arc en retour, avant t = 0. À la figure 6.4 b), on distingue un train d’impulsions
relativement irrégulières, caractéristique d’un traceur chaotique, avant l’impulsion d’un arc
en retour subséquent (avant t = 0). Une pause relative de l’ordre de la milliseconde se produit
généralement entre la série d’impulsions de claquage préliminaire et le début des impulsions
plus prononcées du traceur par bonds. Dans les intervalles entre les impulsions des arcs en retour
et dans les intervalles de quelques dizaines de millisecondes qui suivent l’impulsion du dernier
arc en retour, on distingue des salves d’impulsions régulières d’amplitude relativement faible
ainsi que d’autres impulsions encore, généralement irrégulières. Dans les salves d’impulsions
régulières, les crêtes sont en général cent fois moins grandes que celles du champ initial de
l’arc en retour au sein d’un même éclair. Comme le montre le tableau, les salves d’impulsions
régulières présentent des caractéristiques proches des séries d’impulsions associées aux traceurs
par bonds et aux traceurs continus. Pour les premières décharges négatives, la crête du champ
électrique initial correspondant à une moyenne géométrique normalisée à 100 km, soit environ
6 V/m, est deux fois plus grande que celle des décharges négatives subséquentes, soit environ
3 V/m. La moyenne géométrique de l’intervalle de temps entre les impulsions des arcs en retour
est de 60 ms.
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 765
25
16 JUL 97 Flash 62
20 a) T = 21:18:42.469 Z
NLDN IP = 84 kA
15 NLDN R = 132 km
E (V/m)
10
–5
–10
–200 –100 0 100 200 300 400 500
t (µs)
25
b) 16 JUL 97 Flash 31
T = 20:38:50.712 Z
20
NLDN IP = 30 kA
15 NLDN R = 54 km
E (V/m)
10
–5
–200 –100 0 100 200 300 400 500
t (µs)
4
2 c)
0
–2
E (V/m)
–4
–6 16 JUL 97 Flash 34
–8 T = 20:43:22.095 Z
NLDN IP = 52 kA
–10 NLDN R = 105 km
–12
–200 –100 0 100 200 300 400 500
t (µs)
Figure 6.4. Exemples de formes d’ondes des impulsions électriques pour : a) un arc en retour
négatif, b) un arc en retour subséquent négatif, et c) un arc en retour positif. Ces trois
phénomènes ont été détectés par le réseau étasunien de détection des éclairs (NLDN) qui
fournit leurs caractéristiques, en l’occurrence une estimation du courant crête (Ip) et de la
distance (R), indiquées sur les schémas; voir aussi la légende de la figure 6.3
(d’après Rakov, 1999).
Elles se composent en général d’un seul arc en retour (mais on a pu observer jusqu’à quatre arcs
par éclair) dont les formes d’ondes électriques et magnétiques, à l’échelle de la microseconde,
sont proches de celles qui caractérisent les premiers arcs en retour des décharges négatives,
hormis bien sûr pour ce qui concerne leur polarité initiale. La figure 6.4 c) présente un
exemple de ce type de forme d’onde. Les petites impulsions qui apparaissent avant t = 0 dans
la figure 6.4 c) sont caractéristiques du processus du traceur par bonds. Contrairement aux
premiers arcs en retour négatifs, ces impulsions ne sont détectées que dans un tiers des formes
d’ondes environ. Dans le cas des premiers arcs en retour positifs, la crête du champ électrique
initial, correspondant à une moyenne géométrique normalisée à 100 km, est deux fois celle
observée dans le cas des premiers arcs en retour négatifs. Les décharges positives nuage‑sol se
déclenchent de la même façon que les éclairs négatifs nuage‑sol (voir ci‑dessus) ou peuvent être
provoquées par des décharges intra‑nuages de grande ampleur.
Décharges intra‑nuages
En général, la structure impulsionnelle que l’on observe dans les décharges intra‑nuages
naturelles comprend une ou plusieurs séries initiales d’impulsions d’amplitude relativement
grande, espacées de quelques centaines de microsecondes et se produisant au cours des
premières millisecondes voire des premières dizaines de millisecondes. Viennent ensuite
plusieurs salves d’impulsions régulières d’amplitude bien plus petite. Les impulsions au
766 PARTIE II. SYSTÈMES D’OBSERVATION
cours d’une salve sont espacées de plusieurs microsecondes, chaque salve durant quelques
centaines de microsecondes. La figure 6.3 b) fait apparaître les formes d’ondes de chaque
impulsion, caractéristiques du claquage préliminaire dans le cas des décharges intra‑nuages.
La polarité initiale de ces impulsions tend à être contraire à celle des impulsions du claquage
préliminaire dans les décharges négatives nuage‑sol. Des impulsions se produisent à l’échelle
de la microseconde; leur amplitude est nettement inférieure à celle des impulsions de claquage
préliminaire, qui sont dispersées et non pas regroupées en salves, tout au long de l’éclair.
Certaines de ces impulsions plus petites et souvent irrégulières sont associées à des variations K
en escalier (signatures des processus K). Ces variations K se produisent en général dans la phase
terminale de l’éclair intra‑nuage et sont espacées d’un bon nombre de dizaines de millisecondes.
6.2.3 Glossaire
Arc en retour, arc nuage‑sol. Processus de l’éclair selon lequel un courant traverse le canal formé par
le traceur, en remontant du sol vers la région source chargée du nuage, et neutralise les charges
du traceur provenant du nuage.
Cellule orageuse. Unité convective de quelques kilomètres de diamètre, caractérisée par des
courants ascendants relativement forts (>10 m/s) et dont la durée de vie est d’environ 1 h.
Composantes M. Processus transitoires se produisant dans un canal d’éclair reliant le sol, porteur
d’un courant persistant.
Décharge de foudre négative. Décharge qui neutralise la charge négative du nuage vers le sol.
Décharge de foudre positive. Décharge qui neutralise la charge positive du nuage vers le sol.
Densité de foudroiement. Nombre d’impacts par unité d’espace par unité de temps (en général par
km² et par an).
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 767
Éclair déclenché par des tirs de fusées. Décharge déclenchée artificiellement à partir d’un nuage
d’orage naturel à l’aide de la technique «fusée‑fil».
Éclair nuage‑sol, éclair à la terre. Décharge se composant d’au moins un arc en retour.
Éclair nuage‑sol ascendant. Décharge vers le sol dont le traceur ascendant se développe à partir
d’une proéminence au sol.
Éclair nuage‑sol descendant. Décharge à la terre ayant pour précurseur des traceurs qui descendent
du nuage.
Événement. Partie bien définie d’un éclair et généralement tout signal mesuré distinctement au
cours d’un éclair.
Traceur. Processus de l’éclair qui crée un chemin conducteur entre la région source chargée du
nuage et le sol (dans le cas d’un éclair nuage‑sol descendant) et qui répartit la charge de la
région source du nuage le long de ce trajet.
6.3.1 Généralités
Dans le cas des trois techniques principales de localisation des éclairs dans les ondes radio à
partir de plusieurs stations, à savoir la radiogoniométrie magnétique, le temps d’arrivée et
l’interférométrie, on se base sur la fréquence f (ou sur la longueur d’onde λ = c/f, c étant la
vitesse de la lumière) du rayonnement détecté pour obtenir les renseignements permettant de
localiser la source (Rakov et Uman, 2003). Pour des signaux détectés dont la longueur d’onde
est très courte comparativement à la longueur du canal de l’éclair source de l’onde propagée,
par exemple dans la gamme des très hautes fréquences (VHF) où f = entre 30 et 300 MHz et
λ = entre 10 et 1 m, il est possible en principe de tracer une image en deux ou trois dimensions
de l’ensemble du canal d’éclair. Quand la longueur d’onde dépasse la longueur du canal de
l’éclair ou qu’elle s’en approche, par exemple dans la gamme des très basses fréquences (VLF)
où f = entre 3 et 30 kHz et λ = entre 100 et 10 km et des basses fréquences (LF) où f = entre 30 et
300 kHz et λ = entre 10 et 1 km, il n’est en général possible de localiser de façon utile qu’un seul
point ou quelques points pour chaque canal d’éclair. Si un seul point a été localisé pour l'arc
en retour d’un éclair nuage‑sol, on estime généralement qu’il s’agit d’une approximation du
point d’impact au sol. Dans le meilleur des cas, qu’il s’agisse des méthodes VHF qui permettent
d’établir une image du canal d’éclair ou des techniques VLF et LF permettant de positionner
le point d’impact, la mesure fournit une précision (erreurs ou incertitudes portant sur la
localisation) de l’ordre de 100 m. À l’opposé, les systèmes VLF de détection à longue distance,
qui fonctionnent dans une bande de fréquences étroites, généralement entre 5 et 10 kHz, et qui
détectent les éclairs à des distances pouvant atteindre des milliers de kilomètres, offrent une
précision de mesure de l’ordre de 10 km voire plus. Ces systèmes se nomment souvent systèmes
de détection d’orages.
768 PARTIE II. SYSTÈMES D’OBSERVATION
En ce qui concerne les techniques électromagnétiques de localisation des éclairs qui mesurent
l’amplitude des variations de champ à partir de plusieurs stations, la largeur de bande des
mesures n’est pas directement liée à la précision de la localisation. Il suffit de disposer d’un
système de mesure qui puisse reproduire fidèlement les variations de champ du processus
en question. À titre d’exemple, en mesurant à plusieurs stations les variations du champ
électrostatique dans une gamme de fréquences allant de moins d’un hertz à quelques hertz,
il est possible de déterminer la position moyenne de la source chargée d’un éclair nuage‑sol.
En mesurant à plusieurs stations les variations du champ électrostatique dans une gamme
de fréquences allant de quelques hertz à quelques kilohertz, ce qui permet d’enregistrer des
variations à l’échelle de la milliseconde, il est alors possible de déterminer la position de la source
chargée des arcs et du courant persistant qui composent un éclair nuage‑sol. Pour détecter la
position d’un éclair à partir des crêtes de champ électrique ou magnétique que provoquent
les arcs en retour, il faut disposer, comme dans le cas des variations du champ électrostatique,
d’un système qui reproduise fidèlement ces crêtes. Il ne sera pas question plus avant, dans le
présent chapitre, des techniques de localisation des éclairs fondées sur l’amplitude des champs
électriques et magnétiques.
Les systèmes précis de localisation des éclairs, qu’il s’agisse de systèmes permettant d’établir une
image du canal d’éclair ou de systèmes permettant de ne positionner que le point d’impact au
sol ou le centre des charges électriques des nuages, font nécessairement appel à des réseaux de
capteurs. Il existe aussi des capteurs de surface fonctionnant de façon indépendante, notamment
les compteurs d’éclairs. Ceux‑ci détectent les décharges qui se produisent, mais ne peuvent
les localiser individuellement, ce pour quoi ils ne sont pas conçus, compte tenu de la grande
diversité des amplitudes et des formes d’ondes associées à chaque phénomène. Avec ce type
de capteurs, il est cependant possible de déterminer la distance très approximative d’un groupe
d’éclairs quand les données sont regroupées et qu’une moyenne est établie sur une certaine
durée. Dans le commerce, on trouve bon nombre de ces capteurs, relativement simples, censés
pouvoir localiser les éclairs. La plupart fonctionnent sur le même principe que les radios en
modulation d’amplitude, la longueur du signal radio reçu permettant d’évaluer la distance à
laquelle les décharges se produisent; des erreurs importantes sont inhérentes à cette technique.
D’autres appareils autonomes vendus dans le commerce fonctionnent suivant d’autres principes:
la détection optique, la radiogoniométrie magnétique ou la mesure des formes d’ondes
caractéristiques des éclairs, pour fournir une approximation de la distance des arcs en retour des
éclairs nuage‑sol par rapport au capteur.
Dans ce qui suit, on examine comment des systèmes combinent différents types de capteurs
mesurant les diverses propriétés du rayonnement électromagnétique des éclairs pour fournir une
localisation des éclairs à usage pratique. Le lecteur trouvera davantage de détails à ce sujet dans
les études de Rakov et Uman (2003) et de Cummins et Murphy (2009), ainsi que dans d’autres
ouvrages indiqués en fin de chapitre.
Une antenne à deux cadres circulaires orthogonaux sur un axe vertical, orientés nord‑sud
et est‑ouest, qui mesure le champ magnétique d’un rayonnement vertical, peut servir à
déterminer la direction de la source du rayonnement. En effet, compte tenu de la loi de Faraday,
la tension de sortie d’un cadre est proportionnelle au cosinus de l’angle entre le vecteur du
champ magnétique et le vecteur normal par rapport au plan du cadre. Dans le cas d’une source
rayonnante verticale, les lignes de champ forment des cercles coaxiaux par rapport à la source.
Par conséquent, le cadre qui pointe dans la direction nord‑sud reçoit par exemple un signal
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 769
maximal quand la source se trouve au nord ou au sud de l’antenne, alors que le cadre situé dans
le plan orthogonal est‑ouest ne reçoit aucun signal. Le rapport entre les deux signaux reçus
par les cadres croisés est généralement proportionnel à la tangente de l’angle que forment à
l’antenne la direction du nord et celle de la source.
Les radiogoniomètres à bande étroite sont utilisés depuis les années 20 pour détecter à distance
les décharges de foudre. Ils fonctionnent généralement dans une bande de fréquences étroite,
centrée sur l’intervalle de 5 à 10 kHz, dans laquelle l’atténuation par l’ionosphère est relativement
faible et l’énergie du signal émis par l’éclair est relativement importante. Avant la mise au
point des radars météorologiques, dans les années 40, les systèmes de détection des éclairs
représentaient le moyen principal pour détecter et localiser les orages à moyenne et grande
distances.
C’est pour éviter les problèmes que posent ces erreurs importantes de polarisation à courte
portée, inhérentes au fonctionnement des radiogoniomètres à bande étroite que les
radiogoniomètres large bande à créneau ont été mis au point au début des années 70. La
localisation s’opère alors suivant un échantillonnage des composantes nord‑sud et est‑ouest de
la crête initiale du champ magnétique émis par l’arc en retour, cette impulsion maximale étant
émise par l’arc en retour, dans les cent premiers mètres environ du canal d’éclair en partant du
sol et les premières microsecondes suivant son déclenchement. Cette partie basse du canal tend
à être droite et verticale, si bien que le champ magnétique émis est essentiellement horizontal.
De plus, les radiogoniomètres à créneau n’enregistrent pas les ondes réfléchies par l’ionosphère,
puisque celles‑ci parviennent à l’antenne bien après l’échantillonnage du champ magnétique
correspondant à la crête initiale. Ce type de radiogoniomètre fonctionne en général dans la
bande de fréquences allant de quelques kilohertz à environ 500 kHz. Il est intéressant de noter
qu’alors qu’il faudrait disposer d’une capacité de détection de plusieurs mégahertz dans les
hautes fréquences pour reproduire fidèlement l’onde de crête du rayonnement incident, en
particulier en cas de propagation sur des étendues d’eau salée, il n’est pas nécessaire, dans le
cas des radiogoniomètres, de disposer dans la pratique d’une sensibilité supérieure à quelques
centaines de kilohertz pour limiter l’erreur d’azimut à environ 1°. Cela s’explique par le fait
que le rapport des signaux maximums reçu par les deux cadres de l’antenne est insensible à
la distorsion identique produite par les circuits électroniques associés aux deux cadres. De
même, avec un bon étalonnage et une correction adéquate des effets de la propagation, les
radiogoniomètres n’ont besoin, dans les hautes fréquences, que d’une sensibilité allant jusqu’à
quelques centaines de kilohertz pour limiter l’erreur d’estimation du courant crête à environ 15 à
20 %. Ainsi les radiogoniomètres large bande à créneau peuvent‑ils fonctionner à des fréquences
inférieures à celles des ondes radio en modulation d’amplitude et à celles des émetteurs des
systèmes de navigation des aéronefs, deux sources d’ondes qui pourraient sinon engendrer un
bruit directionnel indésirable.
Les radiogoniomètres large bande à créneau, ainsi que les radiogoniomètres à bande étroite,
sont sensibles aux erreurs de site. Ces erreurs sont une fonction systématique de la direction
sans cependant varier dans le temps en général. Elles résultent de la présence de champs
magnétiques provoqués par les différences de niveau du terrain et des objets conducteurs
à proximité, notamment des lignes ou d’autres structures du réseau électrique enterrées ou
770 PARTIE II. SYSTÈMES D’OBSERVATION
aériennes, qui, sous l’excitation des champs produits par les éclairs, émettent à leur tour. Pour
parvenir à éliminer complètement ces erreurs de site, il faut installer le radiogoniomètre sur un
terrain plat et uniforme, sans objets conducteurs conséquents, y compris des objets enterrés.
Comme il est généralement difficile de satisfaire ces exigences, on préfère souvent mesurer
les erreurs de site associées aux mesures et trouver un moyen de les compenser plutôt que de
chercher un emplacement adéquat où ces erreurs seraient négligeables. Une fois que des moyens
de corriger ces erreurs sont en place, les erreurs résiduelles signalées (obtenues par comparaison
à des données de mesures optiques) sont généralement inférieures à 2° ou 3°.
Comme on ne sait pas a priori quelle sera la polarité de la charge qu’un éclair nuage‑sol
apporte à la terre, le fait de mesurer uniquement les champs magnétiques orthogonaux
laisse une ambiguïté de 180° sur l’azimut de l’éclair. Cette ambiguïté est levée dans tous les
radiogoniomètres large bande par la mesure du champ électrique associé dont la polarité
indique le signe de la charge transmise à la terre.
Un capteur du temps d’arrivée enregistre l’heure à laquelle son antenne détecte une partie du
signal causé par le champ électromagnétique engendré par l’éclair. Il existe trois grands groupes
de systèmes fonctionnant suivant la technique du temps d’arrivée, caractérisés par la distance
de référence qui sépare les capteurs, qu’on nommera ci‑après espacement: i) les systèmes à
très faible espacement (dizaines ou centaines de mètres), ii) les systèmes à faible espacement
(dizaines de kilomètres) et iii) les systèmes à grand espacement (centaines ou milliers de
kilomètres). Les systèmes à espacement très faible ou faible fonctionnent en général dans les
très hautes fréquences, c’est‑à‑dire à des fréquences se situant entre 30 et 300 MHz environ,
tandis que les systèmes à grand espacement fonctionnent en général dans les très basses et les
basses fréquences, entre 3 et 300 kHz. On associe généralement le rayonnement dans les très
hautes fréquences avec les processus de claquage dans l’air, tandis que les signaux très basses
fréquences sont dus au courant qui circule dans le canal d’éclair conducteur. Les systèmes à faible
espacement servent en général à fournir des images des canaux d’éclair et à étudier l’évolution
spatiale et temporelle des décharges. Les systèmes à grand espacement servent en général à
déterminer le point d’impact des éclairs au sol, à détecter les éclairs intra‑nuages, principalement
dans des canaux d’axe vertical, ou à fournir une localisation moyenne des éclairs.
Un système à très faible espacement (dizaines ou centaines de mètres) se compose d’au moins
deux récepteurs VHF du temps d’arrivée. L’espacement entre les capteurs est tel que l’écart
entre les différents temps d’arrivée d’une impulsion VHF, émanant d’un éclair et reçue par les
antennes, est court par rapport à l’espace‑temps qui sépare les impulsions, qui se situe entre
quelques microsecondes et quelques centaines de microsecondes. La courbe reliant le lieu
de tous les points source pouvant produire un écart de temps donné entre deux récepteurs
prend, en général, la forme d’une hyperbole, mais si les récepteurs sont très rapprochés, cette
forme disparaît pour finir par correspondre à un plan sur lequel se trouve la source. Deux écarts
de temps fournis par trois récepteurs très rapprochés donnent deux plans dont l’intersection
indique la direction de la source, c’est‑à‑dire son azimut et son élévation. Pour localiser la source
et non pas déterminer simplement sa direction, il faut disposer de deux ou trois groupes de trois
récepteurs très rapprochés, les groupes étant espacés de quelques dizaines de kilomètres voire
plus. Chaque groupe de récepteurs fonctionne fondamentalement comme un radiogoniomètre
captant le temps d’arrivée et l’intersection d’au moins deux vecteurs indique la position de la
source.
Les systèmes à faible espacement sont en général configurés en réseaux de 5 à 15 stations qui
utilisent les informations fournies par la technique du temps d’arrivée pour cartographier en trois
dimensions les canaux d’éclair. Les chercheurs de New Mexico Institute of Mining and Technology
(l’Institut d’exploitation minière et de technologie du Nouveau‑Mexique) ont mis au point une
version mobile de ce type de systèmes qu’ils ont nommé LMA (Lightning Mapping Array, réseau de
cartographie des éclairs) et qui est devenu récemment un outil de premier plan pour la recherche
et l’exploitation dans le domaine. Les systèmes de mesure du temps d’arrivée en VHF à faible
espacement fournissent une image électromagnétique de l’évolution des canaux de tous les
types d’éclairs.
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 771
Les premiers systèmes de mesure du temps d’arrivée à grand espacement (centaines ou milliers
de kilomètres) fonctionnaient dans les basses et très basses fréquences. À titre d’exemple,
l’un d’entre eux comprenait deux stations réceptrices distantes de plus de 100 km, sises dans
le Massachusetts, qui fonctionnaient dans la bande de 4 à 45 kHz (quatre stations au total
composaient le réseau). Cela permettait d’établir une différence entre les temps d’arrivée des
signaux à chaque station réceptrice et de déterminer ainsi la direction des décharges d’éclair
en Europe occidentale. Ce système à deux stations représentait une sorte de radiogoniomètre
comparable aux systèmes à très faible espacement déjà décrits, si ce n’est qu’il était accordé
sur des fréquences plus basses et que la distance séparant les stations était plus grande. Les
directions qu’il mesurait correspondaient assez bien aux positions qu’indiquait le réseau de
radiogoniomètres à bande étroite que le Service météorologique du Royaume‑Uni exploitait
à l’époque. En se basant sur la géométrie sphérique pour tenir compte de la propagation à
la surface terrestre, on obtenait le lieu des points pour un écart mesuré constant des temps
d’arrivée entre les deux récepteurs.
Dans les années 80, un autre système de mesure du temps d’arrivée à grand espacement a été
mis au point, à savoir le LPATS (Lightning Position and Tracking System, système de positionnement
et de suivi des éclairs). Le LPATS, fonctionnant en basses et en très basses fréquences, comprenait
des stations équipées d’antennes fouets, distantes de 200 à 400 km, grâce auxquelles il était
possible de localiser les éclairs à partir des intervalles de temps mesurés entre l’arrivée du signal
aux différentes stations. Dans la bande de fréquences utilisée, les formes d’ondes des arcs en
retour sont les plus grandes et donc les plus faciles à détecter. En principe, il faut disposer des
mesures de quatre stations (trois écarts temporels) pour trouver la position d’un éclair, étant
donné que les hyperboles à la surface de la Terre résultant de deux différences de temps d’arrivée
uniquement peuvent se croiser en deux points différents. Pour les éclairs nuage‑sol se produisant
non loin du réseau ou dans la région couverte par le réseau, souvent il n’existe qu’une seule
solution; dans ce cas, les mesures émanant de trois stations suffisent.
Outre des impulsions bien distinctes, les éclairs produisent aussi des salves d’ondes
électromagnétiques comparables à des parasites, sur quelques dizaines à quelques centaines de
microsecondes. Comme il est difficile d’établir une distinction entre chaque impulsion au sein
de ces salves, les techniques de mesure du temps d’arrivée ne parviennent pas bien à localiser
les salves. En interférométrie, il n’est pas nécessaire d’établir une telle distinction, puisque la
mesure porte sur la différence de phase entre les signaux à bande étroite, correspondant aux
salves, reçus par au moins deux capteurs proches l’un de l’autre. L’interféromètre le plus simple
comprend deux antennes séparées par quelques mètres et reliées chacune à un récepteur par
l’intermédiaire d’un filtre passe‑bande étroit. Les antennes, les filtres et les récepteurs sont
identiques. Les signaux de sortie des deux récepteurs sont transmis à un détecteur de phase
qui produit une tension proportionnelle à la différence de phase entre les deux signaux quasi
sinusoïdaux. Comme c’est le cas pour la différence de temps établie par les systèmes de mesure
du temps d’arrivée à très faible espacement, la différence de phase détermine un plan sur
lequel la source se situe, soit un angle de direction pour la source VHF. Pour trouver l’azimut et
l’élévation de la source, il faut disposer d’au moins trois antennes réceptrices sur deux références
orthogonales. Pour localiser la source dans trois dimensions, il faut disposer d’au moins deux
interféromètres synchronisés, chacun d’eux fonctionnant comme un radiogoniomètre, espacés
d’une distance de l’ordre de 10 km voire plus. Lojou et al. (2008) décrivent en détail les principes
de la localisation des éclairs par interférométrie.
1996; Mardiana et Kawasaki, 2000; Morimoto et al., 2004), à laquelle contribue l’apparition sur
le marché, à des coûts abordables, de composants électroniques destinés au traitement des
signaux numériques et des signaux à large bande en fréquence radio.
En général, on attend d’un système moderne de localisation des éclairs en très basses fréquences
et en moyennes fréquences qu’il enregistre (dans les différentes catégories d’éclairs) et qu’il
localise dans la région couverte toutes les décharges nuage‑sol quelle qu’en soit la polarité,
ainsi que les décharges intra‑nuages. Il doit fournir en outre pour chaque décharge une mesure
de l’intensité, habituellement sous la forme d’un courant crête déduit des champs électriques
ou magnétiques mesurés. Il est donc possible d’évaluer les performances d’un système en se
fondant sur les caractéristiques suivantes:
Pour ce qui est de déterminer la capacité de détection des éclairs nuage‑sol, à savoir
probablement la caractéristique fonctionnelle la plus importante pour les systèmes de
localisation des éclairs qui servent à établir la densité de foudroiement, on estime qu’un éclair
est détecté quand au moins un arc de cet éclair a été détecté. Une méthode analogue pourrait
être appliquée aux éclairs intra‑nuages, mais il faudrait alors décider si une simple impulsion
constitue un éclair et comment attribuer des impulsions multiples à des éclairs distincts.
L’erreur de localisation est la distance entre l’emplacement réel et celui indiqué par le système
de détection. Cette erreur regroupe en général des éléments aléatoires et systématiques. Dans
certains cas, les éléments systématiques peuvent être pris en compte (les erreurs de site pour les
systèmes radiogoniométriques, par exemple).
L’erreur d’estimation du courant crête est la différence entre la valeur réelle du courant crête et
la valeur indiquée par le système de détection, et elle est exprimée en général en pourcentage
par rapport au courant crête réel. Pour évaluer les courants crêtes, les systèmes de localisation
des éclairs ont recours à des équations empiriques ou fondées sur des modèles de conversion de
champ en courant. Pour les arcs nuage‑sol, les équations dont on dispose sont acceptables, mais
ce n’est pas le cas pour les processus des décharges intra‑nuages.
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 773
Afin d’évaluer les caractéristiques fonctionnelles dont il est question ici, il faut disposer de
données indépendantes (réalité de terrain). Il est possible par exemple d’utiliser des décharges
se produisant à un emplacement bien précis équipé d’un dispositif de mesure du courant (haute
tour ou installation de déclenchement des éclairs) pour établir l’exactitude de la localisation et
l’erreur d’estimation du courant crête. Les différentes capacités de détection et le pourcentage
de classements erronés sont évalués en général à partir de relevés optiques sur certains laps de
temps. Parfois, les dommages causés par la foudre (aux immeubles, aux arbres, etc.) sont utilisés
pour estimer les erreurs de localisation. Il peut se révéler difficile cependant de déterminer
précisément quel éclair a causé les dommages en question par manque d’informations sur
l’heure exacte de l’impact (à moins d’une minute près). La modélisation ou la comparaison
avec les données d’un système offrant un meilleur degré d’exactitude sis dans la même région
peut permettre une évaluation, bien que moins concluante, des caractéristiques fonctionnelles
d’un système de localisation des éclairs. À ce jour, seul un petit nombre d’études sur la réalité
de terrain ont été menées à bien, en particulier en ce qui concerne les arcs en retour des éclairs
nuage‑sol négatifs, les éclairs nuage‑sol positifs et les décharges intra‑nuages.
Pour certaines applications (le suivi de l’évolution des cellules orageuses, par exemple), la
capacité de poursuite peut revêtir davantage d’importance que la capacité de détection
des différentes décharges. Quand il s’agit de systèmes destinés principalement à ce type
d’applications, les caractéristiques fonctionnelles sont alors souvent vérifiées par rapport à
l’imagerie radar ou l’imagerie satellite infrarouge. La qualité de la correspondance entre les
décharges détectées et les régions de forte réflectivité radar ou de basses températures du
sommet des nuages est alors considérée comme le critère de validation des données émanant de
tels systèmes. Dans le domaine des alertes précoces, la capacité de détecter le tout premier éclair
constitue probablement la caractéristique fonctionnelle essentielle.
On ne voit pas clairement comment évaluer les caractéristiques fonctionnelles des systèmes
imageurs du canal d’éclair dans les très hautes fréquences. Il est certain que ces systèmes ne
peuvent pas localiser toutes les sources d’ondes VHF dans les nuages. Comme ils manquent
de sensibilité, ces systèmes ne parviennent pas à détecter avec régularité et à cartographier les
traceurs positifs. Les images VHF qu’ils fournissent ont donc indéniablement un caractère partiel.
Par ailleurs, il faut en général disposer aussi d’informations supplémentaires sur les arcs en retour
pour établir fidèlement une distinction entre les éclairs intra‑nuages et les éclairs nuage‑sol,
puisque le rayonnement VHF associé directement aux arcs en retour subséquents est faible et
difficile à détecter. De plus, il est impossible de fournir une estimation du courant crête. Pourtant,
ces systèmes VHF imageurs du canal d’éclair se révèlent très utiles à l’étude détaillée de la
morphologie et de l’évolution des éclairs, en particulier dans les nuages, et sont souvent utilisés
pour vérifier d’autres types de systèmes de localisation d’éclairs.
Pour chaque système, outre les caractéristiques générales, les caractéristiques fonctionnelles
dont on dispose sont fournies ci‑dessous, l’accent étant mis sur celles dont il est question dans
des comptes rendus d’études officielles sur la réalité de terrain revus par des pairs et publiés. Le
volume de données dont on dispose est en général plus conséquent pour les systèmes les moins
récents.
774 PARTIE II. SYSTÈMES D’OBSERVATION
Les réseaux de cartographie des éclairs (LMA) sont généralement constitués de 10 à 15 stations
espacées de 15 à 20 km et reliées à un centre de traitement par des moyens de communication
sans fil (Thomas et al., 2004). À chaque station, les signaux émis par les éclairs (intra‑nuages
et nuage‑sol) sont reçus sur un canal de télévision localement libre (en général le canal 3,
60‑66 MHz). La résolution temporelle du système (la fenêtre temporelle de la mesure) est de 80
à 100 μs. Une durée de mesure plus longue, 400 μs en général, est utilisée pour le traitement et
l’affichage en temps réel.
Le réseau étasunien de détection des éclairs (NLDN) est constitué de plus de 100 stations
espacées généralement de 300 à 350 km et couvrant la partie continentale des États‑Unis
d’Amérique à l’exception de l’Alaska (voir Cummins et Murphy, 2009). Il combine la méthode
radiogoniométrique et la technique du temps d’arrivée pour détecter et localiser les décharges
intra‑nuages et nuage‑sol. Les décharges détectées sont classées en fonction de critères portant
sur les formes d’ondes. Les courants crêtes sont évalués à partir des champs mesurés à l’aide
d’une formule empirique établie grâce aux données portant sur des éclairs déclenchés par des
tirs de fusées, les crêtes étant ajustées pour tenir compte des effets de la propagation (supérieurs
à la simple valeur découlant de leur relation de proportionnalité inverse par rapport à la
distance). Le lecteur trouvera davantage de renseignements sur l’évolution du réseau NLDN, les
méthodes selon lesquelles il fonctionne et les applications des données qu’il permet de recueillir,
dans Rakov et Uman (2003, chapitre 17), Orville (2008), Cummins et Murphy (2009) et d’autres
références citées en fin de chapitre.
Les capacités de détection des éclairs et des arcs nuage‑sol ont été analysées, à l’aide de
caméras vidéo, dans le sud de l’Arizona, l’Oklahoma et le Texas (Biagi et al., 2007). La capacité
de détection des arcs nuage‑sol a été évaluée à 76 % (N = 3 620) dans le sud de l’Arizona et à
85 % (N = 885) au Texas et dans l’Oklahoma. Les valeurs correspondantes pour la capacité de
détection des éclairs nuage‑sol atteignent 93 % (N = 1 097) et 92 % (N = 367). Le classement
des éclairs entre décharges intra‑nuages et décharges nuage‑sol a aussi été examiné dans
cette étude ainsi que dans une étude de même type (mais faisant appel en outre à des mesures
indépendantes des formes d’ondes des champs électriques) conduite dans une région
regroupant le Colorado, le Kansas et le Nebraska (Fleenor et al., 2009).
Les capacités de détection des éclairs et des arcs nuage‑sol ont aussi été analysées, à partir de
la réalité de terrain fournie par des éclairs déclenchés par des tirs de fusées, en Floride (Jerauld
et al., 2005; Nag et al., 2011). Selon cette dernière étude (2004‑2009), les capacités de détection
des éclairs et des arcs nuage‑sol ont été évaluées respectivement à 76 % (N = 139) et 92 %
(N = 37). Les arcs des éclairs provoqués par les tirs de fusées ont la même signature que les arcs
en retour subséquents (se formant après la formation du canal d’éclair) des éclairs naturels,
si bien que la valeur (76 %) de la capacité de détection des arcs ne s’applique qu’aux arcs en
retour subséquents négatifs des éclairs naturels. La capacité de détection des éclairs obtenue
à partir de la mesure des éclairs déclenchés par des tirs de fusées est vraisemblablement une
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 775
sous‑estimation de la valeur vraie correspondant aux éclairs négatifs naturels, puisque les
(premiers) arcs en retour sont associés à de plus forts courants crêtes que les arcs en retour
subséquents.
Nag et Rakov (2012) ont examiné les formes d’ondes des champs électriques provoqués par 45
éclairs positifs contenant 53 arcs. Le réseau NLDN a localisé 51 (96 %) de ces 53 arcs, 48 (91 %)
ont été bien classés et 3 arcs en retour ont été classés par erreur comme étant des décharges
intra‑nuages.
Selon Cummins et Murphy (2009), la capacité de détection des éclairs intra‑nuages du réseau
NLDN (un éclair étant considéré détecté quand au moins une impulsion VLF/LF produite par
cet éclair était détectée) se situe entre 10 et 20 %, en fonction des différences locales touchant
les distances qui séparent les stations. Nag et al. (2010) ont examiné les champs électriques
à large bande, les dérivées des champs électriques et magnétiques et les salves d’ondes VHF
(36 MHz) à bande étroite produites par 157 décharges intra‑nuages compactes. Le réseau NLDN
a localisé 150 (96 %) de ces décharges et en a correctement classé 149 (95 %) comme étant des
décharges intra‑nuages.
En comparant les emplacements indiqués par le réseau NLDN aux emplacements connus avec
précision des lanceurs de fusées considérés comme points exacts d’impact au sol, Nag et al.
(2011) sont parvenus à une erreur de localisation moyenne en valeur absolue de 308 m, l’erreur
maximale enregistrée étant de 4,2 km (N = 105). Les erreurs d’estimation du courant crête ont été
évaluées par comparaison entre les valeurs fournies par le réseau NLDN et les courants mesurés
directement à la base des canaux des éclairs déclenchés par des tirs de fusées. La valeur absolue
moyenne de l’erreur d’estimation du courant crête s’élève à 13 % (N = 96). En valeur absolue, les
erreurs d’estimation du courant crête n’ont jamais dépassé 129 % (60 % si on exclut deux valeurs
aberrantes). Ces résultats ne s’appliquent qu’aux arcs en retour subséquents négatifs des éclairs
naturels.
Comme dans le cas des systèmes VHF imageurs du canal d’éclair, il n’est pas évident d’établir la
capacité de détection du réseau LINET qui, dans un certain sens, cartographie aussi l’évolution
des canaux d’éclairs, en localisant cependant un nombre bien moindre de sources par éclair. Par
ailleurs, les processus intra‑nuages (un claquage préliminaire, par exemple) associés aux éclairs
nuage‑sol sont classés parmi les éclairs intra‑nuages, ce qui semble être en contradiction avec la
définition que l’on donne habituellement des éclairs intra‑nuages, à savoir une décharge sans arc
nuage‑sol, et avec celle que l’on donne des éclairs nuage‑sol, à savoir une décharge comprenant
776 PARTIE II. SYSTÈMES D’OBSERVATION
à la fois des processus intra‑nuages et des arcs nuage‑sol. Ce point est probablement sans
incidence pour bon nombre d’applications, notamment le suivi des cellules orageuses et la
détection de phénomènes météorologiques violents.
L’erreur de localisation aléatoire annoncée est d’environ 150 m, mais l’existence d’erreurs
systématiques est également signalée. Betz et al. (2009) ont présenté un exemple de localisation
portant sur 58 décharges sur une tour équipée d’instruments de mesure; l’erreur moyenne de
localisation y est inférieure à environ 100 m, après compensation des erreurs systématiques
responsables d’un biais de mesure d’environ 200 m.
Les erreurs d’estimation du courant crête pour le réseau LINET sont inconnues (à ce jour, aucune
comparaison avec des données de réalité de terrain n’a été effectuée).
Le réseau étasunien de détection précise des éclairs (USPLN) emploie la technique du temps
d’arrivée dans les très basses et basses fréquences et comprend 100 capteurs du champ
électrique, qui couvrent la partie continentale des États‑Unis d’Amérique et d’autres régions
de l’Amérique du Nord. Aucune étude officielle n’a porté jusqu’à ce jour sur les caractéristiques
fonctionnelles du réseau, mais les exploitants du système annoncent, en se basant, semble‑t‑il,
sur l’analyse de simulation du réseau, une capacité de détection des arcs de 95 % et une erreur
type de localisation de 250 mètres dans la plus grande partie de l’Amérique du Nord (capacité
de détection > 80 % et erreur de localisation < 1 km dans les principales zones couvertes par le
réseau ailleurs dans le monde). Il semble que la distinction entre les processus intra‑nuages et
nuage‑sol s’établit grâce à l’examen de la fréquence et de l’amplitude des signaux reçus. On ne
trouve ni description officielle des modalités de conversion de champ en courant ni informations
sur d’éventuels essais de validité.
6.5.5 Réseau des réseaux mondiaux de détection totale des éclairs (1 Hz‑12 MHz)
Les capteurs du réseau des réseaux mondiaux de détection totale des éclairs (ENTLN)
fonctionnent dans une bande de fréquences allant de 1 Hz à 12 MHz (ce qui couvre les
fréquences extrêmement basses, les très basses fréquences, les basses fréquences, les moyennes
fréquences et les hautes fréquences). La méthode de mesure du temps d’arrivée est employée
depuis 2013 par ce réseau comptant plus de 700 capteurs. La détection porte à la fois sur les
décharges intra‑nuages et sur les décharges nuage‑sol.
Selon Heckman et Liu (2010), toutes les formes d’ondes des champs électriques sont transmises
par les capteurs vers une unité de traitement des données et utilisées aussi bien pour localiser
les événements que pour établir la distinction entre les processus intra‑nuages et les processus
nuage‑sol. Les arcs mesurés constituent un seul et même éclair quand 700 ms et 10 km au plus
les séparent du premier arc détecté, la même règle s’appliquant aux décharges enregistrées dans
les nuages. Un éclair comprenant au moins un arc en retour est classé parmi les éclairs nuage‑sol;
dans le cas contraire, il est classé parmi les éclairs intra‑nuages. Dans le domaine du suivi des
cellules orageuses et de l’établissement d’alertes aux conditions orageuses, seuls les éclairs sont
pris en compte, puisque le système détecte moins bien les arcs.
Bien qu’on ne trouve, dans les publications scientifiques évaluées par des pairs, aucune étude
officielle portant sur des essais de performance de ce réseau, les exploitants du système font
savoir que de telles études montrent que le réseau ENTLN dispose d’une capacité de détection
des éclairs intra‑nuages se situant entre 40 et 50 %, pour la plus grande partie du territoire
des États‑Unis d’Amérique, et atteignant jusqu’à 95 % dans le Midwest et l’est des États‑Unis
d’Amérique (Heckman et Liu, 2010). Ce réseau semble avoir pour objet principal d’atteindre
une capacité de détection maximale dans le domaine des éclairs intra‑nuages. En étendant aux
fréquences moyennes et hautes, la bande de fréquences dans laquelle fonctionne la détection,
on vise en effet dans ce réseau à détecter et enregistrer les impulsions les plus faibles à plus
grande distance, par rapport à d’autres systèmes fonctionnant dans les très basses et basses
fréquences, avec un espacement analogue des stations réceptrices.
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 777
Pour localiser les éclairs, le réseau mondial de localisation des éclairs (WWLLN) repose sur
la technique du temps d’arrivée groupée. Cette méthode se fonde sur le fait que les signaux
VLF émis par les éclairs (atmosphériques) et que propage l’ionosphère terrestre sont soumis
à un phénomène de dispersion. Ainsi, pour un même signal, les fréquences les plus hautes
parviennent au capteur avant les fréquences les plus basses. Le temps d’arrivée groupée, une
quantité qu’il est possible de déduire de la forme d’onde des atmosphériques, est fonction de
la distance traversée par l’atmosphérique. Au mois de mars 2012, le réseau WWLLN comptait
57 capteurs installés sur tous les continents. Il est à noter cependant que Dowden et al. (2002)
indiquent qu’il suffirait en principe de dix capteurs pour obtenir une couverture complète de
la planète. La distance séparant les capteurs est de quelques milliers de kilomètres. À l’heure
actuelle, on estime qu’une localisation dont la précision est acceptable n’est obtenue que lorsque
les décharges sont détectées par au moins cinq capteurs et que le temps d’arrivée présente une
incertitude inférieure ou égale à 30 μs.
Dans la dernière étude relative aux caractéristiques fonctionnelles du réseau WWLLN, Abarca
et al. (2010) ont utilisé les données fournies par le réseau NLDN comme réalité de terrain. Ils
ont ainsi établi que la capacité de détection des éclairs nuage‑sol avait augmenté, en passant
d’environ 3,9 % en 2006‑2007 à 10,3 % en 2008‑2009, le nombre de capteurs étant passé
de 28 en 2006 à 38 en 2009. Pour les événements associés à des courants crêtes d’au moins
130 kA mesurés par le réseau NLDN, la capacité de détection atteint 35 %. L’erreur moyenne de
localisation évaluée se situe entre 4 et 5 km.
En étant réfléchies par l’ionosphère, les formes des ondes émises par les décharges subissent
une distorsion spectrale, si bien qu’il est impossible d’en déduire directement le courant crête
et la polarité. Hutchins et al. (2012) ont toutefois mis au point une méthode pour convertir
l’énergie que rayonne un arc dans la bande de 6 à 18 kHz en courant crête. On ne connaît pas
actuellement les erreurs qui pourraient être associées à cette méthode de conversion.
6.5.7 Jeu de données mondiales sur les éclairs (très basses fréquences)
Le jeu de données mondiales sur les éclairs (GLD360), également appelé réseau mondial de
détection de la foudre (GLDN), est composé d’un nombre non précisé de capteurs installés de
façon stratégique partout dans le monde. La localisation des décharges est obtenue grâce à une
combinaison de la méthode radiogoniométrique et de la technique du temps d’arrivée, faisant
appel en outre à un algorithme de reconnaissance des formes d’ondes. Cet algorithme repose sur
une banque de formes d’ondes canoniques correspondant à des distances de propagation qui se
mesurent en milliers de kilomètres (Said et al., 2010).
Selon les exploitants du réseau, la capacité de détection des éclairs nuage‑sol atteint entre 60 et
70 % et l’erreur médiane de localisation, entre 5 et 10 km. Demetriades et al. (2010) ont évalué
les caractéristiques fonctionnelles du GLD360 en utilisant les données fournies par le réseau
NLDN comme réalité de terrain. Ils ont ainsi établi que la capacité de détection des éclairs
nuage‑sol se situait entre 86 et 92 %, et que l’erreur médiane de localisation était de 10,8 km.
Rendant compte d’une étude analogue, mais basée sur les données fournies par le réseau de
détection du Brésil, Naccarato et al. (2010) ont signalé une capacité de détection des éclairs
nuage‑sol de 16 % et une erreur moyenne de localisation de 12,5 km. En prenant comme réalité
de terrain des mesures synchronisées d’éclairs nuage‑sol effectuées par des capteurs de champs
électriques et des caméras vidéo à haute vitesse, installés en Belgique, Poelman et al. (2013) ont
calculé que les capacités de détection des éclairs nuage‑sol et des arcs nuage‑sol du GLD360
atteignaient respectivement 96 % et 70 %, avec une erreur médiane de localisation de 900 m. En
utilisant les données fournies par le réseau NLDN comme réalité de terrain, Said et al. (2013) ont
établi que la capacité de détection des éclairs nuage‑sol atteignait 57 % et l’erreur médiane de
localisation, 2,5 km.
778 PARTIE II. SYSTÈMES D’OBSERVATION
Le GLD360 fournit aussi des données sur le courant crête et la polarité. Par rapport au réseau
NLDN, Said et al. (2013) ont évalué à 21 % et 6 % respectivement la moyenne arithmétique et
la moyenne géométrique de l’erreur d’estimation du courant crête. En outre, dans 96 % des cas
d’arcs correspondants, le GLD360 a signalé la même polarité que le réseau NLDN.
Le système de localisation des éclairs à grande distance du réseau de mesure des écarts de temps
d’arrivée (ATDnet) est la dernière version d’un système VLF que le Service météorologique du
Royaume‑Uni exploite depuis 1987. Le réseau est constitué actuellement de 10 capteurs, répartis
dans toute l’Europe, qui contribuent au réseau principal; d’autres capteurs sont aussi installés en
Europe ainsi qu’ailleurs dans le monde à des fins de mise au point et d’essai. Le réseau est conçu
pour la localisation des éclairs en Europe, mais peut normalement détecter aussi les décharges en
Afrique et en Amérique du Sud. Les capteurs, également appelés antennes, détectent les formes
d’ondes des signaux émis par les atmosphériques dans les très basses fréquences et transmettent
les données recueillies à un processeur central, situé au siège du Service météorologique du
Royaume‑Uni, qui utilise la technique de la corrélation des formes d’ondes pour déterminer les
écarts de temps d’arrivée des formes d’ondes dans le réseau. Ces écarts servent à localiser les
éclairs.
Poelman et al. (2013) ont établi que l’erreur aléatoire de localisation au sein du réseau ATDnet
était de l’ordre de 1 km, avec une capacité de détection des éclairs nuage‑sol de 88 %. Il est
probable que l’incertitude médiane portant sur la localisation des éclairs nuage‑sol en Europe se
situe en fait entre 2 et 5 km, mais il faudrait vérifier ce qui est dit à ce sujet dans les publications
revues par des pairs. Le réseau ATDnet ne fournit actuellement aucune information sur la polarité
des arcs, le type d’éclairs (nuage‑sol ou intra‑nuages), l’énergie émise ou le courant crête.
Pour les organismes publics ou privés qui fournissent des services météorologiques, les
données sur les éclairs se révèlent utiles dans différents domaines. En général, les Services
météorologiques nationaux utilisent les données des systèmes de localisation des éclairs dans
l’exercice de leurs fonctions de protection des personnes et des biens à l’échelle nationale. De
leur côté, les entités commerciales se servent de ce type de données pour fournir, en ce qui
concerne les conditions météorologiques violentes, des alertes, des prévisions et des conseils
améliorés à leurs clients, dans le cadre d’applications spécialisées touchant notamment les
secteurs que sont l’aviation, l’agriculture, l’énergie et les médias.
Parmi les fonctions importantes qui leur incombent, les Services météorologiques doivent
établir des messages d’alerte fiables en prévision de conditions météorologiques violentes. En
règle générale, pour parvenir à ce que les prévisions de conditions météorologiques violentes
soient de la meilleure qualité possible et que le taux de fausses alertes soit le plus bas possible,
il faut pouvoir exploiter plusieurs sources de données. Toutefois, comme les orages violents
s’accompagnent généralement d’un surcroît d’éclairs intra‑nuages, les données des systèmes de
localisation des éclairs suffisent à elles seules pour fournir une indication très claire de l’intensité
et de l’étendue des cellules orageuses. Cela met en évidence l’importance que revêtent les
réseaux de détection de tous les types d’éclairs, notamment ceux qui mesurent des bandes
de fréquences allant des basses fréquences jusqu’aux hautes fréquences, en passant par les
moyennes fréquences, étant donné que la détection de la foudre (éclairs nuage‑sol) ne suffit pas
dans le cas d’une telle application.
Il est possible de déclencher une alerte dès que se produit la première décharge dans le voisinage
d’une zone couverte par des capteurs, mais une procédure de meilleure fiabilité consiste à
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 779
établir l’existence de la cellule orageuse et d’en suivre l’évolution dans son déplacement dans
une région donnée ou vers cette région. Certains systèmes de localisation des éclairs permettent
une extrapolation des déplacements d’une cellule à courte échéance (prévision immédiate), soit
à peu près dans l’heure qui suit l’observation. Il est ainsi possible de déterminer si les cellules
détectées risquent de produire des conditions violentes en surveillant le taux d’éclairs (nombre
d’éclairs par unité de temps) et les variations de ce taux. Quand il est acquis qu’une cellule peut
se révéler dangereuse et que le taux d’éclairs dépasse un certain seuil, une alerte peut être lancée.
Si ce n’est dans le cas de certains orages se produisant le long des limites d’un front, il faut
disposer de modèles de prévision numérique du temps pour établir des prévisions d’une qualité
acceptable à une échéance plus longue. Il y a lieu de noter enfin que la détection des éclairs,
combinée avec le suivi des cellules orageuses, permet d’indiquer non seulement à quel moment
débutent des conditions orageuses violentes, mais aussi à quel moment une région donnée ne
sera plus menacée.
Bien que les observations directes à partir du sol ou d’aéronefs constituent une source précieuse
d’informations en cas de conditions météorologiques violentes, les données que permettent
d’obtenir les techniques de télédétection (y compris la détection des éclairs) ne cessent de
gagner en importance. Afin de détecter une activité orageuse avec un degré d’exactitude et
de fiabilité élevé, et ce, même dans des régions isolées, il est à présent possible d’utiliser la
réflectivité radar, les images de nuages, les températures de luminance en hyperfréquences
passives ou les données sur les éclairs, séparément ou en combinaison. Parmi toutes ces
techniques, les réseaux mondiaux ou locaux de systèmes de localisation des éclairs et de simples
détecteurs au sol ou à bord d’aéronefs constituent indéniablement le meilleur moyen de détecter
une activité orageuse remarquable pour les raisons indiquées ci‑dessus. La simple détection
des orages est possible à partir de tout système de localisation des éclairs, mais pour obtenir
des mesures plus complètes, il faut disposer de systèmes et de techniques élaborés qui puissent
détecter rapidement et classer les phénomènes de l’activité orageuse tout en permettant de
réduire le nombre des fausses alertes pour qu’il soit acceptable.
La prévision immédiate et une technique couramment employée pour prévoir les conditions
météorologiques à très courte échéance. Pour établir une prévision immédiate, il faut disposer
de renseignements sur l’état de l’atmosphère, ce que déterminent un ou plusieurs paramètres
observés, puis de procéder à l’estimation de la variation de ces paramètres afin de prévoir
l’emplacement et l’étendue des phénomènes observés, à très courte échéance dans le futur.
Le degré d’exactitude qu’on peut atteindre grâce à cette technique est fonction de la validité
de l’hypothèse de persistance sans grand changement, au cours de la période considérée, des
phénomènes associés au(x) paramètre(s) observé(s). Par rapport aux éclairs, certains paramètres
permettent d’établir la phase atteinte dans le cycle de vie de l’orage, ce qui est évidemment
utile dans le cas de la prévision immédiate. L’hypothèse de persistance paraît acceptable pour
de courtes périodes (une heure environ), mais sa validité diminue avec le temps. Quand les
extrapolations portent sur des périodes supérieures à une heure environ, il faut donc avoir
recours aux techniques de l’assimilation des données et de la prévision numérique du temps.
L’évaluation qualitative des données fournies par les systèmes de localisation des éclairs fait
habituellement appel à l’affichage de ces données sur des cartes (avec ou sans autre information)
en temps réel ou quasi réel. Il est possible d’utiliser de tels produits à diverses fins, notamment
pour localiser ou délimiter une zone qui risque d’être touchée par un orage et pour faciliter la
prise de décision quand il s’agit de publier un message d’alerte. Outre l’évaluation qualitative,
les données de grande qualité fournies par les systèmes de localisation des éclairs se prêtent
particulièrement bien au traitement quantitatif, notamment aux évaluations statistiques des taux
d’éclairs pour déterminer l’intensité des orages, ce qui peut largement améliorer leur utilité.
Plusieurs projets en cours ont pour objectif la mise au point de procédures automatisées pour
le suivi des cellules orageuses et l’évaluation des paramètres d’éclairs dans ces domaines.
L’amélioration de l’interprétation, de l’analyse et de l’animation des résultats du suivi des cellules
orageuses devrait renforcer le potentiel des données fournies par les systèmes de localisation
780 PARTIE II. SYSTÈMES D’OBSERVATION
des éclairs en matière de prévision immédiate. Les produits dérivés obtenus en combinant les
données sur les éclairs et les données radars pour les besoins du suivi des cellules orageuses
présentent aussi un potentiel intéressant.
Enfin, les données sur les éclairs, ainsi que d’autres observations, notamment la réflectivité
mesurée par les radars, peuvent servir à produire des statistiques de sortie de modèle en matière
de prévision objective (Glahn et Lowry 1972; Knüpffer, 1996) dont il y a lieu de se servir quand
on fait appel à des techniques de post‑traitement dans une démarche probabiliste, comme celles
que décrit le modèle de prévision numérique du temps rafraîchi toutes les heures, mis au point
par le Earth System Research Laboratory (Laboratoire de recherche sur le système terrestre) de
l’Administration étasunienne pour les océans et l’atmosphère (NOAA) (Weygandt et al., 2008).
Des études récemment publiées sur le climat font apparaître une relation entre les éclairs et le
changement climatique (Williams, 2005; Price, 2006, 2009). En fonction du modèle utilisé et
des hypothèses prises en compte, il est prévu que, pour chaque degré de réchauffement en
surface et dans la basse troposphère, le taux d’éclairs augmentera dans une fourchette de 10 à
100 %. Il existe aussi une relation évidente entre la température, la vapeur d’eau et les éclairs;
les orages transportent d’énormes quantités de vapeur d’eau dans la haute troposphère et
basse stratosphère, ce qui influe sur l’effet de serre et par voie de conséquence sur le climat de
la Terre. En outre, les décharges de foudre produisent des oxydes d’azote qui ont un effet sur la
production de l’ozone, lequel participe aussi à l’effet de serre. Certes les mécanismes sous‑jacents
sur lesquels reposent les liens entre les éclairs et l’évolution du climat à la surface de la planète
sont bien connus, mais il faut garder à l’esprit que différents processus peuvent, de façon
inattendue, prendre le dessus sur ces mécanismes. À titre d’exemple, les simulations du climat
étudiées par Grewe (2008) tendent à montrer que le réchauffement planétaire pourrait en fait
entraîner, à l’échelle mondiale, une diminution du nombre des phénomènes de convection, mais
une augmentation de leur intensité. En conséquence, la fréquence totale des éclairs diminuerait,
mais chaque orage produirait davantage d’éclairs.
Quoi qu’il en soit, les éclairs font partie des facteurs qu’il convient de prendre en compte
dans tout modèle poussé de climat ou toute projection détaillée portant sur l’évolution du
climat. Il s’ensuit qu’il importe d’assurer une surveillance des éclairs à différentes échelles
sur de vastes zones et de créer pour ce phénomène des bases de données sur de longues
durées, ou de prolonger les bases existantes. Les études portent aussi sur des relations à court
terme, c’est‑à‑dire des variations diurnes et quotidiennes jusqu’à des périodes annuelles,
voire plus longues, en passant par les ondes dont la période est de cinq jours, et les périodes
intrasaisonnières et semestrielles. Pour atteindre un tel objectif, il y a lieu d’étendre la couverture
des systèmes locaux de localisation des éclairs de grande précision, de compléter la localisation
des éclairs à l’échelle planétaire et de mettre en place des normes adaptées à la détection des
éclairs.
Le fait de disposer d’un moyen objectif de vérifier la cause des dégâts provoqués par la foudre,
dans les différends d’ordre juridique, constitue l’une des premières raisons pour lesquelles
des systèmes de localisation des éclairs ont été mis au point. Pour la plupart, les compagnies
d’assurance se servent de données sur les éclairs pour confirmer ou rejeter des demandes
d’indemnisation des dégâts causés par la foudre. Pour être utiles dans ce domaine, les systèmes
de localisation des éclairs doivent disposer d’une excellente capacité de détection et d’une
exactitude de localisation tout aussi bonne, à toutes les échelles. Ces systèmes devraient
donc fournir des données de localisation avec une précision de l’ordre du kilomètre pour qu’il
soit possible d’établir une corrélation fiable entre la foudre et les dégâts déclarés. Ils doivent
de surcroît pouvoir détecter des décharges relativement faibles, puisqu’un arc de 5 kA peut
provoquer des surtensions ou des dégâts conséquents. Le secteur de l’énergie a besoin d’une
précision encore plus fine en matière de localisation, pour déterminer si les pannes survenant sur
les lignes à haute tension ont pu découler d’une décharge de foudre. Si l’on considère que les
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 781
orages violents peuvent produire des taux d’éclairs élevés et que les éclairs peuvent regrouper
de nombreux arcs caractérisés par différents points d’impact, la précision de la localisation doit
descendre jusqu’à 100 ou 200 m, pour qu’on puisse établir une corrélation spatiale avec un bon
degré de fiabilité. Il est relativement moins difficile de respecter de telles exigences quand on
connaît avec précision l’heure à laquelle se produisent la panne et les décharges de foudre; en
outre, on trouve à présent dans le commerce des outils qui décèlent automatiquement de tels
incidents.
RÉFÉRENCES ET AUTRES LECTURES
Abarca, S.F., K.L. Corbosiero et T.J. Galarneau Jr., 2010: An evaluation of the Worldwide Lightning Location
Network (WWLLN) using the National Lightning Detection Network (NLDN) as ground truth.
Journal of Geophysical Research: Atmospheres, 115(D18).
Betz, H.D., K. Schmidt et W.P. Oettinger, 2009: LINET – An international VLF/LF lightning detection network
in Europe. Dans: Lightning: Principles, Instruments and Applications (dir.: H.D. Betz, U. Schumann
et P. Laroche), Dordrecht, Pays‑Bas, Springer‑Verlag.
Biagi, C.J., K.L. Cummins, K.E. Kehoe et E.P. Krider, 2007: National Lightning Detection Network (NLDN)
performance in southern Arizona, Texas and Oklahoma in 2003–2004. Journal of Geophysical
Research: Atmospheres, 112(D5).
Cummins, K.L. et M.J. Murphy, 2009: An overview of lightning locating systems: History, techniques, and
data uses, with an in‑depth look at the U.S. NLDN. IEEE Transactions on Electromagnetic
Compatibility, 51(3):499–518.
Demetriades, N.W.S., M.J. Murphy et J.A. Cramer, 2010: Validation of Vaisala’s Global Lightning Dataset
(GLD360) over the continental United States. Preprints, Twenty‑ninth Conference on Hurricanes
and Tropical Meteorology (10–14 mai 2010), Tucson, Arizona.
Dowden, R.L., J.B. Brundell et C.J. Rodger, 2002: VLF lightning location by time of group arrival (TOGA) at
multiple sites. Journal of Atmospheric and Solar‑Terrestrial Physics, 64(7):817–830.
Dwyer, J.R., 2005: A bolt out of the blue. Scientific American, 292(5):64–71.
Fleenor, S.A., C.J. Biagi, K.L. Cummins, E.P. Krider et X.‑M. Shao, 2009: Characteristics of cloud‑to‑ground
lightning in warm‑season thunderstorms in the Central Great Plains. Atmospheric Research,
91:333–352.
Glahn, H.R. et D.A. Lowry, 1972: The use of model output statistics (MOS) in objective weather forecasting.
Journal of Applied Meteorology, 11:1203–1211.
Grewe, V., 2008: Impact of lightning on air chemistry and climate. Dans: Lightning: Principles, Instruments
and Applications (dir.: H.D. Betz, U. Schumann et P. Laroche), Dordrecht, Pays‑Bas,
Springer‑Verlag.
Heckman, S. et C. Liu, 2010: The application of total lightning detection and cell tracking for severe weather
prediction. Dans: Proceedings of the International Conference on Grounding and Earthing
(GROUND’2010) and Fourth International Conference on Lightning Physics and Effects (LPE)
(novembre 2010), Salvador, Brésil.
Hendry, J., 1993: Panning for lightning (including comments on the photos by M.A. Uman). Weatherwise,
45(6):19.
Hutchins, M.L., R.H. Holzworth, C.J. Rodger et J.B. Brundell, 2012: Far‑field power of lightning strokes as
measured by the World Wide Lightning Location Network. Journal of Atmospheric and Oceanic
Technology, 29:1102–1110.
Jerauld, J., V.A. Rakov, M.A. Uman, K.J. Rambo, D.M. Jordan, K.L. Cummins et J.A. Cramer, 2005: An
evaluation of the performance characteristics of the U.S. National Lightning Detection
Network in Florida using rocket‑triggered lightning. Journal of Geophysical Research:
Atmospheres, 110(D19).
Knüpffer, K., 1996: Methodical and predictability aspects of MOS systems. Preprints of the Thirteenth
Conference on Probability and Statistics in the Atmospheric Sciences (21–23 février 1996),
San Francisco, California. American Meteorological Society, 190–197.
Le Vine, D.M., 1980: Sources of the strongest RF radiation from lightning, Journal of Geophysical Research:
Oceans, 85(C7):4091–4095.
Lojou, J.‑Y., M.J. Murphy, R.L. Holle et N.W.S. Demetriades, 2008: Nowcasting of thunderstorms using VHF
measurements. Dans: Lightning: Principles, Instruments and Applications (dir.: H.D. Betz,
U. Schumann et P. Laroche), Dordrecht, Pays‑Bas, Springer‑Verlag.
Mardiana, R. et Z‑I. Kawasaki, 2000: Broadband radio interferometer utilizing a sequential triggering
technique for locating fast‑moving electromagnetic sources emitted from lightning. IEEE
Transactions on Instrumentation and Measurement, 49(2):376–381.
Morimoto, T., A. Hirata, Z. Kawasaki, T. Ushio, A. Matsumoto et J.H. Lee, 2004: An operational VHF
broadband digital interferometer for lightning monitoring, IEEJ Transactions on Fundamentals
and Materials, 124(12):1232–1238.
Naccarato, K.P., O. Pinto Jr., S.A.M. Garcia, M. Murphy, N. Demetriades et J. Cramer, 2010: Validation of the
new GLD360 dataset in Brazil: First results. Twenty‑first International Lightning Detection
Conference (19‑22 juillet 2010), Orlando, Floride.
CHAPITRE 6. MÉTHODES ÉLECTROMAGNÉTIQUES DE DÉTECTION DES ÉCLAIRS 783
Nag, A., S. Mallick, V.A. Rakov, J.S. Howard, C.J. Biagi, J.D. Hill, M.A. Uman, D.M. Jordan, K.J. Rambo,
J.E. Jerauld, B.A. DeCarlo, K.L. Cummins et J.A. Cramer, 2011: Evaluation of U.S. National
Lightning Detection Network performance characteristics using rocket‑triggered lightning
data acquired in 2004‑2009. Journal of Geophysical Research: Atmospheres, 116(D2).
Nag, A. et V.A. Rakov, 2012: Positive lightning: An overview, new observations, and inferences. Journal of
Geophysical Research: Atmospheres, 117(D8).
Nag, A., V.A. Rakov, D. Tsalikis et J.A. Cramer, 2010: On phenomenology of compact intracloud lightning
discharges. Journal of Geophysical Research: Atmospheres, 115(D14).
Orville, R.E., 2008: Development of the National Lightning Detection Network, Bulletin of the American
Meteorological Society, 89(2):180–190.
Poelman, D.R., W. Schulz et C. Vergeiner, 2013: Performance characteristics of distinct lightning detection
networks covering Belgium. Journal of Atmospheric and Oceanic Technology, 30(5):942–951.
Price, C., 2006: Global thunderstorm activity. Dans: Sprites, Elves and Intense Lightning Discharges
(dir.: M. Fullekrug, E. Mareev et M. Rycroft). Springer, Amsterdam, 85–99.
Price, C., 2009: Will a drier climate result in more lightning? Atmospheric Research, 91(2):479–484.
Rakov, V.A., 1999: Lightning electric and magnetic fields. Dans: Proceedings of the Thirteenth International
Zurich Symposium on Electromagnetic Compatibility (16–18 février 1999), Zurich, Suisse.
Rakov, V.A. et M.A. Uman, 2003: Lightning: Physics and Effects, Cambridge University Press.
Said, R.K., M.B. Cohen et U.S. Inan, 2013: Highly intense lightning over the oceans: Estimated peak currents
from global GLD360 observations. Journal of Geophysical Research: Atmospheres, 118(13)
(consultable à l’adresse http://onlinelibrary.wiley.com/doi/10.1002/jgrd.50508/pdf).
Said, R.K., U.S. Inan et K.L. Cummins, 2010: Long‑range lightning geolocation using a VLF radio
atmospheric waveform bank. Journal of Geophysical Research: Atmospheres, 115(D23).
Shao, X.M., D.N. Holden et P.R. Krehbiel, 1996: Broadband radio interferometry for lightning observation.
Geophysical Research Letters, 23:1917–1920.
Smith, D.A., X.M. Shao, D.N. Holden, C.T. Rhodes, M. Brook, P.R. Krehbiel, M. Stanley, W. Rison et
R.J. Thomas, 1999: A distinct class of isolated intracloud discharges and their associated radio
emissions. Journal of Geophysical Research: Atmospheres, 104(D4): 4189–4212.
Thomas, R.J., P.R. Krehbiel, W. Rison, S.J. Hunyady, W.P. Winn, T. Hamlin et J. Harlin, 2004: Accuracy of the
Lightning Mapping Array. Journal of Geophysical Research: Atmospheres, 109(D14).
Weygandt, S.S., M. Hu, S.G. Benjamin, T.G. Smirnova, K.J. Brundage et J.M. Brown, 2008: Assimilation of
lightning data using a diabatic digital filter within the Rapid Update Cycle. Twentieth International
Lightning Detection Conference (21–23 avril 2008), Tucson, Arizona.
Williams, E., 2005: Lightning and climate: A review. Atmospheric Research, 76:272–287.
TABLE DES MATIÈRES DU CHAPITRE
Page
Page
7.1 GÉNÉRALITÉS
Dans le présent chapitre sont abordées des notions fondamentales sur les radars
météorologiques. On y met l’accent sur les caractéristiques techniques et opérationnelles à
prendre en compte pour le choix, la mise en place et l’exploitation de radars et de réseaux radar
destinés aux Services météorologiques et hydrologiques. On y examine donc aussi l’utilisation et
l’application des données fournies par les radars météorologiques. Les radars utilisés pour établir
des profils verticaux du vent sont décrits dans le chapitre 5 de la partie II.
Le présent chapitre porte sur les radars opérationnels ou quasi opérationnels, utilisés dans
le monde entier. Les radars météorologiques dont les caractéristiques se prêtent le mieux à
l’observation et à l’étude de l’atmosphère émettent des impulsions électromagnétiques d’une
fréquence de 3 à 10 GHz (correspondant à une longueur d’onde de 10 à 3 cm). Ils sont conçus
initialement pour détecter et cartographier les zones où se produisent des précipitations dont
ils mesurent l’intensité et les déplacements, et parfois le type. Les échos radar que renvoient les
oiseaux, les insectes ou la diffusion de Bragg (en présence de variations turbulentes de l’indice de
réfraction) peuvent aussi produire des données radiales du vent dans le cas de radars Doppler.
La représentation graphique de leur intensité permet de localiser les limites atmosphériques
caractéristiques de zones de convergence à basse altitude où les orages peuvent prendre forme
ou se développer.
On fait appel à des fréquences plus élevées (35 et 94 GHz) pour localiser des hydrométéores
de taille relativement faible tels que les gouttelettes des nuages, le brouillard, la bruine, de
faibles chutes de neige et les précipitations en général. Ces fréquences tiennent de plus en plus
une place prépondérante dans les expérimentations. On ne s’en sert généralement pas pour la
prévision opérationnelle en raison de l’atténuation excessive du signal radar par le milieu qu’il
traverse et d’une portée relativement faible, en particulier en mode Doppler.
À de plus basses fréquences (915‑1440 MHz, ~400‑440 MHz et ~50 MHz), les radars sont en
mesure de détecter les variations de l’indice de réfraction par ciel clair et sont utilisés pour établir
des profils de vent. Bien qu’ils puissent détecter les précipitations, leurs possibilités d’exploration
sont limitées par le diamètre et le type de l’antenne, qui pointe en général à la verticale ou à un
angle proche de cet axe.
Le signal reçu, que rétrodiffuse en direction du radar toute cible interceptée par l’impulsion
émise, s’appelle un écho. Celui‑ci possède une amplitude, une phase et une polarisation.
L’amplitude est liée à la répartition granulométrique et au nombre des particules se trouvant
dans le volume illuminé par le faisceau radar. L’amplitude sert à déterminer un paramètre appelé
facteur de réflectivité (Z), qui permet, grâce à des relations empiriques, d’évaluer l’intensité des
précipitations. Une des premières applications du radar consiste donc à détecter, à évaluer et à
cartographier les précipitations au niveau du sol en temps réel, de manière quasi continue et sur
de vastes étendues géographiques.
Les radars Doppler sont à même de déterminer le déphasage entre les impulsions émises et les
impulsions reçues en retour. Cette différence de phase donne la mesure de la vitesse radiale
moyenne des particules, c’est‑à‑dire la moyenne pondérée selon la réflectivité, des composantes
CHAPITRE 7. MESURES RADAR 787
radiales des vitesses de déplacement des hydrométéores dans le volume du faisceau radar. La
largeur du spectre Doppler permet de mesurer la variabilité dans l’espace des vitesses Doppler.
De cette mesure des variations de la vitesse radiale, on tire des indications sur le cisaillement de
vent et la turbulence. Le mode Doppler possède une caractéristique importante: il permet de
filtrer, par traitement du signal, les échos correspondant aux cibles situées au sol.
Les radars de la génération actuelle sont dotés d’une capacité de double polarisation. Dans la
pratique, le radar émet simultanément deux faisceaux polarisés, l’un horizontalement et l’autre
verticalement. Les radars de générations précédentes émettaient des séries d’impulsions, mais
devaient être dotés d’un commutateur de polarisation à haute puissance qui tombait facilement
en panne. Deux récepteurs (physiques ou virtuels) sont utilisés pour mesurer les composantes
horizontale et verticale du signal de retour, ce qui a pour principal avantage d’améliorer la qualité
des données, puisqu’il est possible de déceler les caractéristiques des cibles (oiseaux, insectes,
précipitations et leurs types, fouillis d’échos), de déterminer le type des hydrométéores et
d’évaluer l’intensité des précipitations. Pour les besoins de la prévision, cette double polarisation
permet de détecter la grêle et la limite pluie‑neige. Les précipitations de forte intensité ont
un effet sur la phase horizontale et verticale des impulsions émises et reçues, ce qu’on peut
exploiter pour évaluer cette intensité, et ce, même en cas d’obstruction partielle du faisceau
ou d’atténuation du signal. Il est possible d’étalonner les variables de double polarisation en se
fondant sur des relations auto‑cohérentes.
Les radars météorologiques ne fonctionnent plus isolément. Compte tenu des moyens de
télécommunications dont on dispose de nos jours, l’échange de données permet aux radars
météorologiques de fonctionner en réseaux. Leur utilité s’en trouve améliorée à l’échelle locale
(par exemple, avis de phénomènes météorologiques violents et prévision immédiate), régionale
(par exemple, assimilation de données et évaluation des précipitations) et mondiale (par
exemple, détection de l’évolution du climat).
Il convient d’optimiser les caractéristiques des radars météorologiques modernes pour que
ceux‑ci produisent les meilleures données possibles correspondant aux besoins opérationnels.
Les radars sont les instruments de mesure les plus complexes en météorologie d’exploitation; ils
exigent un personnel spécialement formé et possédant une grande connaissance de l’appareil.
Le choix de leur emplacement est fondamental pour qu’ils puissent répondre aux besoins en
matière de surveillance et de détection. Il existe de nombreuses configurations et il importe de
veiller à la bonne installation des composants et à leur vérification pour éviter toute dégradation
ainsi que d’éventuelles pannes. Il faut donc mettre en œuvre un programme de maintenance et
d’appui pour que les instruments demeurent utiles.
C’est en fonction des applications météorologiques qu’on sélectionne les caractéristiques d’un
radar (tableaux 7.1, 7.2 et 7.3).
Pour leurs applications, les utilisateurs font un usage quantitatif des données radar. Ils doivent
donc se fier aux qualités d’exactitude et de précision des observations effectuées par les radars
météorologiques. Les radars modernes, s’ils sont correctement installés, étalonnés et entretenus,
demeurent relativement stables, compte tenu des qualités du matériel, et ne donnent pas
lieu à des erreurs sensibles de mesure. La maintenance et l’étalonnage d’un radar constituent
cependant des opérations difficiles à réaliser nécessitant un personnel hautement qualifié. Les
erreurs de mesure demeurent; elles exigent des compétences à la fois techniques et scientifiques
pour que les activités de surveillance, de diagnostic et de correction des erreurs systématiques
soient menées à bien.
788 PARTIE II. SYSTÈMES D’OBSERVATION
Z DR Réflectivité différentielle dB
f Fréquence d’émission Hz
fd Décalage Doppler Hz
Pt Puissance d’émission kW
T Période de répétition ms
(=1/PRF)
λ Longueur d’onde de cm
l’onde émise
CHAPITRE 7. MESURES RADAR 789
τ Durée d’impulsion µs
Les principaux facteurs d’inexactitude sont des facteurs extérieurs: effets des échos
de sol, propagation anormale, atténuation et phénomènes de propagation, effets du
faisceau, composition des cibles, et notamment leurs fluctuations dans le plan vertical,
relations inadéquates entre l’intensité des précipitations et la réflectivité, et les conditions
météorologiques. Ils créent des artéfacts qui doivent être éliminés au cours du traitement
scientifique auquel les données sont soumises avant qu’elles puissent servir à des applications
quantitatives. Si l’on ne considère que les erreurs imputables aux systèmes radar, on peut
déterminer les paramètres mesurables des radars avec une exactitude acceptable (tableau 7.4).
Z Réflectivité 1 dBZ
Figure 7.1. Exemple type de radar météorologique appartenant au réseau canadien, avec ses
principaux éléments. Une tour d’une trentaine de mètres de haut supporte à son sommet un
radôme équipé de lampes de balisage et d’un parafoudre.
2001), RADCAL 2013 (Chandrasekar et Baldini, 2013) et RADMON 2010 (Joe, 2010) donnent
énormément d’indications sur la qualité, la maintenance, le suivi et l’étalonnage du matériel.
Voici donc une brève description des principes de fonctionnement des radars.
La figure 7.1 montre un exemple type de radar sur site. L’antenne, d’un diamètre se situant entre 2
et 8,5 m, est protégée par son radôme et repose au sommet d’une tour haute d’environ 10 à
30 m, voire plus. Cette tour sert à élever le radar au‑dessus des obstacles avoisinants. Il faudrait
choisir la hauteur de la tour en tenant compte de la croissance des arbres alentour. Si la tour
est trop haute, les échos de sol sont bien plus nombreux en raison de la partie latérale du lobe
principal et des lobes secondaires (ou latéraux). L’une des constructions abrite l’appareillage
électronique du radar (émetteur‑récepteur et ordinateurs) et l’autre, l’alimentation électrique
sans interruption et un groupe électrogène type diesel. Les radars sont fréquemment installés en
milieu rural où il est souvent difficile de disposer d’une alimentation électrique stable. Le système
d’alimentation électrique sans interruption joue un rôle crucial, puisqu’il permet d’éliminer
les surtensions et d’autres anomalies propres à l’alimentation électrique; c’est un élément clé
qui assure le bon fonctionnement du radar. Le groupe électrogène, qu’il fonctionne au gazole
ou à partir d’autres carburants, est en mesure de maintenir le radar en service pendant deux à
trois jours, mais cette caractéristique devrait être établie en fonction des besoins. On notera la
présence, au sommet du radôme, d’un parafoudre relié à la terre par des câbles (qu’on ne voit
pas sur la photographie). C’est aussi un élément important de l’installation, puisque la foudre
peut gravement endommager à long terme les composantes du radar. Les fluctuations du
courant électrique causées par la foudre peuvent dépasser les capacités de protection du système
d’alimentation électrique sans interruption. Le radôme est aussi équipé de balises lumineuses
destinées à la navigation aérienne.
Une antenne directionnelle émet dans l’atmosphère, par une succession rapide d’impulsions, des
ondes électromagnétiques à des fréquences fixes prédéterminées. Le traitement de la durée de
l’impulsion et de la portée détermine la résolution en distance des données radar. Une technique
appliquée aux radars en exploitation commence à voir le jour. Il s’agit de la compression
d’impulsions que permet l’utilisation d’émetteurs de faible puissance (semi‑conducteurs, tubes
à ondes progressives) et qui repose sur l’emploi combiné de l’émission d’impulsions longues
à faible puissance, de la modulation de fréquence, de la compression d’impulsions et d’un
traitement poussé du signal pour atteindre une résolution en distance élevée et une grande
sensibilité. Cette technique fait ainsi concurrence aux systèmes classiques à impulsions. L’antenne
réseau à commande de phase est aussi une technique nouvelle qui forme un faisceau en faisant
CHAPITRE 7. MESURES RADAR 791
Second retour
Échos de second retour +
Trajets multiples + +
Interférence Arbres agités par le vent + Fouillis +/– Éoliennes +
électromagnétique + Avec filtre coupe-bande +/– (réfractivité)
(vitesse nulle)
Figure 7.2. Outre les cibles météorologiques, le radar météorologique détecte de nombreux
autres objets ou phénomènes. Ce schéma montre un grand nombre d’éléments ainsi
détectés. Les signes + et – indiquent si l’élément en question augmente ou diminue
la réflectivité. Il y a lieu d’éliminer ces artéfacts pour une utilisation quantitative
des données radar.
varier électroniquement la phase. Cela permet d’orienter le faisceau dans différentes directions,
aisément et de façon non séquentielle. Toutefois, l’onde émise est nécessairement directionnelle;
elle permet de mesurer la distance, l’azimut et le site d’une cible.
Avec un radar à impulsions, les brèves impulsions d’énergie électromagnétique sont absorbées et
diffusées par toute cible, météorologique ou non, rencontrée. Une partie de l’énergie diffusée est
renvoyée vers l’antenne et le récepteur radar. Comme les ondes électromagnétiques se déplacent
à la vitesse de la lumière (2,99 × 10 8 m s–1), on peut déterminer la distance de la cible en mesurant
le temps qui s’écoule entre le moment où l’impulsion est émise et celui où elle revient. Entre les
impulsions successives, le récepteur reste en attente d’un éventuel retour d’onde. Le signal de
retour émanant de la cible est communément appelé écho radar. Le temps qui s’écoule entre les
impulsions détermine la portée maximale non ambiguë de l’appareil. Le radar peut recevoir des
échos provenant de cibles situées au‑delà de sa portée maximale, il s’agit d’échos de deuxième
ou de n‑ième balayage ou retour.
des impulsions émises et une zone aveugle s’étendant sur une longue distance est créée (de 10
à 30 km, en fonction de la durée de l’impulsion). Pour détecter les objets situés dans cette zone
aveugle, ce type de radar émet des impulsions courtes (raccourcissant la zone aveugle, < 2 km).
L’«équation radar fonction de la distance» relie la puissance du signal reçu de la cible aux
caractéristiques du radar et aux paramètres de la cible. La puissance du signal de retour fournit
une estimation de la quantité de précipitations dans le volume de résolution. Cette évaluation est
fonction de l’hypothèse portant sur le type des particules de précipitation et sur leur distribution
granulométrique dans le volume de résolution.
Les mesures de puissance sont déterminées par la puissance totale du signal rétrodiffusé par la
cible dans un volume sondé à un instant donné. Ce volume s’appelle volume de résolution ou
volume échantillonné. La taille du volume de résolution est fonction de la profondeur radiale
des impulsions (h) ainsi que de la largeur du faisceau dans le plan vertical (ϕb) et horizontal (θb).
Cette largeur et donc le volume de résolution augmentent avec la distance. Comme le signal
reçu par le radar fait un aller‑retour, la longueur des impulsions dans le volume de résolution
(h/2) n’est égale qu’à la moitié de leur longueur dans l’espace et ne varie pas avec la distance.
La position du volume de résolution dans l’espace est déterminée par l’orientation de l’antenne
en azimut et en site, par la distance de la cible et aussi par le trajet de propagation non linéaire
du faisceau radar à l’aller. Avec un radar à compression d’impulsions, le volume de résolution
est déterminé principalement par la résolution de la modulation de fréquence et la capacité du
système récepteur de déceler les variations de fréquence.
Les particules situées dans le volume de résolution se déplacent constamment les unes par
rapport aux autres, ce qui entraîne des variations d’intensité par rapport à l’intensité moyenne
de la cible. Une seule mesure de l’intensité de l’écho d’une cible météorologique a peu de
valeur en soi. Il faut intégrer un minimum de 25 à 30 impulsions pour obtenir une estimation
correcte de l’intensité moyenne, ce qui est cependant une fonction du degré de qualité des
données considéré comme acceptable (Smith, 1995). Cette opération s’exécutait auparavant
grâce à un circuit électronique d’intégration. Elle est à présent réalisée par un processeur du
signal numérique. On réintègre fréquemment cette moyenne des impulsions en distance
radiale, en gisement et dans le temps pour accroître la taille de l’échantillon et l’exactitude de
l’estimation, ce qui conduit à une diminution de la résolution spatiale. À la différence des radars
non météorologiques, il importe de noter que le traitement du signal et l’interprétation des
données se fondent sur le principe selon lequel la rétrodiffusion provient d’une cible répartie et
non d’une cible ponctuelle (un avion par exemple). Cela nécessite un traitement visant à obtenir
des mesures quantitatives (pas simplement une détection) ainsi qu’une relation de dépendance
de la puissance du signal de retour par rapport à la distance (équation radar) différente de celle
correspondant aux radars de détection de cibles ponctuelles (destinés par exemple au contrôle
de la circulation aérienne).
Les radars Doppler sont dotés d’éléments électroniques capables de mesurer les différences
de décalage en phase ou déphasage des impulsions successives pour un même volume de
résolution. Le déphasage est proportionnel à la longueur d’onde du radar et donc à la distance
correspondant au temps écoulé entre les impulsions. On en tire une évaluation de la vitesse
radiale, dite aussi «vitesse Doppler».
Il est possible de prévoir la déviation des ondes électromagnétiques à partir du profil vertical
de la température, de l’humidité et de la pression (Bean et Dutton, 1966). Dans des conditions
atmosphériques normales, les ondes se déplacent selon une courbe qui s’infléchit légèrement
vers la Terre (figure 7.3). La représentation schématique se situe dans un espace physique (la
Terre est dessinée avec un rayon de 6 371 km) et la figure montre que le faisceau, bien que
dévié vers le bas, poursuit un trajet ascendant avec la distance par rapport à la surface terrestre.
Selon un modèle Terre 4/3, où la surface terrestre est représentée suivant un rayon de 8 975 km
(4/3 x 6 371 km), les faisceaux décrivent des lignes droites (figure 7.4).
C’est le modèle le plus couramment utilisé, mais dans le cas de certains radars (sommets
montagneux), on utilise un modèle 5/4. La hauteur au‑dessus du radar s’exprime comme suit:
1
h = r 2 + ( ke a ) + 2rke a sin θe − ke a
2 2
(7.1)
où h désigne la hauteur au‑dessus de l’antenne du radar, r désigne la distance parcourue par
le faisceau, a désigne le rayon de la Terre, e désigne l’angle d’élévation et kea désigne le rayon
effectif de la Terre.
1 0,5
0 0,3
–1
Y (km)
0,0
–2
–0,3
–3
Surface terrestre
–4
0 50 100 150 200 250 300
X (km)
Figure 7.3. Schéma de la hauteur du faisceau pour certains angles de site [‑0,3, 0, 0,3 et 0,5]
au-dessus de la surface terrestre, pour un profil standard de l’indice de réfraction dans
l’atmosphère représentée dans un espace physique avec une courbure de la surface terrestre
équivalente au rayon de la Terre.
794 PARTIE II. SYSTÈMES D’OBSERVATION
25,5 21,8 18,6 15,8 13,4 11,3 9,5 8,0 6,8 5,7 4,8 4,0
20
3,4
18
Zone non soudée
Cône de silence Facteur de progression géométrique = 1,19
16 2,8
14 2,4
2,0
Altitude (km)
12
1,7
10 1,4
1,2
8 1,0
0,85
0,7
0,6
6 0,5
4
Zone non soudée
Infraréfraction
2
0
0 50 100 150 200 250
Distance (km)
Figure 7.4. Ce diagramme de la hauteur du faisceau constitue une aide utile pour
l’interprétation des produits radar. Le trajet du faisceau est représenté par convention par
rapport à une représentation plane de la surface terrestre. La séquence de représentation de
l’angle d’élévation est celle proposée par Marshall et Ballantyne (1978) pour établir de façon
optimale des produits horizontaux (CAPPI, sommet des échos).
Le trajet des faisceaux peut s’infléchir vers le haut (infraréfraction) ou vers le bas
(super‑réfraction). Dans les deux cas, la mesure de l’altitude de ces faisceaux sera erronée si
l’on s’en tient aux hypothèses de propagation standard dans l’atmosphère. On parle alors de
propagation anormale. Du point de vue de la mesure des précipitations, le problème le plus
grave se produit en cas de super‑réfraction ou de phénomène de « conduit » (propagation par
conduit). Le faisceau peut s’infléchir suffisamment pour atteindre le sol et provoquer des échos
de sol qui ne devraient normalement pas se produire. Ce phénomène apparaît lorsque l’indice
de réfraction décroît rapidement avec l’altitude, en cas d’augmentation de la température et de
diminution de l’humidité avec l’altitude. Il faut éliminer ce type d’échos pour produire des cartes
des précipitations. Une super‑réfraction, quand la portée du faisceau diminue ou que le faisceau
est dévié anormalement vers le haut, n’est pas évidente à détecter, ce qui pose problème. Dans la
pratique, le profil vertical de l’indice de réfraction étant inconnu, la trajectoire précise du faisceau
demeure inconnue.
Certains échos dits de «ciel clair» sont dus à des variations turbulentes de l’indice de réfraction
que l’on trouve dans des zones de turbulence, dans des couches particulièrement stables, dans
des cellules de cisaillement du vent ou en cas de forte inversion (diffusion de Bragg). Ces échos
ont généralement une configuration assez facilement identifiable, mais ils doivent être éliminés
des champs de précipitations (Gossard et Strauch, 1983).
L’onde hyperfréquence subit une atténuation par absorption et diffusion due aux gaz
atmosphériques, aux nuages et aux précipitations.
Les gaz atténuent l’onde hyperfréquence dans la bande de 3 à 10 cm. L’absorption par les gaz
atmosphériques est imputable principalement à la vapeur d’eau et aux molécules d’oxygène.
CHAPITRE 7. MESURES RADAR 795
L’atténuation par les gaz varie légèrement selon le climat et la saison. Elle est sensible à grande
distance dans les longueurs d’onde employées par les radars météorologiques, où, pour une
portée de 200 km, elle peut atteindre 2 à 3 dB pour les plus grandes longueurs d’onde et 3 à
4 dB pour les plus courtes. La compensation de cette atténuation est une opération facile à
automatiser.
L’atténuation est fonction de la longueur d’onde du faisceau radar. Pour une longueur d’onde
de 10 cm, elle est plutôt faible alors qu’elle est très importante pour une longueur d’onde de
3 cm. Pour une longueur d’onde de 5 cm, elle est acceptable sous de nombreux climats, en
particulier pour les latitudes moyennes les plus élevées. Une longueur d’onde inférieure à
5 cm se prête mal à la mesure précise des précipitations, sauf dans le cas des applications à
faible distance (tableau 7.5). Pour des longueurs d’onde de 3 et 5 cm, il peut se produire une
disparition complète du signal. Les radars fonctionnant sur les longueurs d’onde les plus courtes
sont les plus sensibles à l’atténuation. C’est aussi dans ce cas que la correction de l’atténuation
et l’évaluation des précipitations fondées sur les mesures de la phase différentielle spécifique en
double polarisation sont les plus appropriées. Ces techniques sont efficaces dès les intensités de
précipitations les plus basses pour des longueurs d’onde relativement courtes.
En ce qui concerne l’évaluation des précipitations par radar, on peut formuler des observations
d’ordre général quant à l’ampleur de l’atténuation. Celle‑ci est fonction de la masse d’eau que
contient la cible, d’où une atténuation plus importante en cas de forte pluie, alors que les nuages
contenant une masse d’eau nettement plus faible entraînent une atténuation moindre. Les
particules à l’état solide provoquent une atténuation nettement moindre que les particules à
l’état liquide. Les nuages et les nuages de glace provoquent une faible atténuation, dont on peut
généralement ne pas tenir compte. Les particules de neige ou de glace (ou les grêlons) peuvent
atteindre des dimensions largement supérieures à celles des gouttes de pluie. Elles se couvrent
d’une pellicule d’eau lorsqu’elles commencent à fondre, d’où une nette augmentation de la
réflectivité, donc des propriétés d’atténuation. Ce phénomène risque de biaiser les estimations
de précipitations.
5 0,00 18 R1,05
La puissance de l’écho détectée est rétrodiffusée par la cible dans le volume de résolution
(hydrométéores, sol, arbres, etc.). La section efficace de rétrodiffusion (σb) se définit comme la
superficie d’un diffuseur isotrope qui renverrait à la source d’émission la même puissance que la
cible concernée. Mie (1908) a été le premier à déterminer la section efficace de rétrodiffusion des
particules sphériques. Rayleigh a constaté que, si le rapport entre le diamètre d’une particule et
la longueur d’onde est égal ou inférieur à 0,06, on peut faire appel à une expression plus simple
pour déterminer la section efficace de rétrodiffusion:
2
π 5 K D6
σb = (7.2)
λ4
ce qui justifie l’équation 7.3. |K|2, qui désigne l’indice de réfraction, est égal à 0,93 pour l’eau à
l’état liquide et à 0,197 pour la glace.
C’est à partir des mesures de puissance du radar qu’on obtient l’intensité du rayonnement diffusé
par la cible en faisant appel à l’équation 7.2 sous la forme:
C Pr r 2
z= (7.3)
2
K
On trouvera à la section 7.10 un exposé de la méthode d’interprétation de la réflectivité en
fonction de l’intensité des précipitations (R) et des problèmes que pose cette méthode.
On a constaté que, dans les zones sans nuage précipitant, les échos sont dus essentiellement
à des insectes ou à de forts gradients de l’indice de réfraction de l’atmosphère (diffusion de
Bragg). Ces échos, qui ont une faible intensité, sont détectés par la plupart des radars modernes
ou éliminés par filtrage des données. Les valeurs de la réflectivité équivalente Ze pour les
phénomènes se produisant par ciel clair se situent entre ‑55 et ‑5 dBZ, bien qu’il ne s’agisse pas
dans ce cas de vrais paramètres Z, le processus physique à l’origine des échos étant entièrement
différent. Pour la mesure des précipitations, ces échos représentent des «bruits» dans le signal.
Il est cependant possible de les associer à certains phénomènes météorologiques tels qu’un flux
d’air causé par une brise de mer ou par un orage; ils deviennent alors utiles puisqu’ils permettent
de délimiter des zones d’apparition éventuelle d’une convection. Les échos se produisant par ciel
clair peuvent aussi être dus à des oiseaux ou à des insectes en très faible concentration. Des échos
de 5 à 35 dBZ ne sont pas inhabituels, surtout en période de migration (tableau 7.6).
Bien que selon un traitement normal, les signaux radar soient interprétés en fonction de Z, les
propriétés de diffusion des variations de l’indice de réfraction sont très différentes de celles des
hydrométéores. Il s’agit de la diffusion de Bragg qui s’exprime le plus souvent en fonction du
paramètre de structure de l’indice de réfraction Cn2. C’est une mesure de la moyenne des carrés
des fluctuations de l’indice de réfraction en fonction de la distance (Gossard et Strauch, 1983).
Objet σ b (m2)
Avion de 10 à 1 000
Ballon‑sonde 0,01
Les cibles météorologiques consistent en particules d’eau et/ou de glace, réparties dans l’espace
de façon aléatoire. La puissance rétrodiffusée par le volume cible est fonction du nombre,
de la granulométrie, de la composition, de la position relative, de la forme et de l’orientation
des particules diffusantes. La puissance totale rétrodiffusée est la somme de la puissance
rétrodiffusée par chacune de ces particules.
Le deuxième terme de l’équation contient les paramètres propres au radar, et le troisième, les
paramètres relatifs à la distance et aux caractéristiques de la cible. Les paramètres du radar sont
relativement constants et si l’émetteur est exploité et maintenu à puissance constante, comme
cela devrait être le cas, l’équation peut se simplifier en:
2
CK Z
Pr = (7.5)
r2
où C désigne la constante radar.
La formulation de cette équation est fondée sur plusieurs hypothèses de base ayant une
importance variable pour l’application et l‘interprétation des résultats. Bien que ces hypothèses
soient globalement réalistes, les conditions ne correspondent pas toujours parfaitement et, dans
certaines circonstances, elles influent sur les mesures (Aoyagi et Kodaira, 1995).
a) Les particules diffusantes de précipitation présentes dans le volume cible sont des sphères
diélectriques homogènes de faible diamètre par rapport à la longueur d’onde (D < 0,06 λ),
avec une application stricte de l’approximation de diffusion de Rayleigh;
d) Les particules sont toutes en phase liquide ou solide; autrement dit, elles ont toutes le
même indice de réfraction |K|2 et la diffusion de la puissance par les particules est isotrope;
f) Il n’y a aucune atténuation dans l’espace situé entre le radar et le volume cible;
i) Le gain de l’antenne est connu ou peut être calculé avec une exactitude suffisante;
Cette formulation simplifiée établit un rapport entre la puissance d’écho mesurée par le radar
et la réflectivité radar Z, qui est elle‑même en rapport avec l’intensité des précipitations. Ces
facteurs et leurs rapports sont des éléments essentiels pour interpréter la puissance retour de
la cible et pour évaluer la quantité des précipitations à partir des mesures effectuées par radar.
Malgré le nombre des hypothèses émises, cette formulation donne une estimation correcte de
la masse des précipitations. Une telle estimation peut être améliorée si l’on affine les facteurs
considérés dans les hypothèses.
a) D’une antenne qui concentre les ondes hyperfréquences émises en un faisceau étroit et
reçoit les ondes rétrodiffusées;
b) D’une tour qui permet d’élever l’antenne au‑dessus des obstacles situés dans le voisinage
immédiat;
c) D’un émetteur d’ondes dans les hyperfréquences et d’un modulateur qui produit les
impulsions et détermine la fréquence des impulsions;
d) D’un récepteur qui détecte, amplifie et traduit le signal hyperfréquence renvoyé en ondes
basses fréquences;
f) D’un système de commande du radar, qui transforme les données en variables du radar;
g) D’un affichage des données permettant de visualiser l’information sous une forme
intelligible;
h) D’un système d’enregistrement permettant de stocker les données à des fins de formation,
d’étude et d’archivage.
Un radar météorologique de base peut être non cohérent (par exemple, transmetteurs à
magnétron ou à oscillateur de puissance) dans le sens où la phase des impulsions successives
transmises est aléatoire. Il est possible d’effectuer des mesures Doppler si la phase de l’impulsion
émise est mesurée et que le traitement du signal de retour utilise cette phase comme référence.
CHAPITRE 7. MESURES RADAR 799
On est alors en présence d’un radar Doppler cohérent à la réception. Un radar cohérent
à la transmission (par exemple, transmetteurs à klystron, à amplificateur de puissance, à
semi‑conducteurs ou à tubes à ondes progressives) émet des impulsions ayant toujours la même
phase. Le radar météorologique émet des ondes électromagnétiques dont la puissance de crête,
concentrée sur une impulsion d’une microseconde, se situe entre quelques centaines de kilowatts
et un mégawatt et dont la puissance moyenne représente en général quelques centaines de
watts. Les transmetteurs à modules semi‑conducteurs ou à tubes à ondes progressives émettent
des impulsions de bien moindre puissance, mais bien plus longues pour compenser le manque
de puissance.
7.4.1 Réflectivité
Le facteur de réflectivité est le paramètre le plus important pour l’interprétation des données
radar. Ce facteur, obtenu à partir du modèle de diffusion de Rayleigh, se définit théoriquement
comme la somme des diamètres de toutes les particules (gouttes) contenues dans le volume
sondé, élevée à la puissance six:
Z = Σ vol N ( D) D 6 (7.6)
où Z est exprimé en mm6 m–3. Dans de nombreux cas, le nombre, la composition et la forme des
particules sont inconnus et l’on définit un facteur de réflectivité équivalente ou effective Ze Pour
la neige et la glace, il faut prendre la réflectivité équivalente Ze qui correspond à Z si l’on suppose
que les particules rétrodiffusées sont toutes des gouttes sphériques de masse volumique ρ.
Toutefois, le terme N(D) n’est pas connu et des relations entre Z et R ont été établies
empiriquement; la relation la plus connue étant celle de Marshall‑Palmer:
Afin de couvrir tout l’intervalle des valeurs, il est courant de travailler dans une échelle
logarithmique en unités dBZ, qui se définissent numériquement par dBZe = 10 log10 Ze.
On estime qu’un radar dont la largeur de faisceau est de 1° fournit des mesures quantitatives
des précipitations de bonne qualité à une portée utile d’environ 80 km. Plus le faisceau est étroit
et plus la portée utile est grande (par exemple, elle atteint 120 km pour une largeur de faisceau
de 0,65°). À des portées plus grandes, il faut avoir recours à une extrapolation des données
par rapport au sol. L’élargissement du faisceau et son mauvais remplissage se traduisent par
une sous‑estimation de l’intensité des précipitations. Ce principe varie en fonction du régime
météorologique et les résultats dont il est question ici s’appliquent aux latitudes moyennes.
Si ce n’est dans le cas des tornades et des cyclones tropicaux, les cibles météorologiques
atteignent généralement des vitesses inférieures à 50 m s‑1. Comme cela a déjà été mentionné,
les variations de phase d’une impulsion à l’autre permettent d’évaluer la vitesse Doppler, dite
aussi vitesse radiale. Si la phase varie de plus de ±180°, l’évaluation de la vitesse est ambiguë.
Afin qu’un radar puisse mesurer la vitesse Doppler de cibles météorologiques sans ambiguïté et
avec exactitude, il faut augmenter la PRF (intervalle plus faible entre les impulsions) de façon à
réduire la portée maximale non ambiguë par rapport à un radar qui ne mesure que la réflectivité.
Pour mesurer les vitesses les plus élevées, il faut introduire des étapes supplémentaires dans le
traitement des données. La vitesse Doppler maximale mesurable sans ambiguïté, qui est fonction
de la longueur d’onde (λ) du radar et de la PRF, peut s’exprimer de la façon suivante:
PRF ⋅ λ
Vmax = ± (7.10)
4
La portée maximale non ambiguë peut s’exprimer de la façon suivante:
c
rmax = (7.11)
PRF ⋅ 2
Ainsi, la vitesse Vmax et la portée rmax sont liées par l’équation:
λc
Vmax rmax = ± (7.12)
8
Ces relations montrent bien les limites imposées par le choix de la longueur d’onde et de la
fréquence de répétition (voir la figure 7.5). Une PRF élevée est souhaitable pour accroître la
vitesse non ambiguë alors qu’une PRF basse est souhaitable pour accroître la portée du radar.
CHAPITRE 7. MESURES RADAR 801
40
PRF = 1 200
30
Vitesse de Nyquist (m/s)
PRF = 2 400
20
Bande S
10
Bande C
Bande X
0
0 50 100 150 200 250 300 350 400 450 500
Portée (km)
Figure 7.5. Représentation du «dilemme Doppler» pour les trois bandes radar
usuelles (X, C, S). Ce dilemme découle du fait qu’un paramètre, à savoir la fréquence de
répétition des impulsions, qui correspond au temps qui s’écoule entre chaque impulsion
émise, détermine à la fois la vitesse maximale non ambiguë et la portée maximale non
ambiguë, de façon opposée. Les indications et les lignes verticales rouges
désignent les réglages le plus souvent utilisés.
Comme ces limites se situent dans l’intervalle de mesure qu’on voudrait pouvoir attendre
d’un radar météorologique, il est malheureusement nécessaire d’adopter un compromis dans
les conditions de fonctionnement du radar. C’est ce que l’on nomme le dilemme Doppler ou
ambiguïté Doppler, et qu’on examine plus avant dans la section du présent chapitre consacrée au
traitement du signal et des données. La vitesse ou la portée maximale non ambiguë d’un radar
est souvent appelée vitesse de Nyquist ou portée de Nyquist.
Le fait qu’il soit souvent possible de détecter des échos au‑delà de la portée de Nyquist est
l’une des conséquences importantes de l’adoption d’une PRF relativement élevée. On qualifie
ces échos d’échos de second ou de n‑ième retour ou balayage, puisqu’ils correspondent à des
impulsions émises préalablement. Si le signal renvoyé par des cibles éloignées est suffisamment
puissant, le radar continue de le recevoir. Les cibles seront toutefois mal localisées dans le premier
retour puisque le radar n’est pas en mesure de déterminer si l’écho résulte de l’émission de la
dernière impulsion ou d’une impulsion antérieure. Le temps de retour ou la distance de l’écho est
en effet fondé sur la dernière impulsion émise.
Certains radars Doppler sont entièrement cohérents: leurs émetteurs sont des oscillateurs qui
produisent la même phase pour chaque impulsion. Ces radars cohérents sont équipés en général
d’émetteurs à klystron ou à semi‑conducteurs, ou d’émetteurs similaires. Comme ce type de
radar émet des impulsions ayant toujours la même phase, la vitesse des échos de second retour
entre dans la vitesse radiale moyenne établie; sans traitement élaboré, il est impossible d’écarter
la distance et la vitesse des échos de n‑ième balayage.
Dans le cas des radars Doppler cohérents à la réception (transmetteurs à magnétron par
exemple), la phase de chaque impulsion est aléatoire. La phase de la dernière impulsion émise
étant mesurée, celle‑ci sert de référence pour la mesure de la phase de tous les échos. La série
de phases correspondant aux échos de second retour dont la mesure fait référence à la dernière
phase émise est aléatoire et s’affiche sous forme de bruit dans le spectre Doppler. L’exemple
de la figure 7.6 représente une simulation de radar en bande C en configuration normale. Le
pic fin correspondant à la vitesse zéro se rapporte à des échos de sol fixes dont la distribution
de puissance est très étroite. La courbe élevée à droite représente l’écho des hydrométéores.
802 PARTIE II. SYSTÈMES D’OBSERVATION
–5
–15
–20
–25
–30
–16 –12 –8 –4 0 4 8 12 16
Vitesse de Nyquist (m/s)
Figure 7.6. Le spectre Doppler montre une distribution des valeurs de la puissance au sein
d’un seul volume du faisceau radar en fonction de la vitesse Doppler.
70 70
Écho de 65 Écho de second retour 65
second retour 60
55
éliminé par filtrage portant 60
55
50 sur la qualité des données 50
45
40
sur la vitesse Doppler 45
40
35 35
Écho météo 31 31
27 27
24 24
21 21
18 18
15 15
12 12
9 9
6 Écho météo 6
Écho de 3
0
3
0
second retour –3 –3
–6 –6
–10 –10
Écho de sol –15
Écho de sol –15
–20 –20
–32 éliminé par filtrage Pic urbain –32
RF RF
coupe-bande Doppler éliminé par filtrage
coupe-bande Doppler
Pic d’échos urbains résultant
d’une diffusion multiple
Propagation anormale
éliminée par filtrage
coupe-bande Doppler
Figure 7.7. Les radars Doppler modernes filtrent les données de mauvaise qualité ou les échos
de sol au cours de la phase de traitement du signal. L’image de gauche montre les données
brutes tandis que l’image de droite fait apparaître la capacité de filtrage par traitement du
signal et des données Doppler. La figure 7.29 illustre les possibilités qu’offre la diversité de
polarisation pour la qualité des données.
Elle est plus large que le pic des échos de sol puisqu’elle provient de gouttes réparties de façon
aléatoire. Il est à noter que la «queue» de l’écho des hydrométéores à droite apparaît sur le bord
gauche du graphique par repliement de spectre. Le signal varie autour du seuil de fréquence
correspondant au bruit en raison de parasites d’origine thermique propres au système et autour
du spectre météorologique en raison d’une répartition aléatoire des cibles que constituent les
précipitations. En soustrayant à la puissance globale la puissance de bruit obtenue par évaluation
dynamique, il est possible d’obtenir une meilleure estimation de la puissance des échos de
premier retour. L’exemple de la figure 7.7 montre a) une possibilité d’éliminer un écho de sol
fixe à l’aide d’un filtre coupe‑bande agissant sur les échos de vitesse nulle et b) une possibilité
d’éliminer l’écho de second retour à l’aide d’un filtre réducteur de bruit (indice de qualité
du signal).
CHAPITRE 7. MESURES RADAR 803
On fait appel à deux systèmes de traitement du signal, de complexité différente pour traiter
les paramètres Doppler. Le système de traitement par paires d’impulsions (TPI), le plus simple,
consiste à déduire la vitesse moyenne et la largeur de spectre de la comparaison d’impulsions
successives dans le domaine temporel. Dans le deuxième système, plus complexe, on utilise une
transformation de Fourier rapide (TFR) pour produire un spectre de vitesse continu dans chaque
volume sondé. Le système TPI est plus rapide, moins gourmand en temps de calcul et donne de
meilleurs résultats pour un faible rapport signal/bruit, mais il élimine moins bien les échos de sol
que le système TFR.
À l’heure actuelle, plusieurs techniques de polarisation radar sont d’usage courant. L’une
consiste à émettre une onde à polarisation circulaire et à mesurer les puissances des polarisations
copolaires et orthogonales. L’autre consiste à émettre alternativement ou simultanément des
impulsions à polarisation horizontale (H) et verticale (V) au moyen d’un commutateur à haute
puissance. Ce commutateur n’est pas nécessaire sur les radars à polarisation simultanée H et
V. Il demeure très complexe de démêler les caractéristiques microphysiques des échos et la
fabrication de systèmes à polarisation circulaire de grande qualité peut se révéler plus onéreuse.
On préfère généralement le système linéaire du fait que l’estimation de valeurs météorologiques
demande moins de calculs et qu’il est plus facile de transformer des radars classiques pour leur
ajouter une double polarisation. Si ce n’est dans quelques situations, le commutateur à haute
puissance a posé des problèmes dans le cas de la polarisation alternée, si bien que le système
de transmission et réception à double polarisation simultanée est d’usage courant sur les radars
opérationnels.
En général, la technique de la polarisation repose sur d’infimes différences dans les particules
diffusantes. Lorsqu’elles tombent librement dans l’atmosphère, les gouttes de pluie prennent la
forme d’ellipses dont l’axe principal est orienté selon le plan horizontal. Le degré d’aplatissement
des gouttes est fonction de leur taille. Si l’on admet la diffusion de Rayleigh comme postulat, la
puissance du signal rétrodiffusé par un sphéroïde aplati est plus élevée dans le cas d’une onde à
polarisation horizontale que dans celui d’une onde à polarisation verticale. C’est aussi le cas pour
d’autres cibles, notamment les insectes, les oiseaux et des cibles au sol.
Le tableau 7.2 donne une liste des paramètres de la diversité de polarisation les plus utilisés.
La réflectivité différentielle Z DR est égale à dix fois le logarithme du rapport entre la réflectivité
de polarisation horizontale Z H et la réflectivité de polarisation verticale Z V. Il semble qu’en
comparant la réflectivité équivalente Ze et la réflectivité différentielle Z DR, on puisse déterminer si
la cible se compose de grêle, de pluie, de bruine ou de neige (Seliga et Bringi, 1976).
Les corrélations établies à partir des données des séries chronologiques pour les plans vertical
et horizontal fournissent une mesure statistique de la différence de diffusion des hydrométéores
dans les plans vertical et horizontal. Comme la pluie et la neige montrent de grandes similitudes
d’un point de vue statistique, alors qu’à l’échelle des particules leurs caractéristiques de
diffusion sont tout à fait différentes, il importe de bien noter qu’il s’agit d’une mesure statistique.
804 PARTIE II. SYSTÈMES D’OBSERVATION
Bebbington (1992) a défini, pour les radars à polarisation circulaire, un paramètre appelé degré
de polarisation, qui se révèle insensible aux effets de la propagation (la corrélation linéaire y est
également insensible). Ce paramètre est à rapprocher de la corrélation linéaire utilisée pour les
radars à polarisation linéaire. Il semble être intéressant pour la discrimination des cibles. Des
valeurs extrêmement faibles indiquent par exemple la présence de milieux diffusants ayant une
orientation aléatoire tels que des brins d’herbe en suspension dans l’air ou des échos de sol (Holt
et al., 1993).
Le radar détecte l’onde électromagnétique que lui renvoie la cible. Cette onde est en fait
la résultante de toutes les ondes diffusées par les cibles se trouvant dans le volume sondé.
En mathématique, une onde est déterminée par une amplitude et une phase ou, de façon
équivalente, en nombres complexes, elle se caractérise par les parties réelles ou imaginaires d’un
phaseur. On appelle aussi ces paramètres les signaux en phase (I) ou en quadrature (Q). L’onde
est mesurée à plusieurs reprises et les résultats obtenus constituent une série chronologique
d’échantillons I, Q. En appliquant à ces données une transformée de Fourier, on obtient
l’amplitude des coefficients de Fourier qui constitue le spectre Doppler. Ce spectre Doppler
est une représentation de l’autocorrélation des séries chronologiques I, Q dans l’intervalle de
fréquences (Wiener, 1964). Plus les échantillons temporels sont nombreux, meilleure est la
résolution dans le domaine des fréquences. Qu’il s’agisse du domaine temporel ou du domaine
fréquentiel, le traitement est équivalent. La figure 7.6 fournit une représentation d’un spectre
Doppler type, ce qui est utile pour établir les caractéristiques des divers aspects que l’information
peut revêtir dans le volume sondé par un radar. Le niveau de bruit (intégré sur l’ensemble du
spectre) représente le niveau de bruit minimal ou le signal minimum détecté dans la cellule du
volume de résolution. Le pic observé à une fréquence ou une vitesse zéro correspond à des échos
stationnaires ou à des échos de sol. La large courbe élevée correspond à la cible météorologique.
Il faut noter que le déplacement de l’antenne, une mauvaise stabilité de phase du système
radar ou un trop petit nombre d’échantillons tendent à élargir le pic de vitesse zéro. La largeur
du spectre correspondant aux échos de sol est en général inférieure à la largeur du spectre des
échos des hydrométéores. La surface située sous l’écho météo et au‑dessus du niveau de bruit
correspond à la puissance de l’écho météo. La surface située sous le spectre des échos de sol
correspond à la puissance renvoyée par ces échos.
Les échos parasites peuvent avoir pour origine divers types d’objets: bâtiments, collines,
montagnes, avions et paillettes, notamment. Le choix de l’emplacement d’un radar est le premier
moyen de réduire les échos de sol qui forment une grande part des échos parasites. Cependant,
il est impossible de les éliminer complètement puisque les côtés du faisceau principal et les
lobes secondaires interagissent avec le relief dans le voisinage du radar (figure 7.8). Le faisceau
radar n’étant pas parfaitement conique, il rayonne dans toutes les directions, mais la puissance
maximale est émise dans l’axe de visée. La largeur du faisceau est souvent définie comme étant
la largeur angulaire à demi‑puissance (–3 dB par rapport à la puissance émise dans l’axe de
visée). La forme du diagramme de rayonnement est déterminée par la géométrie du cornet
d’alimentation, par sa distance par rapport au foyer de la parabole, par la parabole et par les
montants du cornet d’alimentation. La hauteur du premier lobe secondaire (indiqué) est plus
ou moins déterminée par ces facteurs et souvent utilisée comme indication de la qualité d’une
antenne. Le fait de déplacer le cornet d’alimentation pour réduire ou modifier le gisement de ce
lobe secondaire se traduit soit par un élargissement du faisceau principal soit par une perte de
puissance.
L’intensité des échos de sol est inversement proportionnelle à la longueur d’onde (Skolnik,
1970, 1990), alors que l’énergie rétrodiffusée par la pluie est inversement proportionnelle à la
puissance quatre de la longueur d’onde. C’est pourquoi un radar est d’autant moins sensible
aux échos de sol que sa longueur d’onde est courte. Il y aurait lieu d’éliminer les échos de sol
pour évaluer les précipitations, mais ces échos parasites peuvent servir à la mesure de l’humidité
(Fabry, 2004). Il y a moyen de faire disparaître des objets ponctuels tels que les avions, s’ils sont
isolés, en supprimant l’écho qui occupe un seul volume de résolution radar. Les objets ponctuels
peuvent être éliminés pendant la phase de traitement des données. En revanche, il est impossible
d’éliminer par cette technique dépendant de leur puissance relative, les objets ponctuels tels que
les échos d’avions qui sont inclus dans des échos de précipitations.
Pour éliminer les échos de sol, une idée intéressante sur le plan théorique consiste à faire appel à
des cartes d’échos fixes. On produit une telle carte à partir du tracé des échos radar en l’absence
de précipitations, puis on la soustrait du tracé obtenu en présence de précipitations. Le problème
que pose cette technique est que le tracé des échos de sol change avec le temps. Ce changement
est imputable essentiellement à l’évolution des conditions météorologiques. Un exemple
caractéristique est celui des échos dus à une propagation anormale, qui durent quelques heures
Lobe principal
–10 Côté du lobe principal
Renflement du lobe principal
–20
Premier lobe secondaire
Rayonnement
de débordement
–30 Autres lobes mineurs
Lobe arrière
–40
–50
–10 0 20 40 60 80 100 120 140 160 180
Éloignement par rapport à l’axe (degrés)
puis disparaissent. D’infimes modifications subies par le milieu ambiant se traduisent par de
légères fluctuations dans le tracé des échos de sol qui rendent confuse l’utilisation des cartes
d’échos fixes. On s’efforce, grâce à des techniques adaptatives (Joss et Lee, 1993), de déterminer
les cartes d’échos fixes de façon dynamique pour pouvoir tenir compte des fluctuations à court
terme, mais ces techniques ne sont pas assez précises pour qu’on puisse s’en servir de façon
exclusive, pour autant qu’on puisse les utiliser.
Dans les techniques de traitement Doppler, on tente d’éliminer les échos de sol présents dans
les échos météorologiques par traitement du signal. Selon l’hypothèse retenue, les échos de
sol ont une faible largeur spectrale et ces échos sont stationnaires. Cependant, pour respecter
ces critères, il faut avoir recueilli et traité un nombre suffisant d’impulsions pour obtenir une
résolution spectrale telle qu’il soit possible de distinguer les échos météorologiques de ceux
du sol. Il faut également disposer d’un intervalle de Nyquist relativement large pour pouvoir
visualiser les échos météorologiques (voir la figure 7.6). En général, la largeur spectrale des
échos de sol est nettement inférieure à 0,5 m s–1, tandis que la largeur spectrale de l’écho
météorologique est supérieure à 1 m s–1, ce qui nécessite un intervalle de Nyquist d’environ
8 m s–1. Les échos de sol, généralement stationnaires, sont identifiables dans le spectre grâce à un
pic étroit de vitesse nulle (figure 7.6). Ce pic présente une certaine largeur du fait que les objets
qui donnent naissance aux échos de sol, tels que des arbres en oscillation, sont animés d’un
certain mouvement.
Le traitement des données temporelles visant à éliminer la composante vitesse nulle d’une
séquence limitée est réalisé à l’aide d’un filtre passe‑haut numérique. Les paramètres du filtre
numérique doivent être fixés pour correspondre aux ondes indésirables, mais pour l’ensemble
du domaine de balayage, ce qui entraîne inévitablement des discordances, compte tenu des
variations des échos de sol (Zrnić et Hamidi, 1981). Un traitement adapté du spectre (transformée
de Fourier) permet de déterminer les échos de sol de manière heuristique et d’extraire la
puissance des signaux correspondant aux échos de sol de la puissance totale du signal de retour.
Ainsi est‑il possible d’éliminer les échos de sol présents dans des échos météorologiques, même
si ces échos se chevauchent (Passarelli et al., 1981; Crozier et al., 1991; figure 7.7). Il peut se révéler
difficile de séparer les échos météorologiques des échos de sol quand les échos météorologiques
sont étroits (en cas de neige légère par exemple) et que la vitesse Doppler moyenne est
proche de zéro. Dans cette situation, il est possible d’éliminer une trop grande partie de l’écho
météorologique. Lorsque le spectre de l’écho météorologique est étroit, notamment pour la
neige ou la bruine, le filtre coupe‑bande ne peut établir de distinction entre les hydrométéores
et les échos de sol. C’est le cas en particulier quand l’antenne tourne rapidement, ce qui élargit
le spectre des échos de sol, et quand la vitesse radiale moyenne des hydrométéores est proche
de zéro. Une partie trop importante de la puissance du signal est éliminée, ce qui entraîne une
dépression anormale de la réflectivité (figure 7.9, image de gauche). Dans la figure 7.9, la flèche
indique l’endroit où la dépression de l’écho correspond à la ligne zéro dans la représentation de
la vitesse radiale (image de droite). Il s’agit là d’un inconvénient mineur de l’emploi d’un filtre
coupe‑bande en mode Doppler.
On observe des améliorations dans le domaine portant sur les techniques visant à détecter les
échos parasites (traitement adaptatif du modèle de Gausse) ainsi que sur les techniques qui
utilisent la texture des données (variance de la réflectivité) associée aux échos parasites avant
d’appliquer des filtres destinés à éliminer ces échos (Hubbert et al., 2009a; Hubbert et al, 2009b).
Les systèmes ne fonctionnant pas en mode Doppler pourraient faire appel à ce dernier type de
technique pour éliminer les échos de sol et ceux correspondant à une propagation anormale.
Une autre solution consistant à éliminer les plus petits échos parasites tire profit du fait que les
structures à l’origine des échos de sol sont d’échelle très réduite (inférieure à 100 m environ).
L’échantillonnage en fonction de la distance se fait avec une résolution très fine (inférieure
à 100 m) et les échos de sol sont décelés en utilisant la réflectivité et le signal Doppler. Une
moyenne sur des plages de distances (pour une résolution finale de 1 km) est réalisée pour les
signaux non perturbés par des échos de sol. Le but est de détecter et d’ignorer les mesures
impactées par les échos de sol plutôt que de les traiter (Joss et Lee, 1993; Lee et al., 1995). Une
telle technique est radicalement différente de celles que nous avons abordées jusqu’ici. Il reste à
voir si elle est efficace dans tous les cas et notamment dans les cas de propagation anormale, où
les échos de sol sont étendus.
CHAPITRE 7. MESURES RADAR 807
Figure 7.9. Un filtre coupe-bande en mode Doppler risque d'éliminer une trop grande partie
de l’écho quand le spectre Doppler de l’écho des hydrométéores est étroit et que la vitesse
Doppler est proche de zéro (voir la flèche). Ce problème reste mineur par rapport à d’autres
artéfacts indiqués à la figure 7.2.
Les radars à double polarisation sont aussi en mesure de détecter les échos de sol, puisque les
caractéristiques polarimétriques de ces échos diffèrent de celles des précipitations. Ils peuvent
aussi détecter d’autres types de cibles parasites.
Il est possible de réduire les échos de sol en choisissant soigneusement le site d’un radar (voir
la section qui suit). Les radars utilisés pour une surveillance à longue portée, par exemple pour
suivre les cyclones tropicaux ou dans un réseau très dispersé, sont généralement installés sur
le sommet de collines, ce qui permet d’en accroître la portée utile, mais au risque de capter de
nombreux échos de sol. Une technique simple d’élimination de ces échos consiste à procéder
à un balayage automatique suivant plusieurs angles de site et à supprimer les données
correspondant aux faibles distances à basse altitude, où se concentre la plus grande partie
des échos de sol. En traitant les données radar pour élaborer des produits CAPPI (indicateur
panoramique à altitude constante), on rejette automatiquement les données de faible altitude
aux courtes distances (Marshall et Ballantyne, 1978). La figure 7.4 montre une séquence de
balayage géométrique proposée par Marshall et Ballantyne (1978) qui permet de façon optimale
d’établir des produits à altitude constante (CAPPI et sommet des échos).
Il faut en général entre 20 et 30 échantillons environ pour obtenir une évaluation de la vitesse qui
offre une bonne stabilité statistique. Comme ils doivent être corrélés, ces échantillons doivent
être recueillis rapidement. Par comparaison avec la réflectivité, il faut noter que ce nombre
d’échantillons requis est moins élevé et qu’il est donc possible, en théorie, d’évaluer une vitesse
suivant des rapports signal/bruit inférieurs et sur une durée plus courte.
Pour détecter des cibles se trouvant à diverses distances d’un radar, on devrait échantillonner
périodiquement les signaux renvoyés, en général toutes les microsecondes, afin d’obtenir
des informations sur des points situés tous les 150 mètres environ. Cet échantillonnage peut
se poursuivre jusqu’au moment d’émettre l’impulsion suivante (une impulsion toutes les
millisecondes environ). Un point échantillonné dans le temps (correspondant à une distance
808 PARTIE II. SYSTÈMES D’OBSERVATION
par rapport au radar) prend le nom de «porte (en) distance» ou «porte radar». L’intervalle
entre les émissions d’impulsions détermine la portée maximale non ambiguë. La longueur
d’onde associée à l’intervalle de transmission détermine la vitesse maximale non ambiguë.
Dans le cas des longueurs d’onde employées par les radars météorologiques et des scénarios
météorologiques, ces maximums sont en conflit: augmenter la valeur de l’un revient à réduire
celle de l’autre. Il s’agit du dilemme Doppler schématisé à la figure 7.5. L’utilisation des radars
Doppler à impulsions pose donc un problème fondamental: celui qui consiste à atténuer les
incidences des contraintes en matière de portée et de vitesse.
Pour atténuer la contrainte portant sur la vitesse ou lever l’ambiguïté vitesse, on fait
communément appel à des techniques de multiples PRF (Doviak et Zrnić, 1993; Crozier et al.,
1991) ou à des techniques de continuité (Eilts et Smith, 1990). Dans les premières, on recueille
les valeurs estimées de la vitesse radiale pour au moins deux PRF distinctes avec des vitesses
maximales non ambiguës différentes, que l’on combine pour obtenir une nouvelle évaluation de
la vitesse radiale pour une vitesse non ambiguë plus élevée. Dans le cas d’un radar fonctionnant
en bande C, la vitesse nominale non ambiguë est par exemple de 16 m s–1 pour une PRF de
1 200 Hz et de 12 m s–1 pour une PRF de 900 Hz. On peut déduire l’étendue du repliement par
la différence entre les deux vitesses estimées pour lever cette ambiguïté jusqu’à une vitesse de
Nyquist comprise entre –48 et +48 m s–1. La figure 7.10 indique comment la technique de la
double PRF permet d’élargir l’intervalle des vitesses non ambiguës. Le diagramme supérieur
indique ce que le radar Doppler peut mesurer par rapport à une vitesse radiale réelle comprise
entre –48 et +48 m s–1. Dans cet exemple, le rapport des PRF est égal à 4/3, mais on peut aussi
utiliser d’autres rapports, tels 7/5 ou 3/2. Le diagramme inférieur fait apparaître la différence
entre les vitesses Doppler mesurées en fonction de la vitesse radiale réelle. Le résultat de
cette différence (nombre de repliement) sert à extraire des mesures la vitesse réelle. Le seuil
d’extraction possible est déterminé par les vitesses non ambiguës de Nyquist et leur rapport. Il
s’agit de la vitesse haute de Nyquist, qui est égale dans ce cas à 48 m s–1. La figure 7.11 fournit un
exemple de résultat obtenu grâce à cette technique.
Les rapports des PRF combinées communément utilisés sont les suivants: 5/4, 4/3 ou 3/2. Le plus
souvent la vitesse maximale non ambiguë est égale à 16 m s‑1, mais cela n’est pas une obligation.
16
Vitesse «repliée» (m/s)
1 200 PRF
0
900 PRF
–16
32
Différence des vitesses «repliées» (m/s)
16
–16
8 m/s
–32
–48 –32 –16 0 16 32 48
Vitesse réelle (m/s)
Figure 7.10. Voici l’exemple d’un radar en bande C pour lequel aux impulsions émises à 900 et
1 200 s-1 correspondent respectivement des vitesses de Nyquist non ambiguës de 12 et
16 m s-1. Selon cette technique, le résultat (en abscisse, diagramme inférieur) de la différence
entre les vitesses radiales «mesurées» (en ordonnée, diagramme inférieur) permet de calculer
la vitesse radiale réelle à partir de la vitesse radiale mesurée correspondante.
CHAPITRE 7. MESURES RADAR 809
Figure 7.11. Ces images montrent la capacité d’un radar en bande C d’étendre la mesure des
vitesses jusqu’à une valeur d’au moins 48 m s-1, ce qui peut se révéler nécessaire. Il s’agit ici du
passage d’un ouragan devenant extratropical, les vitesses atteintes étant proches de 48 m s-1.
Dans cette situation, les hypothèses de la technique de la double PRF sont satisfaites (les deux
estimations mesurées à des PRF différentes s’appliquent à une même vitesse radiale) et le
résultat comporte peu de bruit (image de droite à comparer à la figure 7.20).
Des valeurs plus basses de cette vitesse permettent des portées maximales plus élevées. Au sujet
de l’emploi des différents rapports, la distinction réside dans le fait que la variance de la vitesse
moyenne entraîne une violation de l’hypothèse d’uniformité de la vitesse et par conséquent des
erreurs de double PRF (Joe et May, 2003).
L’emploi des techniques de continuité repose sur l’existence d’un écho suffisant pour discerner la
présence de vitesses repliées et pour les corriger en supposant la continuité de vitesse (aucune
discontinuité au‑dessus de 2Vmax). Le nombre de repliements est déterminé à partir de la ligne
zéro et à chaque fois qu’un intervalle de Nyquist présente une discontinuité. Selon que le nombre
de repliements augmente ou diminue, l’intervalle de Nyquist s’ajoute ou se soustrait.
L’utilisation de PRF élevées (supérieures à 1 000 Hz environ) impose une limitation de la portée,
ce qui représente un deuxième problème fondamental. Au‑delà de la portée maximale, le
repliement spectral ramène les échos en deçà de cette portée. Dans le cas de radars équipés
d’émetteurs cohérents (par exemple à klystron ou à semi‑conducteurs), tous les échos
apparaissent dans les limites de la portée primaire. Dans le cas de systèmes à réception
cohérente, les échos de second retour apparaissent sous forme de bruit (Joe et al., 1995;
Passarelli et al., 1981; figure 7.12), résultant d’une transmission aléatoire de différentes phases.
Qu’il s’agisse de systèmes cohérents à la réception (magnétron) ou à la transmission (klystron),
les radars Doppler dont la portée de Nyquist est faible fournissent des données contaminées
par les échos de second retour. Dans la figure 7.12, les échos de second retour détectés par un
radar à magnétron en bande C s’affichent sous la forme de coins (flèches noires), en mesure de
réflectivité, ce qui permet d’en déceler la présence. Dans le champ des vitesses radiales, du bruit
apparaît (flèches jaunes), dont le niveau est élevé puisque son spectre Doppler est très large, ce
qui permet de l’éliminer à l’étape du traitement du signal. Dans le cas d’un radar à klystron, le
champ de vitesses radiales montrerait des données cohérentes.
Des techniques de codage de phase ont été mises au point pour que les radars Doppler
cohérents soient en mesure de reconnaître les échos de second retour. Il est ainsi possible de
procéder à un traitement de phase aléatoire dont le principe consiste à prendre comme référence
l’impulsion qui vient d’être émise pour évaluer les échos de premier retour et l’impulsion
précédente pour évaluer les échos de second retour. Cette méthode est efficace si le radar
dispose d’une bonne sensibilité, ce qui permet d’établir une distinction entre la puissance des
signaux de second retour et le niveau de bruit, et si la stabilité de phase est bonne, pour qu’il soit
possible d’extraire la phase et donc la vitesse sur des portées relativement grandes. Les émetteurs
cohérents peuvent procéder à un codage de phase suivant une séquence pseudo‑aléatoire. Une
810 PARTIE II. SYSTÈMES D’OBSERVATION
Figure 7.12. Exemple d’échos de second retour en réflectivité (à gauche) et en vitesse radiale
(à droite), détectés par un radar à magnétron
solution encore meilleure consiste à adopter une modulation de phase connue pour établir une
distinction précise entre les signaux de premier et de second retour. Frush et al. (2002) ont mis au
point cette technique pour des systèmes à klystron.
Dans le cas d’un système à réception cohérente (par exemple magnétron), la variation de phase
est implicitement aléatoire. Dans le cas d’un système cohérent en transmission (par exemple
klystron), une variation de phase bien définie est imposée par un modulateur. À titre d’exemple,
le système radar WSR‑88D utilisé aux États‑Unis d’Amérique a recours à une modulation de
phase SZ‑2. Les deux exemples de la figure 7.13 (a‑d, e‑h) font apparaître les avantages, mais
aussi les limites de la technique de variation aléatoire de la phase. Les images 7.13(a) et 7.13(e)
sont prises avec une PRF faible et représentent la «réalité». Les images 7.13(b) et 7.13(f) sont
obtenues grâce à la technique de variation aléatoire de la phase. La limite entre les échos de
premier retour et les échos de second retour est indiquée par la flèche blanche. La zone aveugle
correspond à l’intervalle de temps pendant lequel le récepteur est hors service à chaque émission
d’impulsion. Sur les images 7.13(a) à 7.13(d), la ligne de grains n’a pas atteint le radar. Les échos
des cibles proches du radar sont faibles par rapport à ceux provenant de cibles éloignées. La
technique est adaptée à ce type de situation, puisque la plupart des échos de second retour
sont reconnus (comparer 7.13(a) à 7.13(b)). Sur les images 7.13(e) à 7.13(h), les précipitations
ont atteint le radar si bien que des échos relativement forts proviennent aussi de cibles peu
éloignées. La technique fonctionne alors moins bien, puisque, pour une part importante, les
échos de second retour ne sont plus reconnus (comparer 7.13(e) à 7.13(f)). Suivant l’application
de la technique en question, les données ne correspondent qu’à une PRF simple et la vitesse
de Nyquist est de 16 m s–1 (images 7.13(c) et 7.13(g)). Les données pour une double PRF avec
une vitesse haute de Nyquist atteignant 48 m s–1 apparaissent sur les images 7.13(d) et 7.13(h).
Bien qu’un repliement spectral fausse les données correspondant à une PRF simple, un analyste
qualifié peut interpréter le résultat et en tirer une information utile. Il est par exemple possible
d’observer une extrémité en forme de tourbillon sur l’image 7.13(c) (flèches blanche et noire). Les
images correspondantes dans le champ de réflectivité sont les parties internes (premier retour)
des images 7.13(b) et 7.13(f). Le traitement de phase aléatoire présente un aspect important: la
qualité des données correspondant aux échos de premier retour est relativement élevée, car les
incidences des échos de second retour sont filtrées.
Une technique plus ancienne utilise un balayage de veille de faible PRF pour déterminer
l’emplacement des échos dans le champ de la réflectivité. Quand viennent se superposer à ce
balayage d’autres échos obtenus en mode Doppler de portée plus faible, la puissance et la vitesse
des échos sont attribuées aux zones de puissance relativement élevée (figure 7.14). Pour que cela
fonctionne, la différence de puissance doit être bien marquée (> 5 dB). Un balayage de veille à
grande portée sert à localiser les échos dans le champ de la réflectivité. Un balayage Doppler de
faible portée sert à mesurer la vitesse Doppler ou radiale. La vitesse radiale est attribuée à l’écho
ayant la plus grande puissance dans le champ de la réflectivité. Si les différences de puissance
CHAPITRE 7. MESURES RADAR 811
sont inférieures à 5 dB, la technique donne des résultats médiocres et la vitesse radiale n’est pas
estimée, elle porte l’indication «distance repliée». C’est la partie blanche des échos que présente
la figure 7.14. Selon les palettes de couleurs employées, ce type d’écho est teinté en violet.
Un radar est un système d’observation hautement efficace. Toutefois, l’efficacité d’un radar ou
d’un système radar quel qu’il soit repose sur les facteurs déterminants que sont l’utilisation
spécifique visée, le climat et l’environnement (occultation) du site ou encore la configuration
du réseau. Tout est affaire de compromis en matière de radar. Il n’existe pas de radar ayant une
efficacité maximale pour toutes les applications. Un radar météorologique ne pouvant satisfaire
toutes les applications (comparativement à un radar de veille à longue portée), il y a lieu d’en
sélectionner les caractéristiques pour qu’il soit le plus performant possible dans un petit nombre
de domaines, telle la détection des tornades ou celle des grains de neige par exemple. Le coût est
un élément important à prendre en compte. L’interdépendance de la plupart des caractéristiques
se résume en grande partie par l’équation radar.
La configuration du réseau radar et ses applications sont des éléments auxquels il convient
d’accorder de l’importance. L’installation d’un réseau de radars en bande X convient à certains
types d’applications d’échelle locale, quand la portée exigée est de l’ordre de 50 km au plus
et qu’il est essentiel de disposer d’une couverture à basse altitude. C’est le cas par exemple
pour la détection des grains de neige, des tornades ou des microrafales descendantes ou
alors pour l’observation en terrain de nature complexe (zone montagneuse), pour des besoins
hydrologiques en zone urbaine ou encore peut‑être pour une atténuation des effets des
éoliennes. À l’origine, on se proposait d’installer de tels réseaux pour assurer une détection
adaptative de l’atmosphère destinée à de multiples applications, de la veille météorologique
au contrôle de la circulation aérienne. Ce type de projet est devenu réalité grâce aux antennes
réseau à commande de phase que caractérisent l’agilité de pointage et la possibilité d’un
balayage en mode coopératif (McLaughlin et al., 2009). Les faibles exigences en matière
a b e f
c d g h
Figure 7.14. Sans qu’il soit procédé à un traitement élaboré du signal dont la phase est codée,
les techniques fondées sur une PRF multiple sont utilisées pour récupérer les signaux de
second retour. Les balayages de faible PRF et de grande portée servent à localiser les échos
dans le champ de la réflectivité. Les balayages de PRF élevée mais de faible portée servent à
mesurer la vitesse radiale. La vitesse radiale est attribuée à la cellule du volume de résolution
présentant la plus grande puissance.
Plus la longueur d’onde est importante, plus le coût du système radar est élevé, et
particulièrement le coût de l’antenne pour une ouverture angulaire (c’est‑à‑dire une résolution)
comparable. Ce coût est dû à l’importance du matériel mis en œuvre, mais aussi à la difficulté
croissante à respecter les tolérances pour de grandes tailles. Dans le cas des bandes utilisées
pour les radars météorologiques (S, C et X), la sensibilité ou capacité de détection du radar est
en grande partie fonction de la longueur d’onde. D’un point de vue pragmatique, la puissance
de transmission permet cependant d’atténuer cette relation de dépendance. La sensibilité du
radar dépend aussi du diamètre de l’antenne, qui influe sur le gain, de l’ouverture angulaire et du
remplissage du faisceau. Des radars de faible longueur d’onde (35 GHz et 94 GHz) apparaissent
maintenant sur le marché. Ils visent des applications telles que la détection du brouillard ou des
nuages ou peuvent être utilisés à partir de plates‑formes spatiales pour mesurer les nuages et les
précipitations (par exemple, mission pour la mesure des pluies tropicales (TRMM); mesure des
précipitations à l’échelle du globe (GPM); CloudSat; et exploration des nuages, des aérosols et
du rayonnement terrestres (EarthCARE)).
Au sein d’un réseau de radars, la portée Doppler a une incidence importante sur le choix de
la longueur d’onde. Pour une même vitesse de Nyquist, un radar en bande S disposera d’une
portée de Nyquist deux fois supérieure à celle d’un radar en bande C, ce qui a une incidence
marquée sur la couverture non ambiguë. Viennent cependant atténuer cette relation les
techniques permettant d’augmenter la portée et la vitesse maximales mesurées, dont il est
question ci‑dessus.
C’est en cas de pluie que l’atténuation des rayons radar est la plus importante. Elle est moindre
en cas de neige ou de glace, et encore moindre si ces rayons traversent des nuages ou des gaz
atmosphériques. En gros, l’atténuation en bande S est relativement faible et généralement assez
peu significative. Malgré leur coût, les radars en bande S sont essentiels pour pénétrer des cibles
de très haute réflectivité dans les latitudes moyennes et subtropicales en cas d’orages violents
accompagnés de grêle humide. Pour les radars fonctionnant en bande X, l’atténuation est parfois
importante à courte distance.
CHAPITRE 7. MESURES RADAR 813
Le gros inconvénient d’une faible longueur d’onde, c’est l’atténuation considérable du faisceau
radar. Il reste à voir si les techniques de double polarisation K DP compensent l’atténuation jusqu’à
ce qu’une atténuation totale se produise (situation très peu fréquente) et s’il est justifié d’ignorer
le phénomène d’atténuation dans la bande S. Si les techniques K DP parviennent à fournir une
meilleure évaluation des précipitations que les techniques fondées sur la réflectivité, une
longueur d’onde relativement courte apportant un gain de sensibilité à l’atténuation pourrait
apporter aussi un gain d’efficacité.
Avec des radars en bande C et en bande X, il est possible de perdre totalement le signal, en
particulier lorsque le radôme est mouillé. On pourrait penser que cela risquerait d’avoir des
conséquences désastreuses. Il faut avant tout se demander cependant si, en raison d’une perte
de signal (en général durant quelques dizaines de minutes au passage d’un orage), on risque
d’omettre de publier un avis important de temps violent ou de crue soudaine. L’expérience
montre que dans un tel cas, les avis en question auront déjà été publiés et que la perte d’un ou
deux groupes de données destinés à des fins hydrologiques n’est pas une catastrophe.
On emploie couramment des magnétrons et des klystrons comme sources de puissance. Les
magnétrons sont moins chers, mais ce sont des oscillateurs de puissance et ils sont moins stables
en fréquence. De nombreux radars Doppler sont aujourd’hui équipés de magnétrons. Grâce
aux magnétrons coaxiaux et au numérique, le bruit de phase de tels systèmes peut se comparer
à celui des systèmes à klystron. Une réduction du bruit de phase se traduit par une meilleure
capacité d'élimination des échos parasites (figure 7.15). Un bruit de phase inférieur à 0,5°
correspond au niveau de performance minimal d’un radar moderne. Pour les longueurs d’onde
normalement utilisées, les radars classiques devraient détecter des précipitations ayant une
intensité de l’ordre de 0,1 mm h–1 à 200 km et posséder une puissance de crête d’émission de
l’ordre de 250 kW au moins en bande C et de 1 000 kW au moins en bande S.
La durée d’impulsion d’un radar détermine son pouvoir de résolution en portée. La résolution
en portée ou capacité d’un radar de détecter deux cibles distinctes est proportionnelle à la
demi‑longueur des impulsions dans l’espace. Pour la plupart des klystrons et des magnétrons,
le rapport maximal entre largeur d’impulsion et PRF est d’environ 0,001. La durée d’impulsion
se situe généralement entre 0,3 et 4 µs. Une durée d’impulsion de 2 µs donne un pouvoir de
résolution de 300 m et une durée d’impulsion de 0,5 µs, un pouvoir de résolution de 75 m.
814 PARTIE II. SYSTÈMES D’OBSERVATION
50
30
20
10
0
0 1 2 3 4 5 6
Bruit (degrés)
Figure 7.15. La cohérence (bruit de phase) est une mesure de la qualité d’un radar Doppler;
elle est directement liée à la capacité d’éliminer les échos de sol et à celle d’extraire les échos
de second retour à l’aide des techniques de codage de phase.
En supposant que la cible remplit complètement le volume de résolution radar, si l’on double
la durée d’impulsion, on augmente la sensibilité du radar de 6 dB (filtrage adapté) tout en
réduisant la résolution. En raccourcissant la durée d’impulsion, on diminue la sensibilité du
radar tout en augmentant sa résolution. Une durée d’impulsion plus courte permet de saisir des
échantillons plus indépendants de la cible selon la distance au radar et d’accroître l’exactitude
des mesures.
La PRF devrait être aussi élevée que possible pour qu’on puisse obtenir un maximum de
mesures de la cible par unité de temps. La principale raison de limiter la PRF est le risque de
détection indésirable d’échos de second retour. La plupart des radars qui mesurent uniquement
la réflectivité ont une portée maximale non ambiguë supérieure à la portée utile pour des
observations météorologiques. Un facteur important de limitation de la portée utile pour les
cibles météorologiques est la hauteur considérable du faisceau au‑dessus du sol, même pour une
portée de 250 km.
Dans le cas des radars Doppler, on fait appel à une PRF élevée (~1200 s‑1) pour augmenter la
vitesse Doppler maximale mesurable sans ambiguïté, d’où le dilemme Doppler qui impose de
trouver un compromis entre la portée maximale et la vitesse maximale mesurable. Le facteur
PRF n’a pas d’incidence sensible sur le coût, mais il a des conséquences importantes pour les
performances du système. En résumé, une PRF élevée est souhaitable pour accroître le nombre
d’échantillons mesurés, la vitesse Doppler maximale mesurable sans ambiguïté et la cadence de
balayage. Une faible PRF (~300 s‑1) est souhaitable pour accroître la distance maximale mesurable
sans ambiguïté et pour réduire le facteur de charge.
Habituellement, les radars météorologiques sont équipés d’une antenne à cornet avec
réflecteur parabolique pour produire un faisceau conique étroit. Trois facteurs importants
sont à considérer: l’ouverture angulaire (résolution angulaire), le gain de l’antenne et les lobes
secondaires. Dans le cas des radars météorologiques de type courant, le diamètre de l’antenne
est d’autant plus important que la longueur d’onde d’une ouverture angulaire fixe est élevée et
CHAPITRE 7. MESURES RADAR 815
que le faisceau doit être étroit. L’ouverture angulaire communément adoptée pour les antennes
des radars météorologiques est de 1°, même si cette valeur n’est basée sur aucun fondement en
particulier.
Les antennes réseau à commande de phase font l’objet de travaux de recherche et sont à présent
disponibles sur le marché en bande X à un prix abordable. Ces antennes se composent d’un
ensemble d’éléments radiants ayant chacun un déphaseur. Elles permettent d’adapter la stratégie
de balayage au type de cibles, de façon qu’il est possible en théorie de répondre aux exigences
quant à la rapidité du balayage ou à la grande qualité des données, mais cela reste à démontrer
en mode d’exploitation. Ces antennes pourraient se révéler particulièrement efficaces en
matière d'élimination des échos de sols. En effet, elles n’opèrent pas un réel balayage, mais elles
illuminent momentanément un axe de visée, de telle façon que les échos de sol ne produisent
pas d’étalement du faisceau.
Normalement, les radars météorologiques ont une largeur angulaire comprise entre 0,5 et 2,0°.
En bande C, le réflecteur a un diamètre d’au moins 7,1 m pour un faisceau de 0,5° et d’au moins
3,6 m pour un faisceau de 1,0°. En bande S, ce diamètre est de 14,3 et 7,2 m respectivement.
Le coût du système d’antenne et du socle augmente de façon presque exponentielle avec
l’envergure du réflecteur, également limitée pour des raisons techniques. En outre, il faut choisir
convenablement la tour pour qu’elle puisse supporter le poids de l’antenne.
Le choix d’un faisceau étroit pour obtenir une résolution maximale et accroître la probabilité
que le faisceau contienne entièrement les cibles est particulièrement critique pour les grandes
distances. Dans le cas d’un faisceau de 0,5°, l’ouverture azimutale (et verticale) du faisceau est
de 0,4 km pour une distance de 50 km, de 0,9 km pour 100 km et de 1,7 km pour 200 km. Dans le
cas d’un faisceau de 1,0°, cette ouverture est de 0,9, 1,7 et 3,5 km respectivement. Même pour ce
type de faisceaux relativement étroits, la largeur angulaire est très élevée à grande distance.
Par ailleurs, le gain de l’antenne est inversement proportionnel à l’ouverture angulaire: plus le
faisceau est étroit, plus le système est sensible proportionnellement au gain différentiel. Il faut,
pour obtenir une exactitude acceptable lors de la mesure de la réflectivité et des précipitations,
que la cible soit atteinte un nombre minimum de fois. C’est pourquoi la durée de passage du
faisceau sur une cible doit être suffisante en mode balayage rotatif, ce qui impose une limite à
la vitesse de rotation de l’antenne. On ne peut diminuer impunément la cadence de balayage.
Pour que des cibles réparties puissent être mesurées correctement, les particules doivent avoir
le temps de changer de position avant qu’une mesure indépendante puisse être effectuée. Les
radars météorologiques ont généralement une cadence de balayage de 0,5 à 6 tours par minute.
La plupart si ce n’est l’ensemble des radars opérationnels à double polarisation font appel
au mode de transmission STAR, qui assure une répartition égale de la puissance entre deux
polarisations linéaires orthogonales (en général horizontale et verticale). Il devient ainsi inutile de
disposer d’un commutateur de polarisation à haute puissance dont les pannes sont fréquentes.
7.6.7 Illumination
Les lobes secondaires sont une propriété inhérente de toute antenne. Les côtés du lobe principal
s’y apparentent. La largeur ou ouverture angulaire est souvent définie comme étant la largeur
816 PARTIE II. SYSTÈMES D’OBSERVATION
du faisceau principal à demi‑puissance, si bien qu’une faible quantité d’énergie est émise à
des distances angulaires s’éloignant de celle du faisceau principal. La géométrie du cornet
d’alimentation et ses montants sont en grande partie à l’origine des lobes secondaires. Il est
possible d’atténuer ces lobes en suréclairant la parabole, mais cela élargit le faisceau et diminue
la sensibilité du radar.
On trouvera dans le tableau 7.7 les caractéristiques des radars couramment utilisés pour des
applications météorologiques générales
Comme nous l’avons vu, les caractéristiques et les paramètres d’un radar sont interdépendants.
Les limites techniques des éléments des radars et la disponibilité d’éléments fabriqués en série
sont des considérations importantes quand il s’agit de concevoir un système radar.
Les radars de type «Z uniquement» sont les radars classiques non cohérents à impulsion, utilisés
depuis plusieurs dizaines d’années. Les radars Doppler s’imposent à présent en élargissant les
possibilités d’observation. Ils permettent notamment de mesurer la vitesse radiale. Des radars
Doppler spécialisés ont été mis au point de façon à améliorer la détection de microrafales et
de tornades à petite échelle sur des zones extrêmement limitées, et servent par exemple à la
protection des aérogares. Des radars à double polarisation sont mis en service, si bien qu’on
voit apparaître en exploitation (hydrologie, prévision numérique du temps ou étude des
changements climatiques) des applications portant sur la qualité des données, la classification
des cibles ou l’évaluation quantitative des précipitations.
Les sondages à longue portée, de 500 km ou plus (auxquels correspond une vitesse de Nyquist
limitée), servent à la veille à longue distance. Une mise à jour fréquente, environ toutes les cinq
minutes, est nécessaire pour visualiser l’évolution de la forme d’un orage convectif. Dans le
domaine de la navigation aérienne, la détection des microrafales descendantes exige un taux de
rafraîchissement plus rapide (Michelson et al., 1990). Les radars de recherche balaient des zones
ou des secteurs restreints suivant un cycle inférieur ou égal à la minute (Wurman et al., 1996). Il
faut aussi pouvoir procéder à des balayages lents à basse altitude suivant de grandes longueurs
d’onde pour obtenir les meilleurs résultats possible dans la détection des cibles par ciel clair.
Un balayage lent optimise le filtrage Doppler des échos de sol. Les techniques de PRF multiples
reposent sur l’hypothèse d’uniformité de la vitesse radiale et leur mise en œuvre peut varier avec
chaque raie d’émission ou chaque balayage.
CHAPITRE 7. MESURES RADAR 817
Type S S S S C C C C C X
Fréquence (GHz) 2 800–3 000 2 700–3 000 2 700– 2 700– 5 400–5 900 5 600–5 650 5 600–5 650 5 500–5 700 5 300–5 850 9 300–9 500
3 000 3 000
Longueur d’onde 10,7 10,7 10,7 10,7 5,3 5,3 5,3 5,3 5,3 3
(cm)
Puissance crête (kW) 475 850 750 20 500 1 000 250 250 12 75
par canal
Durée d’impulsion 1,57, 4,5 0,2–2,0 0,4–4,5 0,5–200 0,2–3,0 0,4–4,5 0,4–4,5 0,5–200 0,3–3,3
(µs)
PRF (/s) 318–1 403, 200– 250– 100– 200– 200– 250– 100– 250–
318–452 2 400 2 000 20 000 2 400 2 400 2 000 20 000 3 000
SMD (dBm) –113 –114 –114 –114 –114 –114 –114 –115 –114 –113
Diamètre de l’antenne 8,53 8,5 8,5 8,5 4,2 4,2 4,2 4,5 4,2 2,4
(m)
Polarisation horizontale STAR STAR STAR linéaire linéaire linéaire linéaire STAR linéaire
double double double double double
Type de transmetteur klystron magnétron klystron semi‑ magnétron klystron klystron magnétron semi‑ magnétron
coaxial conducteurs coaxial coaxial conducteurs coaxial
Élimination fouillis 50 46 55 55 46 46 55 55 55
818 PARTIE II. SYSTÈMES D’OBSERVATION
Des sondages d’un angle de site aussi bas que possible permettent d’obtenir une évaluation
quantitative optimale des précipitations ainsi qu’une détection optimale des phénomènes
météorologiques qui se produisent à faible altitude, dans la basse atmosphère. Pour élaborer
les meilleurs produits CAPPI et sommet des échos possible, il faut procéder à un sondage
suivant une séquence géométrique d’angles de site (Marshall et Ballantyne, 1978). L’entrée en
service de réseaux de radar en bande X à antenne réseau à commande de phase, tel le projet
CASA (Collaborative Adaptive Sensing of the Atmosphere – détection atmosphérique adaptative
et collaborative) ou le projet MPAR (Multi‑function Phased Array Radar – radar multifonction à
antenne réseau à commande de phase), révolutionne la notion de stratégie de sondage puisque
le balayage électronique peut s’adapter à la détection des conditions météorologiques ou à
d’autres applications (McLaughlin et al., 2009; Weber et al., 2007) ou que les données provenant
de radars situés dans le voisinage peuvent servir à pallier certaines faiblesses.
Il faut avant tout tenir compte de la nature des conditions atmosphériques et du lieu que le radar
doit couvrir. À titre d’exemple, la séquence de sondage d’un radar à faible portée situé dans une
vallée et servant à des applications locales sera ou pourrait être très différente de celle d’un radar
destiné à assurer une surveillance à longue distance des ouragans risquant d’atteindre des côtes
(Joe et al., 2014).
On pourrait penser qu’il convient de faire varier l’angle de site de la même valeur que la largeur
angulaire, mais il faut tenir compte du fait que les précipitations se présentent en strates (neige,
bande brillante, profils de pluie) et du profil du vent, si bien que de petites variations de l’angle
de site, aussi faibles que 0,1° peuvent permettre de bien mieux visualiser et interpréter les
données.
Les données polaires brutes obtenues sont stockées dans une base de données tridimensionnelle
(portée, azimut, site) ou multidimensionnelle (paramètres radar), qui sert de source au
traitement et à l‘archivage ultérieurs des données. Il peut exister plusieurs versions des données
brutes en fonction des différents processus utilisés pour contrôler la qualité des données.
Le signal minimum détectable (SMD) est une mesure de performance globale des éléments
réunis que sont la puissance de transmission, le diamètre de l’antenne, l’ouverture angulaire
ou le gain, la durée d’impulsion, la longueur d’onde et d’autres facteurs encore. Il est souvent
exprimé en unités de puissance ou en température de bruit du système. Pour un analyste radar,
la réflectivité à une distance fixe fournit cependant une mesure plus intuitive de la performance
d’un radar. Une grande sensibilité est hautement souhaitable pour détecter les échos de ciel clair
et les fines précipitations et pour extraire les échos de second retour. Le tableau 7.8 présente le
signal minimum détectable de certains radars performants.
CHAPITRE 7. MESURES RADAR 819
Stabilité de phase
La stabilité de phase ou l’inverse (instabilité ou gigue de phase) est une mesure de la variation
moyenne de la phase d’une impulsion à l’autre. Le logiciel de vérification de certains radars
fournit cette mesure à partir d’une ligne de retard acoustique ou de cibles externes. Se fonder
sur des cibles externes a pour avantage de vérifier la stabilité à différentes distances ou différents
retards temporels et la variation du processus complet. Une bonne stabilité de phase (< 0,5°)
permet d’obtenir de bons résultats en matière d’évaluation de la vitesse, d'élimination des échos
de sol et d’extraction des échos de second retour avec des systèmes à magnétron.
La corrélation de polarisation croisée ρHV donne une indication sur la qualité d’un radar à
double polarisation. Si le radar pointe vers une pluie faible ou de la bruine dont les gouttes sont
en général uniformément rondes, le coefficient de corrélation devrait être très proche de 1,0.
Les bons radars sont en mesure d’enregistrer des valeurs atteignant 0,995, voire mieux. Cela
témoigne de la bonne configuration et du bon fonctionnement de la double polarisation.
Si des sondages verticaux sont exécutés quand se produisent des conditions stratiformes,
les valeurs de la réflectivité différentielles Z DR devraient être nulles, sans varier en fonction de
l’azimut.
Les radars sont sans doute les instruments les plus complexes dont un Service météorologique
ou ses sous‑traitants doivent assurer l’entretien et les réparations, des opérations nécessitant un
niveau très élevé de qualification et de compétence. Il est essentiel qu’un radar soit entretenu
pour bien fonctionner durablement et qu’il soit étalonné pour fournir des données de qualité.
Il convient de suivre les instructions du fabricant pour l’étalonnage et l’entretien de tout radar.
Voici un aperçu de ces deux opérations.
7.7.1 Entretien
Un radar moderne, s’il est correctement installé et exploité, devrait rarement tomber en
panne. Certains fabricants prétendent à un temps moyen entre deux pannes de l’ordre d’un
an. Cependant, de telles affirmations sont souvent optimistes et il faut, pour atteindre une telle
moyenne, procéder à un entretien préventif systématique. Des opérations d’entretien courant
et un personnel technique suffisant sont nécessaires pour réduire le temps de réparation au
minimum. Les pannes mécaniques et électroniques sont les plus fréquentes (Sireci et al., 2010;
figure 7.16).
Radar SDM à 50 km
Z9110 –8,0 dBZ (quelques jours en août)
–10,0 dBZ (2 mois)
35
30
25
Nombre d’utilisateurs
20
15
10
0 e
ue ue n re nt es à ns ng l n es ce
s s
iq niq catio oud ura s sio ha cie atio ant en lien
ne
c a n
t r o n i F c o m
i
n e c o gi t i s i s s r
é
M Éle
c u e ou te r L a
im viei
ll rfé Éo
m
m ed s s tes de Cl te
Co a nn iècehau ces n s In
P P e è tio
d Pi
a lla
st
In
Figure 7.16. Résultats d’une enquête menée par l’OMM sur les radars météorologiques
fournissant une liste des principaux modes de défaillance d’un radar (Sireci et al., 2010);
diagramme reproduit avec l’aimable autorisation d’Oguzhan Sireci
(Service météorologique turc).
Il y a lieu de noter que des facteurs externes au radar peuvent entraîner une perte de données
pour les utilisateurs. Il s’agit notamment de pannes du réseau de distribution d’électricité ou de
la mauvaise qualité du courant fourni (trop de surtensions ou de fluctuations). Les pannes en
question peuvent être dues à la foudre ou à d’autres raisons. Il peut aussi survenir des pannes de
télécommunication. Les systèmes assurant la climatisation peuvent cesser de fonctionner, ce qui
entraîne la mise hors service des systèmes électroniques thermosensibles.
L’entretien préventif devrait inclure au moins un contrôle trimestriel de l’ensemble des pièces
susceptibles d’usure, telles qu’engrenages, moteurs, ventilateurs et infrastructure. Les résultats
de ces contrôles devraient être portés sur le livret de contrôle du radar par le personnel local
préposé à l’entretien et, le cas échéant, être communiqués au service central de l’entretien.
L’entretien de plusieurs radars peut justifier l’existence d’un service centralisé d’appui logistique
et d’un atelier de réparation. Ce dernier prend livraison des pièces défectueuses des radars,
les répare et les remet au service logistique, qui les stocke comme pièces de rechange à utiliser
selon les besoins. Il est indispensable de consigner dans un registre prévu à cet effet toutes les
opérations exécutées sur un radar.
a) De pièces de rechange pour les éléments les plus sensibles et pour ceux qui nécessitent de
longs délais de livraison: tubes, composants à semi‑conducteurs, circuits imprimés, châssis,
moteurs, engrenages, blocs d’alimentation, etc. L’expérience montre qu’il est souhaitable
d’affecter, aux pièces de rechange essentielles à stocker sur site, 30 % des capitaux investis
initialement dans un radar. S’il y a plusieurs radars, ce pourcentage peut être réduit jusqu’à
20 % environ, avec une répartition correcte des pièces entre le service central et les sites;
c) D’un personnel qualifié, capable de cerner les problèmes et de procéder à des réparations
de façon rapide et efficace.
CHAPITRE 7. MESURES RADAR 821
Grâce à une bonne organisation de l’entretien, réalisé à l’aide de matériel standard, un radar
devrait rester en service 96 % du temps en moyenne annuelle. Les performances peuvent être
améliorées pour un prix plus élevé.
b) Un wattmètre hyperfréquence;
c) Un oscilloscope MHz;
d) Un fréquencemètre hyperfréquence;
7.7.2 Étalonnage
Dans des conditions idéales, c’est une cible extérieure telle qu’une sphère métallisée dont la
réflectivité radar est connue qui sert de référence pour un étalonnage complet de la réflectivité.
Le principe consiste à vérifier si les caractéristiques nominales de l’antenne et du guide d’ondes
sont correctes. Cette méthode est cependant très rarement utilisée, car il est difficile dans la
pratique de positionner une sphère en altitude dans l’atmosphère et que les réflexions provenant
du sol sont multiples; cela exige en outre du temps et des compétences (Brunkow, 2001).
Il est courant d’utiliser le Soleil pour étalonner la mesure de puissance et d’angle de pointage.
Le Soleil est une source d’hyperfréquences et apparaît comme un disque de 0,5° (Tapping,
2001). Il est toutefois possible d’atteindre une meilleure précision en augmentant la puissance
au maximum. Les effets de propagation du faisceau risquant de fausser la valeur de l’angle de
site quand celle‑ci est faible, il est fréquent d’utiliser des angles élevés pour les besoins d’un
étalonnage basé sur le Soleil. Le fait de répéter les mesures améliore statistiquement la précision
des résultats obtenus. Il y a lieu de noter que l’exactitude et la précision du pointage de l’antenne
en élévation peuvent varier avec la valeur de l’angle et qu’il faut donc mesurer tout un intervalle
d’angles différents.
c) Émission d’un signal hyperfréquence connu en amont de l’étage récepteur afin de vérifier si
les niveaux de réflectivité indiqués par le radar correspondent bien à la puissance en entrée;
d) Mesure du rapport signal/bruit, qui devrait se situer dans les limites nominales d’utilisation
indiquées dans les caractéristiques du radar.
822 PARTIE II. SYSTÈMES D’OBSERVATION
Si un des contrôles ci‑dessus laisse apparaître des variations ou des erreurs systématiques, des
mesures correctives doivent être prises.
Bien que les radars modernes soient généralement équipés de composants électroniques très
stables, il faut étalonner ces éléments assez souvent pour garantir la fiabilité et l’exactitude des
données obtenues. L’étalonnage doit être effectué soit par des personnes compétentes soit au
moyen d’appareils de contrôle automatiques sur site permettant des diagnostics en ligne. Dans le
premier cas, qui exige une intervention humaine, l’étalonnage devrait être réalisé au moins une
fois par semestre. Il est possible que de nouveaux systèmes soient conçus pour effectuer cette
opération automatiquement. Des contrôles simples par comparaison du niveau et de la position
d’un écho peuvent être effectués fréquemment au moyen de deux ou plusieurs radars travaillant
en recouvrement, pointés sur une cible appropriée (Zhang et al., 2005).
Afin de contrôler en permanence l’état de fonctionnement d’un radar, il est possible d’employer
différentes techniques portant sur les données: concentrations en réflectivité, lois de probabilité
de la réflectivité en fonction de la distance pour un suivi du signal minimum détectable et du
module d’émission‑réception, vérification des angles de site par retour et commande. Les erreurs
systématiques décelées dans les concentrations en vitesse radiale peuvent faire apparaître des
problèmes de filtrage des échos parasites – il s’agit en général d’une sous‑estimation par le filtre
qui se manifeste par des erreurs systématiques dans les vitesses radiales tendant vers zéro (Joe,
2010).
Pour bien fonctionner, les radars à double polarisation ont besoin de deux récepteurs bien
accordés. Les tolérances s’appliquant à toutes les composantes doivent être particulièrement
strictes puisque de faibles valeurs sont mesurées. Il est alors possible de contrôler ces tolérances
en effectuant des balayages d’auto‑cohérence et dans l’axe vertical pour annuler la Z DR . Un
étalonnage en auto‑cohérence consiste à calculer Z à partir de K DP en se fondant sur une relation
empirique déduite des mesures exécutées à l’aide d’un disdromètre (figure 7.17) et reposant sur
des formules théoriques. La réflectivité (biais d’étalonnage) est ensuite ajustée jusqu’à ce qu’elle
coïncide avec la K DP déduite de la réflectivité. Compte tenu de la qualité (bonne corrélation de la
diffusion) de la relation entre Z et K DP, on pourrait envisager d’utiliser K DP comme paramètre dont
dépend l’estimation de la pluie. Quand l’antenne radar pointe à la verticale, dans des conditions
de pluie stratiforme, la Z DR devrait être nulle et il faut opérer des ajustements si ce n’est pas le cas.
Le contrôle de la valeur maximale enregistrée du coefficient de corrélation ρHV donne une idée
de la performance globale du système, puisqu’un radar en bon état de fonctionnement devrait
enregistrer une valeur de 0,995 voire mieux.
Une nouvelle technique consiste à se servir des données du radar spatial de la TRMM ou de
la GPM pour étalonner les radars météorologiques au sol. Le radar utilisé est un instrument
stable qui mesure les précipitations depuis l’espace et couvre les mêmes zones que les radars
météorologiques au sol. Des comparaisons de l’altitude du sommet des échos, suivant un degré
de sensibilité fixe et modérément faible, auquel l’atténuation n’est pas significative, servent
à établir les paramètres permettant d’atteindre une bonne cohérence dans l’étalonnage des
différents radars (Anagnostou et al., 2001).
CHAPITRE 7. MESURES RADAR 823
60
Z = 43,23 +10,58X –0,13X2 –0,05X3 15
Z = 43,14 +10,52X Zh+2dB
50
X = log(KDP)
Zh+1dB
40 10
ФDP (degrés)
Zh
Zh–1dB
Z (dBZ)
30
5
20
ФDP mesurée
10 0
0
10–3 10–2 10–1 100 101 40 80 120
KDP (degrés/km) Portée (km)
Figure 7.17. Une relation étroite existe entre la réflectivité et la phase différentielle spécifique
(Z et KDP). Le schéma de gauche représente la relation par rapport aux mesures obtenues par
des disdromètres. La courbe de distribution radiale des données à droite présente un
différentiel de phase significatif. En ajustant la réflectivité et recalculant la phase
différentielle, il est possible d’étalonner le radar sur la base d’une auto-cohérence (figures
reproduites avec l’aimable autorisation d’Isztar Zawadzki).
Le choix d’un site pour l’installation d’un radar météorologique dépend de l’usage prévu pour
l’appareil. Quand il s’agit de couvrir une zone bien délimitée où se produisent des précipitations
violentes qu’il convient de détecter pour établir des alertes, le meilleur compromis consiste
généralement à situer le matériel à une distance de 20 à 50 km de cette zone, généralement
au vent par rapport à la trajectoire principale des précipitations. Il est conseillé d’installer le
radar légèrement en dehors de cette trajectoire pour éviter tout problème de mesure lorsque
les précipitations passent au‑dessus du radar. Il devrait ainsi être possible d’obtenir une
bonne résolution sur la zone à surveiller et de prévoir suffisamment à l’avance les épisodes de
précipitations (Leone et al., 1989).
Dans le cas d’un réseau de radars destiné essentiellement à des applications synoptiques, les
appareils à installer aux latitudes moyennes devraient être situés à une distance d’environ 150 à
200 km les uns des autres. Cet intervalle peut être augmenté plus près de l’équateur si les échos
radar présentant un intérêt doivent atteindre fréquemment de hautes altitudes. Dans tous les
cas, les radars à faisceau étroit sont ceux qui offrent la meilleure exactitude pour la mesure des
précipitations.
Des logiciels d’aide au choix d’un site ont été élaborés à partir de bases de données
particulièrement adaptées, telles que GTOPO30 (https://lta.cr.usgs.gov/GTOPO30), SRTM30
ou SRTM03 (http://www2.jpl.nasa.gov/srtm/). On peut ainsi fonder le choix du site sur des
représentations de l’horizon radar dont le tracé est obtenu à partir de données angulaires, en
site et en azimut, compte tenu des propriétés de propagation du faisceau dans l’atmosphère
(figure 7.18). Dans cette figure, le relief est représenté selon un code de couleurs en fonction
des angles d’azimut et de site. La couleur indique la distance (portée) à laquelle le faisceau (un
modèle de Terre 4/3 est pris pour hypothèse dans ce cas) pourra permettre au radar de recueillir
des données utiles. Ce type de produit se révèle particulièrement utile quand on envisage
l’installation d’un radar en terrain complexe, notamment un radar qui se situerait dans une vallée
et qui devrait couvrir le fond de la vallée, mais avec une portée relativement faible compte tenu
des variations considérables que connaissent les précipitations entre les sommets des montagnes
et les vallées. Par exemple, le radar pourrait avoir une portée de 50 ou 60 km le long de l’axe 190°
en azimut, pour un angle de site de 1 ou 2°. Cette analyse ne peut tenir compte ni des arbres ni
des constructions en forme de tour.
824 PARTIE II. SYSTÈMES D’OBSERVATION
10 Portée (km)
99
75
Site
5
50
25
0
1
0 60 120 180 240 300 360
Azimut (met.)
Figure 7.18. Les modèles numériques de terrain, qui fournissent à l’échelle de la planète des
données suffisamment précises, facilitent le choix du site d’un futur radar météorologique.
À partir de données angulaires (azimut et site), on obtient une image qui indique la distance
à laquelle le radar pourra recueillir des données utiles.
Avec ce type de tracé, il est possible de préciser les angles de sondage pour obtenir une
surveillance optimale des zones critiques préalablement délimitées. Les bases de données en
question ne permettent pas de représenter des occultations locales du faisceau dues aux arbres,
aux édifices ou aux tours.
c) Prix du terrain;
e) Les obstacles susceptibles de bloquer les faisceaux sont à éviter. Il ne devrait exister aucun
obstacle présentant une élévation angulaire par rapport à l’horizontale supérieure à une
demi‑largeur du faisceau ou ayant une largeur horizontale supérieure à une demi‑largeur
du faisceau;
f) Les échos de sol sont à éviter autant que possible. Pour un radar destiné à la détection
de cibles à relativement courte distance, il est parfois possible de trouver, à la suite d’une
inspection minutieuse de la région d’implantation et d’une étude détaillée des cartes
topographiques, une zone relativement plate située dans une dépression peu profonde,
dont les bords feront naturellement obstacle aux échos de sol engendrés par les lobes
secondaires tout en gênant aussi peu que possible le faisceau principal. Dans le cadre de
l’étude du site, il faudrait toujours vérifier la présence d’obstacles éventuels au moyen d’une
caméra et d’un théodolite. Dans certains cas, il sera utile de faire appel à un radar mobile
pour confirmer si le site est approprié. Le matériel et le logiciel dont sont équipés certains
radars modernes permettent de supprimer en grande partie les échos de sol en rejetant un
minimum d’échos météorologiques (Heiss et al., 1990);
CHAPITRE 7. MESURES RADAR 825
g) Un radar destiné à effectuer une surveillance à grande distance, comme dans le cas des
cyclones tropicaux ou de certaines applications côtières, sera généralement installé au
sommet d’une colline. Les échos de sol seront généralement importants, ce qui ne revêt pas
une grande importance pour une longue portée (voir la section 7.5.3 pour l’élimination des
échos);
Les progrès accomplis dans le domaine des télécommunications et dans celui de l’informatique
permettent la transmission de données radar depuis un grand nombre de sites vers un centre
chargé du traitement et de la visualisation à l’aide de systèmes informatiques communs. Compte
tenu des tarifs et des coûts actuels de l’accès à l’Internet, des téléphones mobiles voire des
données de satellite, l’échange de données à l’échelle mondiale devient concevable, du moins
pour un volume restreint de données utiles et exploitables, bien qu’il faille auparavant s’assurer
de détails concernant les réseaux de télécommunications. Rappelons que les radars sont souvent
situés à des endroits reculés où il n’existe pas de réseau de télécommunications moderne ou alors
qui nécessitent des investissements financiers dès le début de l’installation pour réduire les frais
de fonctionnement et de maintenance.
Certains pays possèdent des réseaux de radars qui remplissent différentes fonctions, notamment
la veille météorologique, la surveillance des dangers pour la navigation aérienne autour des
aéroports, la gestion des ressources hydrologiques et le contrôle de la circulation aérienne, et
qui apportent même un appui pour les douanes et les services d’immigration. L’échange des
données est concevable, étant entendu que ces applications très spécifiques donnent lieu à des
méthodologies voire des techniques de collecte de données également très spécifiques. Dans
certaines situations, cela peut se révéler possible dans des conditions d’exploitation, mais il faut
alors déployer des efforts considérables d’intégration et d’interprétation.
Des normes s’appliquant à quelques produits radar ont été mises en place par l’OMM. Afin
d’anticiper le besoin en données radar de la prévision numérique du temps d’échelle régionale
et mondiale, l’OMM a lancé un projet d’échange de données radar pour que soient établies
des normes s’appliquant aux données radar brutes (Michelson et al., 2013). L’OMM a aussi
créé une base de données radar qui tente de réunir des métadonnées de base pour fournir des
informations sur les radars et les réseaux de radars partout dans le monde (Sireci et al., 2010).
L’échange de produits radar permet d’établir des produits composites ou sous forme de
mosaïques qui fournissent en général une représentation en surface des précipitations couvrant
une zone étendue pour les besoins de la surveillance météorologique à longue distance. Cette
méthode est courante au sein de plusieurs pays, mais aussi entre pays. Le programme européen
OPERA (Operational Programme for the Exchange of Weather RAdar Information – Programme
opérationnel pour l’échange de l’information fournie par les radars météorologiques) est un
modèle multinational de réseau et de traitement centralisé (Dupuy et al., 2010). BALTRAD (http://
baltrad.eu) constitue un autre modèle de réseau avec traitement centralisé de l’information
provenant de réseaux de radars hétérogènes grâce à un logiciel libre d’échange et de traitement
de données de pair à pair, qui permet aux membres de recevoir ou de transmettre des données
et de configurer et d’exécuter le logiciel comme ils l’entendent (Michelson et al., 2010). Il est
particulièrement difficile de parvenir à un produit composite quand on dispose de données
provenant de radars hétérogènes, dérivées à partir de projections géographiques, de résolutions
spatiales et temporelles et de traitements différents. Ainsi l’échange de données radar brutes
en coordonnées polaires a‑t‑il pris la forme d’un concept visant à atténuer ces difficultés.
826 PARTIE II. SYSTÈMES D’OBSERVATION
Néanmoins, selon le type de radar et de configuration, les données brutes ont déjà subi différents
degrés de traitement. Ces problèmes s’appliquent tout autant aux échanges de données radar au
sein d’un même pays pouvant posséder des radars de générations différentes.
En ce qui concerne le traitement des données, de nombreuses offres existent de nos jours. Les
fabricants ont chacun leur propre système de traitement et de visualisation des données radar
agrémentés habituellement de différentes fonctions, telle la capacité de mise en réseau, qui
sont comprises dans le prix d’achat ou nécessitent l’achat d’une licence distincte. Il existe aussi
des systèmes tels que TITAN (Thunderstorm Identification, Tracking, Analysis and Nowcasting –
détection, suivi, analyse et prévision immédiate des orages), un logiciel gratuit populaire que
de nombreuses équipes de recherche et plusieurs Services météorologiques utilisent (Dixon et
Wiener, 1993). Il s’agissait au début d’un outil destiné aux activités de modification du temps
qui, en évoluant, est devenu un outil multifonction. On trouve aussi sur le marché de nombreux
systèmes perfectionnés, indépendants des systèmes radars, spécialisés dans les applications de
pointe portant sur les phénomènes météorologiques violents, notamment le WDSS‑II (Warning
Decision Support System – Integrated Information – système d’aide à la décision pour les alertes –
information intégrée) (Lakshmanan et al., 2007; http://www.wdssii.org/). Grâce aux outils que
fournissent BALTRAD et la bibliothèque de logiciels radar de la NASA, il est possible d’élaborer
un système de données radar (Wolff et Kelley, 2009). Il est possible aussi de négocier ou de
collaborer avec un Service météorologique et hydrologique national ou avec un organisme
gouvernemental pour obtenir l’accès à son système. Les fonctionnalités varient, allant de
systèmes de décodage très simples à des systèmes qui établissent des produits de base, voire
à des systèmes en mesure de détecter automatiquement des orages violents et d’établir un
classement des phénomènes mesurés ou de fournir des données de grande qualité. Le choix d’un
système à adopter devrait se fonder sur ses fonctionnalités, mais aussi sur ses applications et sur
les capacités existantes en matière d’appui et de maintenance scientifiques et techniques.
Les erreurs que présentent les données radar doivent être perçues en fonction de l’application
visée. L’estimation des précipitations étant souvent l’objectif, il faut appliquer des procédures
rigoureuses de contrôle de la qualité des données pour éliminer et corriger les artéfacts. On
distingue différents niveaux de contrôle de la qualité des données. En hydrologie, les estimations
sont utiles même si les données sont de qualité médiocre et pourtant l’assimilation des données
tolère les données manquantes, mais pas les données de mauvaise qualité. Dans beaucoup
de situations, cette mauvaise qualité des données est attribuable à des éléments propres à
l’environnement extérieur et non pas au radar lui‑même (figure 7.2).Il y a lieu de noter que
les applications quantitatives des radars météorologiques en sont encore au stade de la mise
au point, alors que l’emploi de données radar du point de vue qualitatif, aboutissant à la
connaissance et à la détection des orages violents, est arrivé à maturité et qu’il justifie à lui seul
l’existence de réseaux de radars.
L’équation radar repose sur de nombreuses hypothèses. Quand ces hypothèses ne sont pas
satisfaites, on peut considérer que la réflectivité est erronée. L’équation est inappropriée par
exemple si la cible n’est pas uniforme, si le volume de résolution n’est pas entièrement rempli ou
si les cibles sont mélangées. En outre, si les variables de l’équation, telles que le gain d’antenne,
la perte de puissance au niveau du guide d’ondes ou la durée d’impulsion, sont incorrectes,
la constante radar sera fausse et entraînera des erreurs systématiques dans la conversion de la
puissance en réflectivité. On examine dans ce qui suit diverses sources d’erreur en référence aux
applications qualitatives et quantitatives.
Dans de nombreux cas, et surtout à grande distance du radar, le volume de résolution allant
en s’agrandissant, il n’est pas entièrement rempli de précipitations homogènes, il peut l’être
partiellement. Cela est vrai en particulier dans le cas de systèmes atmosphériques de faible
hauteur (< 1 km, comme pour les tempêtes de neige par effet de lac); le faisceau radar passe alors
CHAPITRE 7. MESURES RADAR 827
au‑dessus des précipitations et aucun écho n’est enregistré au‑delà d’environ 50 km de distance.
À longue distance, le volume du faisceau atteint de grandes dimensions et subit alors un lissage
naturel important par effet de convolution entre le faisceau et la cible. Dans cette situation, le
faisceau se trouve très haut au‑dessus de la surface terrestre et la mesure ne fournit plus une
bonne représentation quantitative des précipitations de surface. Selon les radars, le faisceau
peut atteindre une altitude de 15 km et peut alors détecter des systèmes très éloignés (plus de
250 km), ce qui présente un grand intérêt pour les prévisionnistes, étant donné que ces systèmes
seront très intenses. En général, les mesures peuvent être utiles sur le plan quantitatif jusqu’à une
distance inférieure à environ 80 km pour une largeur angulaire de 1° et jusqu’à environ 110 km
pour une largeur de 0,65°, sans aucun autre ajustement apporté aux données (voir la figure 7.33).
L’atténuation due à la pluie est parfois importante, surtout pour les longueurs d’onde les plus
courtes (5 et 3 cm). L’atténuation due à la neige, bien qu’elle soit moindre que celle due à la pluie,
peut être également importante dans le cas de trajectoires longues. Contrairement à ce qu’on
pense généralement, l’effet d’atténuation est bien présent en bande S, mais il est relativement
difficile à déceler. Les techniques de double polarisation prennent pour paramètre la phase
différentielle spécifique (K DP), indépendante de l’atténuation et plus efficace aux longueurs
d’onde les plus courtes. La K DP étant un paramètre de bruit, le travail se poursuit pour affiner ces
techniques (voir la section 7.10.4.4).
Blocage du faisceau
Selon l’emplacement du radar, le faisceau peut être partiellement ou intégralement occulté par
la topographie ou par des obstacles situés entre le radar et la cible. Dans un tel cas, on aboutit
à une sous‑évaluation de la réflectivité, donc de l’intensité des précipitations. La K DP est un
paramètre local, c’est une mesure de l’atténuation différentielle (mise en évidence par la phase)
dans un volume sondé; elle est donc indépendante du blocage du faisceau. Dans le cas d’un
obstacle étroit, il est possible que l’interpolation des données suffise à satisfaire les besoins d’une
application quantitative. Pour un emploi qualitatif, l’analyste pourra surmonter la nuisance
que représente une occultation du faisceau radar. Si le faisceau est totalement occulté, le fait
d'apporter des ajustements sur le plan vertical grâce au profil de réflectivité peut se révéler utile
dans une certaine mesure.
La plupart des antennes radar sont protégées du vent et de la pluie par un radôme, généralement
réalisé en fibre de verre. Celui‑ci est conçu de manière à limiter la déperdition d’énergie
rayonnée. Il est par exemple facile, dans des conditions normales, de limiter la déperdition
bidirectionnelle qui lui est due à moins de 1 dB en bande C. Cependant, en cas de fortes
précipitations, la surface du radôme peut se recouvrir d’une fine pellicule d’eau ou de glace, d’où
une forte atténuation dépendant de l’angle d’azimut.
828 PARTIE II. SYSTÈMES D’OBSERVATION
Dans le cas de longueurs d’onde courtes, cet effet, s’il se conjugue à l’atténuation due aux
précipitations, peut entraîner une élimination complète des échos radar. Bien que cela puisse
paraître désastreux, en situation, une telle perte de signal se produit sur une durée relativement
courte (une dizaine de minutes environ) alors que les alertes ont probablement déjà été
publiées quand il s’agit d’applications qualitatives. En matière d’assimilation des données, les
données de double polarisation (K DP) indiqueront qu’une forte atténuation s’est produite et les
données au‑delà ne seront pas utilisables. Pour les applications hydrologiques, dont l’échelle
de temps fonctionnelle se mesure en heures ou en jours, une perte de données sur une courte
durée n’a pas d’effet significatif sur la prévision des crues. Par contre, en fonction du régime
météorologique, une telle perte de signal peut influer sur la prévision des crues soudaines.
Interférences électromagnétiques
Les interférences électromagnétiques dues à d’autres radars ou à des appareils, notamment ceux
des réseaux locaux hertziens (RLAN), gagnent de plus en plus en importance. Il faut donc s’en
protéger avec beaucoup de soin. Il est possible d’atténuer les interférences entre radars voisins
en utilisant des fréquences légèrement différentes (sans changer de bande) et en équipant
les émetteurs et récepteurs radar de filtres appropriés. Occasionnellement, des interférences
peuvent se produire entre des radars en bande C au sol et à bord d’aéronefs fonctionnant sur des
fréquences identiques.
Il va donc falloir faire preuve d’une extrême vigilance étant donné que ces systèmes vont
connaître une diffusion massive, que leur installation ne nécessite aucune autorisation et qu’il
sera difficile de lutter contre les violations dans le domaine. On espère que toutes les parties
prenantes feront preuve d’un bon esprit de coopération et de collaboration, ce qui sera
nécessaire et que l’on encourage. La technique de radiocommunication sans fil 4G produit
aussi un brouillage en bande S; c’est aussi le cas d’autres radars en bande S (contrôle de la
circulation aérienne). L’OMM a rédigé une directive sur le partage du spectre avec ces nouvelles
technologies (voir l’annexe 7.A).
CHAPITRE 7. MESURES RADAR 829
Figure 7.19. L’image de gauche montre le type de brouillage que peut engendrer un réseau
local hertzien situé à 6,4 km du radar à un angle de site de 0,42°. L’image de droite provient
d’un radar météorologique opérationnel; elle est reproduite avec l’aimable autorisation de
Claudia Campetella, Service météorologique argentin.
Échos de sol
La contamination des échos des précipitations par les échos de sol risque d’entraîner des
erreurs très importantes dans l’estimation des précipitations et du vent. Pour la plupart, les
antennes des radars modernes se caractérisent par des performances standard dans les lobes
secondaires qu’il est difficile d’améliorer compte tenu de la nature géométrique du problème. Il
est possible d’améliorer ou de déplacer les lobes secondaires suivant des angles différents, mais
le fait d’éloigner le cornet d’alimentation du foyer de l’antenne diminue le gain de l’antenne ou
l’ouverture du faisceau. C’est avant tout en choisissant avec soin l’emplacement du radar qu’on
réduit autant que possible les échos de sol. Dans des conditions idéales, le radar devrait se situer
dans une légère dépression du terrain ou alors des arbres devraient pouvoir absorber et diffuser
les lobes secondaires sans avoir d’effet sur le lobe principal. On a déjà examiné en détail les
techniques de suppression de signaux et de données.
Propagation anormale
Une propagation anormale infléchit le trajet du faisceau radar. Elle a pour effet d’accroître
les échos de sol en faisant dévier le faisceau vers le sol. Elle peut également amener le radar à
détecter des précipitations situées bien plus loin que sa portée normale, ce qui conduit à des
erreurs de détermination de la distance dues au repliement des distances. Une propagation
anormale est fréquente dans certaines régions lorsque de fortes baisses d’humidité et/ou de
fortes augmentations de température se produisent avec l’altitude. Les retours des échos de sol
dus à une propagation anormale risquent d’induire en erreur des observateurs inexpérimentés.
Pour les éliminer, on procède comme dans le cas des échos de sol.
Il y a lieu de noter que, d’une façon générale, la position du faisceau n’est pas connue, puisque le
profil atmosphérique de l’indice de réfraction résulte d’une idéalisation (Joe, 1999). L’assimilation
des données provenant du volume sondé pour un nombre standard d’angles de site (de 10 à
24) pose un problème, puisque les modèles de prévision numérique du temps comprennent
à présent entre 50 et 80 niveaux. Le manque de données précises sur la position du faisceau et
l’inadéquation entre le nombre de niveaux pour la mesure radar et celui pour les modèles utilisés
interdisent l’emploi des résultats de cette mesure au‑delà de 100 km à des fins d’assimilation de
données.
830 PARTIE II. SYSTÈMES D’OBSERVATION
Précision de l’antenne
Un système bien conçu permet de déterminer la position de l’antenne à 0,1° près. Une
ouverture angulaire excessive du faisceau ou l’existence de lobes secondaires peuvent être des
sources d’erreurs en cas d’échos de sol ou de forts échos dus aux précipitations. Des erreurs
de positionnement peuvent être dues à l’inclinaison du socle de l’antenne ou à une instabilité
dans la boucle de retour ou le mécanisme, attribuable à l’usure. Ce type d’erreur a une grande
importance à des angles de site faibles, puisque de petites variations peuvent entraîner de
grandes différences en matière de couverture de systèmes météorologiques de faible hauteur.
Stabilité électronique
Les systèmes électroniques modernes peuvent subir de légères variations avec le temps. De
gros progrès ont été réalisés dans ce domaine depuis les débuts des radars météorologiques,
quand il fallait étalonner le récepteur tous les jours. Un radar bien conçu sera stable (variations
inférieures à 1 dB) à présent durant plusieurs mois. Les radars peuvent être dotés de systèmes
de surveillance de dispositifs de test intégrés qui déclencheront une alarme ou expédieront un
courriel en cas d’anomalie, ce qui permettra de réduire la durée des pannes.
La conversion de la réflectivité en taux de précipitations passe par une relation empirique entre
Z et R. La relation la plus connue et le plus employée en exploitation est celle de Marshall‑Palmer
(1948, dont il est fait état dans Marshall et Gunn, 1952). L’incertitude associée à cette relation
représente un facteur deux. Elle s’applique aussi à la neige. La réflectivité varie en fonction de
la distribution granulométrique des gouttes, différentes répartitions pouvant produire le même
facteur Z. Différentes relations Z‑R ont donc été formulées pour différents types de précipitations
– convective, stratiforme et neige – avec plus ou moins de succès (section 7.10.4.2). Avec les
radars à double polarisation, des techniques reposant sur le paramètre K DP sont à présent au
point. Il reste à déterminer si l’ajustement du profil vertical peut rivaliser avec la technique fondée
sur la K DP dans des situations d’occultation partielle du faisceau.
Vitesse radiale
Le radar Doppler mesure les vitesses dans une direction radiale uniquement ce qui peut être
source d’ambiguïté. L’automatisation de l’interprétation des résultats de mesure fait encore
l’objet de beaucoup de travaux de recherche. Dans certaines situations (flux synoptique à grande
échelle et flux convectif à petite échelle), un analyste qualifié expérimenté peut interpréter ces
résultats.
Les vitesses obtenues sont des estimations pondérées en fonction de la réflectivité ou des
estimations fondées sur le déplacement des précipitations ou des cibles. Quand la composante
radiale des déplacements verticaux est négligeable (par exemple, angles de site faibles), elle
peut représenter la vitesse des précipitations qui souvent peut être interprétée comme une
donnée du vent. Il faudrait cependant veiller à ne pas interpréter la vitesse obtenue comme étant
le déplacement des échos des précipitations ou du système. À titre d’exemple, dans le cas d’un
écoulement lenticulaire au‑dessus d’un sommet montagneux, l’écho peut apparaître stationnaire
(indication fournie par la réflectivité), mais les particules des précipitations se déplacent et l’écho
Doppler sera différent de zéro. Les échos correspondant aux insectes ou aux oiseaux peuvent
fausser les vitesses radiales. En général, ils sont cependant relativement petits (Wilson et al.,
1994), sauf en cas de vols migratoires. Les échos de sol peuvent aussi fausser les vitesses radiales;
ils causent une sous‑estimation quand ils ne sont pas suffisamment éliminés.
Quand le vent au sein du volume sondé n’est pas uniforme et que le cisaillement est fort, il
s’ensuit des erreurs d’estimation de la vitesse radiale. Envisageons le cas extrême d’une tornade
entièrement englobée dans le volume sondé ou dont le radar ne perçoit qu’une partie. Dans le
premier cas, on peut s’attendre à obtenir une vitesse radiale moyenne nulle avec une très grande
CHAPITRE 7. MESURES RADAR 831
largeur de spectre. Dans le deuxième cas, on peut s’attendre à obtenir une vitesse différente de
zéro si la vitesse de Nyquist est suffisamment élevée. Quand la vitesse de Nyquist est relativement
basse, la vitesse moyenne peut être repliée plusieurs fois et on obtient alors une valeur
quelconque de la vitesse (Fabry et al., 2013). On peut en outre obtenir un repliement du spectre
météorologique, ce qui entraîne une confusion dans la restitution à la fois de la vitesse moyenne
et de la largeur spectrale. Les techniques de double PRF sont également désarmées devant cette
situation, puisque l’hypothèse d’uniformité des deux estimations en double PRF ne tient pas.
Compte tenu de la rotation de l’antenne, cette hypothèse ne se vérifie pas dans les zones de fort
cisaillement, lorsque les deux échantillons de vitesse correspondant aux PRF différentes sont
recueillis en des lieux d’azimuts différents et que la vitesse présente une variance ou une largeur
spectrale importante. Dans ce dernier cas, ce sont la variance et la différence entre les vitesses de
Nyquist non ambiguës (et donc le rapport entre les PRF) qui déterminent l‘erreur associée à cette
technique. Certaines méthodes permettent d’atténuer une variance Doppler élevée (Joe et May,
2003). Un exemple de simulation est fourni à la figure 7.20. L’image du haut montre un champ
simulé prédéterminé restituant une indication du champ de vitesse. L’image du milieu montre ce
qu’un radar Doppler en bande C mesurerait. L’image du bas montre le résultat obtenu grâce à
une méthode d’atténuation.
En présence de forts gradients de réflectivité, dans les orages contenant de gros grêlons
fondants, les lobes secondaires peuvent produire un écho alors que le lobe principal pointe
vers une cible de réflectivité nettement plus faible voire de réflectivité nulle. La puissance
correspondant aux lobes secondaires mesure en général 25 dB de moins (dans un sens ou
50 dB dans les deux sens) que celle du lobe principal, voire encore moins (figure 7.8). Quand
le lobe secondaire pointe vers une cible de 60 dBZ, comme de la grêle humide, et que le lobe
principal pointe vers une cible de 10 dBZ ou moins, le radar affiche un écho pour la réflectivité,
la vitesse radiale et les caractéristiques de double polarisation en partant du principe que
l’énergie provient du faisceau principal. Les échos des lobes secondaires se présentent sous la
Champ ciblé
24
20
10
0
km
22
–10
–20
20
Vitesse mesurée
24
20
10
km
22 0
–10
–20
20
Vitesse corrigée
24
20
10
km
22 0
–10
–20
20
–2 0 2
km
Figure 7.20. La technique de double PRF repose sur l’hypothèse selon laquelle les mesures
sont réalisées dans un volume dont la vitesse radiale demeure constante. Les images
montrent le champ ciblé prédéterminé avec les données mesurées et les données corrigées
(d’après Joe et May, 2003).
832 PARTIE II. SYSTÈMES D’OBSERVATION
forme d’artéfacts annulaires aussi bien en azimut qu’en site à distance constante. Cela peut se
présenter sous la forme d’ailes ou de pics élevés au sommet des échos par rapport à des zones
de forte réflectivité (figure 7.21, images de gauche et de droite respectivement). Les effets d’une
diffusion multiple se présentent sous la forme d’artéfacts radiaux à position azimutale constante,
mais à distance croissante. Ces artéfacts sont dus à des zones de forte réflectivité auxquelles se
conjuguent les effets d’un sol à fort pouvoir de réflexion (sol mouillé par la pluie par exemple);
en bande S, ils servent d’indicateurs de grêle. Il y a lieu d’observer que, sur l’image de droite, il
se peut que les échos météorologiques de forte puissance aient occulté des signatures de lobes
secondaires en azimut et/ou de rétrodiffusion à trois corps. Cela n’apparaît pas clairement dans la
zone même de l’orage, puisque la réflectivité est dominée par l’écho du lobe principal. Cela peut
apparaître cependant dans le plan vertical et se traduire par de faux pics élevés au sommet des
échos, qu’on appelle pics de grêle, puisqu’on peut s’en servir pour établir un diagnostic qualitatif
de la présence de grêle dans un orage (figure 7.21). Ce type d’écho peut aussi se produire dans
une zone de faible réflectivité contiguë à un rideau de grêle dans un orage et peut être interprété
à tort comme la signature d’une rotation indiquant la présence d’un mésocyclone.
Diffusion multiple
Suivant les conditions de propagation, un faisceau radar peut être réfléchi plusieurs fois
(figure 7.22). Le signal peut aussi subir les effets d’une diffusion multiple par la cellule orageuse
de forte réflectivité (grêle humide), puis par le sol humide sous‑jacent avant de retourner au
radar. On appelle ce phénomène la rétrodiffusion à trois corps qui se caractérise par un écho
se prolongeant en distance au‑delà du cœur de l’orage à forte réflectivité (Zrnić et al., 2010).
Avec les radars en bande S, il est utilisé comme signature de la grêle qu’il convient toutefois
de différencier de la signature de grêle des lobes secondaires (Lemon, 1998). Plus la longueur
d’onde diminue, plus la probabilité d’une diffusion multiple augmente, une telle signature
pouvant alors se produire en cas de forte pluie mesurée en bande C ou en bande X.
Les radars Doppler utilisant une PRF élevée, ils peuvent enregistrer des échos de n‑ième retour.
Le sujet a déjà été examiné dans le présent chapitre et on a souligné ce qui différencie les radars
70
65
60
55 8
50
45
40
35
31
27 Lobe secondaire
24 6
21 dans le plan
18
vertical
Altitude (km)
15
12
9
6
3 4
0
–3
–6
–10
–15
–20
–32 2
RF
Lobe secondaire
en azimut Rétrodiffusion 0
à trois corps 0 20 40 60 80
Portée (km)
20 km
Figure 7.21. Les effets des lobes secondaires et d’une diffusion multiple produisent des
artéfacts de formes comparables. Dans le cas des lobes secondaires, la distance des artéfacts
est constante alors que dans celui d’une diffusion multiple, la position azimutale des artéfacts
est constante.
CHAPITRE 7. MESURES RADAR 833
Cœur à forte
réflectivité
(en rouge)
La signature d’une rétrodiffusion
se présente comme un écho allongé
en raison du retard du retour au radar.
Figure 7.22. Ce schéma décrit comment se produit une rétrodiffusion à trois corps. L’écho en
jaune vif est un artéfact qui résulte de cette forme de rétrodiffusion.
cohérents à l’émission des radars cohérents à la réception. La figure 7.7 fournit un exemple
d’écho de second retour, en réflectivité et en vitesse radiale, pour un radar cohérent à la
réception. Dans le cas d’un radar cohérent à l’émission, l’algorithme de détection des échos de
second retour signale le chevauchement d’échos par l’indication « distance repliée ».
Éoliennes
La prolifération des éoliennes et leurs incidences sur les observations par radar météorologique
posent de plus en plus de problèmes. Les éoliennes, source d’énergie naturelle, sont installées
en des lieux isolés exposés au vent. Dans les mesures radar, elles font partie des échos de
sol (balayages les plus bas), mais leurs pales en rotation représentent des cibles mobiles qui
engendrent diverses signatures Doppler qu’il est difficile d’éliminer. Les éoliennes sont en outre
regroupées en parcs pouvant atteindre une centaine d’unités voire plus, ce qui signifie que des
zones étendues sont touchées. La figure 7.23 montre deux effets différents des éoliennes. Quand
des éoliennes se situent dans le voisinage du radar, elles peuvent occulter certains secteurs
(image de gauche). Elles peuvent apparaître comme des échos relativement isolés (cas n’étant
pas illustré ici). On peut aussi observer un phénomène de diffusion multiple (image de droite).
Dans cet exemple, les éoliennes se situent à environ 80 ou 100 km du radar. L’OMM a élaboré des
directives au sujet de l’exploitation de radars et d’éoliennes situés à proximité les uns des autres.
L’utilisation de cartes d’échos de sol pourrait permettre d’éliminer les échos correspondant aux
éoliennes, mais cela éliminerait aussi l’écho météorologique et il faudrait avoir recours à d’autres
stratégies d’atténuation pour restituer les données manquantes (figure 7.23). On pourrait faire
appel à l’interpolation à partir de données proches latéralement ou provenant de la cible située
au‑dessus, ou encore utiliser d’autres sources de données pour remplir les zones aveugles.
Compte tenu de la prolifération des parcs d’éoliennes, il y a lieu d’élaborer constamment des
modifications ou des stratégies d’adaptation pour pouvoir maintenir le degré de qualité des
données destinées aux applications météorologiques. Quand des éoliennes se trouvent à très
faible distance d’un radar, outre leur effet sur les balayages les plus bas, elles peuvent occulter le
faisceau jusqu’à un angle de site important soit directement soit par un effet de voies multiples.
L’OMM a élaboré des directives au sujet du choix de l’emplacement des radars et des éoliennes
(voir l’annexe 7.B).
834 PARTIE II. SYSTÈMES D’OBSERVATION
c) La prévision immédiate;
g) L’évaluation de l’humidité.
Si le relief (y compris les édifices) ne s’y oppose pas, les radars permettent de suivre, presque
en continu et sur de vastes zones (portée: environ 220 km, superficie couverte: environ
125 000 km2), les phénomènes météorologiques liés aux perturbations d’échelle synoptique
ou de méso‑échelle. Il suffit en général d’un balayage à basse altitude à une fréquence de 10 à
30 minutes. Compte tenu de la courbure de la surface terrestre et de la propagation du faisceau
radar, la portée maximale des observations météorologiques atteint en pratique environ 250 à
350 km; au‑delà le faisceau passera au‑dessus des cibles météorologiques. Les radars disposent
d’une sensibilité suffisante pour détecter des cibles à plus longue portée, mais leur limite en
distance est fonction de la hauteur atteinte par le faisceau. Le faisceau d’un radar dont l’antenne
pointe suivant un angle de site de 0,5° au‑dessus de l’horizon avec une largeur angulaire de
1° atteindra une hauteur d’environ 10 km au‑dessus de la surface à une distance de 350 km.
En outre à cette portée, le faisceau sera large d’environ 7 km. Les orages d’extension verticale
relativement faible ne pourraient être détectés à une telle distance, ou alors leur représentation
serait distordue. Il faut donc que les orages atteignent des dimensions considérables pour
qu’ils soient détectés à grande distance. Dans la pratique, des sondages d’une portée
pouvant atteindre 500 km voire plus sont utilisés en exploitation, en particulier dans les zones
de couverture extérieures des réseaux de radars. Quand un radar repère de tels échos, le
prévisionniste est alors informé de la présence d’un orage intense et de grande extension, ce
Figure 7.23. À gauche, on remarque l’occultation du faisceau par les éoliennes à l’ouest du
radar (image reproduite avec l’aimable autorisation du Service météorologique allemand). À
droite, on note des effets de brouillage et de diffusion multiple dus aux éoliennes (image
reproduite avec l’aimable autorisation de l’Administration étasunienne pour les océans et
l’atmosphère (NOAA)).
CHAPITRE 7. MESURES RADAR 835
qui est une indication importante. Les satellites et les réseaux de détection des éclairs peuvent
confirmer ce type de phénomène en fournissant des indications sur les nuages qui produisent
les précipitations et sur l’activité électrique associée à ces précipitations. Grâce à l’échange de
données radar, on crée de fait un réseau, ce qui permet d’élaborer des produits sous forme de
mosaïques afin de répondre aux besoins de la surveillance.
Des réseaux radar mettant à profit des stratégies de sondage adaptatif et collaboratif voient
le jour (McLaughlin et al., 2009; Weber et al., 2007). Des radars équipés d’antennes réseau à
commande de phase et à visée électronique sont mis au point. Ils peuvent sonder l’atmosphère
dans des directions non contiguës en azimut et en site pour assurer une grande fréquence
d’échantillonnage de conditions météorologiques à évolution rapide, telles que les tornades ou
les microrafales descendantes, voire d’autres cibles comme les aéronefs. Des radars adjacents
peuvent aussi remplir les zones aveugles à faible altitude que créent les effets de la propagation
du faisceau à longue portée, et peut‑être aussi le cône de silence dû aux limites des sondages en
élévation.
Le radar est le seul moyen réaliste de suivre, à partir du sol, des phénomènes météorologiques
violents sur une vaste zone, et ce, grâce à sa portée (quelques centaines de kilomètres), sa
résolution temporelle (minute), sa résolution spatiale (kilomètres) et sa capacité de détecter des
éléments atmosphériques (réflectivité des précipitations). On peut, en se fondant sur l’intensité
des échos, leur surface et les formes qu’ils décrivent, délimiter les zones où apparaissent des
phénomènes violents, notamment des orages avec risque de grêle et de vents causant des
dommages. Les radars Doppler apportent une nouvelle dimension en permettant de détecter et
de mesurer les vents intenses accompagnant les fronts de rafales, les microrafales descendantes
et les tornades (Lemon, 1978). Les radars à double polarisation sont en mesure d’établir une
distinction entre les différents types de diffuseurs et déterminer ainsi si la cible se compose de
grêle, de pluie forte, de pluie ou de neige (Zrnić et al., 2001). La portée nominale d’un radar est
d’environ 250 km, ce qui est suffisant pour les prévisions et les alertes météorologiques locales
à courte échéance, c’est‑à‑dire diffusées avec une ou deux heures d’avance. On fait appel à des
réseaux de radars pour accroître cette portée et prolonger l’échéance (Germann et al., 2006b).
Un personnel vigilant et bien formé est nécessaire pour interpréter correctement les données et
diffuser au besoin des messages d’alerte de qualité.
C’est à Lemon (1978) qu’on doit la technique qui consiste à recourir aux données radar pour
établir des alertes. Celui‑ci a établi une liste des caractéristiques de réflectivité qui devaient
être réunies pour diffuser une alerte en cas d’orage violent, ce qui englobait les tornades, les
836 PARTIE II. SYSTÈMES D’OBSERVATION
Figure 7.24. Les caractéristiques d’orage violent figurent à gauche de l’image (Lemon, 1978).
Le produit fournissant les détails de la cellule orageuse présente des images centrées sur cette
cellule détectée automatiquement qui permettent de faciliter la prise de décision (les chiffres
ajoutés sur les images correspondent aux numéros des critères).
vents forts, les pluies fortes, les crues soudaines et la grêle. Depuis lors, des caractéristiques
Doppler et de double polarisation ainsi que d’autres caractéristiques propres à la réflectivité sont
venues grossir la liste de ces critères. La figure 7.24 fournit une liste (à gauche) et un exemple de
caractéristiques indiquant la présence d’un phénomène météorologique dangereux (Lemon,
1978; Lemon et al., 1978). Ces caractéristiques comprennent de fortes réflectivités en altitude,
des échos dont les sommets se situent à haute altitude, des zones en altitude où l’écho est faible
qui indiquent la présence de forts courants ascendants, de forts gradients de réflectivité à faible
altitude et des échos en forme de crochet à faible altitude. Un ensemble composé de plusieurs
panneaux (partie de la figure 7.24 située à droite) est automatiquement créé par le logiciel de
traitement des données radar quand celui‑ci repère une cellule. Chaque panneau présente une
image produite par le radar, l’ensemble des images permettant à l’analyste de décider s’il y a lieu
de diffuser une alerte en fonction de l’intensité du phénomène et du stade que celui‑ci a atteint
dans son cycle de vie. Compte tenu de la position des différentes caractéristiques de l’orage (par
exemple celle du sommet de l’écho, celle du centre de gravité de l’orage ou celle de la voûte
d’échos faibles), il est possible de configurer des lignes le long desquelles des coupes verticales
seront automatiquement créées.
Il importe de tenir compte de la relation temporelle et spatiale en trois dimensions pour bien
diagnostiquer le stade atteint par l’orage dans son cycle de vie et anticiper ainsi son évolution
et décider du contenu d’une éventuelle alerte. C’est là un problème épineux, tous les orages
ne produisant pas des conditions qui justifient la diffusion d’une alerte (tableau 7.9). La même
technique est encore employée aujourd’hui et son application nécessite l’examen de divers
produits radar et l’analyse des données sous différents angles (figure 7.24).
Tableau 7.9. Caractéristiques des orages avec différents seuils de déclenchement d’alertes
Masse
volumique
Voûte de l’eau Somme
Méso- Courant
Pondé- Classement d’échos Grêle liquide Z max et échos
Seuils cyclone descendant
ration (0–8) faibles (cm) intégrée (dBZ) 45 dBZ
(m/s/km) (m/s)
(décompte) vertica- (km)
lement
(kg m2/km)
Mini-
1 0–2 5–11 4 0,5 10 2,2 30 5,5
mum
coïncider avec la présence de conditions extrêmes (Markowski, 2002; Burgess, 1976; Burgess et
Lemon, 1990, figure 7.25). Une rotation mésocyclonique au sein d’un orage est caractéristique
d’un phénomène violent et persistant, ce qui justifie la diffusion d’un avis de phénomène
météorologique dangereux. On observe dans ce cas de petites zones quasi circulaires de vitesses
radiales suivant un rapprochement du radar d’un côté et un éloignement de l’autre, s’alignant
approximativement à une distance constante dans une direction donnée en azimut (voir la
figure 7.25). Il convient de noter qu’il faudrait éliminer le déplacement de la cellule orageuse
pour bien visualiser ce dipôle ou doublet de vitesses. Dans l’hémisphère Nord, la rotation
s’opère généralement (mais pas toujours) dans le sens contraire des aiguilles d’une montre
et c’est l’inverse dans l’hémisphère Sud. Lors d’expériences quasi opérationnelles réalisées en
Oklahoma, la mise en évidence de ce comportement caractéristique a permis d’allonger le délai
d’alerte en cas d’orages violents et de tornades de 20 minutes ou plus (Joint Doppler Operational
Project, 1979). Au cours de ces expériences, 50 % environ des mésocyclones observés ont
produit des tornades confirmées. En outre, toutes les perturbations ayant engendré de violentes
tornades se sont formées dans des milieux marqués par un fort cisaillement et ont été le siège de
mésocyclones intenses (Burgess et Lemon, 1990).
Le diamètre d’une tornade mesure approximativement entre 200 et 500 m, ce qui correspond
souvent à la limite de la résolution des données radar, si bien qu’il est difficile de détecter
ce phénomène de façon systématique, à moins de disposer d’une fonction loupe à fort
Figure 7.25. De multiples mésocyclones (A‑D) s’observent le long d’une ligne de grains et se
caractérisent par des vitesses radiales relatives de sens inverses à distance constante.
Les signatures de vitesses symétriques observées dans l’orage
n’apparaissent pas ou ont été éliminées.
838 PARTIE II. SYSTÈMES D’OBSERVATION
Figure 7.26. Au sein d’un mésocyclone, un dipôle de vitesses radiales dans deux cellules
adjacentes du volume de résolution constitue la signature tourbillonnaire d’une tornade
(voir la flèche sur l’image de droite). Sur l’image de gauche apparaît la forme classique
d’un écho en crochet.
grossissement. Quand il est détecté, on observe une grande différence de vitesses radiales dans
des volumes adjacents de données radar. Il s’agit de la signature tourbillonnaire des tornades
que l’on retrouve au sein d’un mésocyclone (figure 7.26). Dans certains cas, on a détecté cette
signature en altitude près d’une demi‑heure ou plus avant qu’une tornade n’atteigne le sol. Cette
signature, qu’on utilise depuis plusieurs années, s’est révélée grandement utile pour localiser des
tornades, généralement à ±1 km près. On estime qu’il est possible de détecter ainsi 50 à 70 %
des tornades se produisant à l’est des hautes plaines des Rocheuses, aux États‑Unis d’Amérique
(Brown et Lemon, 1976). On a identifié des spectres Doppler de grande largeur (moment du
deuxième ordre) correspondant à la position des tornades. Cependant, on a également établi
un rapport entre de grandes largeurs de spectre et de fortes turbulences à l’intérieur des
perturbations. Dans l’image des réflectivités (figure 7.26, à gauche), on observe un écho type en
forme de crochet qui indique que des précipitations sont associées à un fort courant descendant
à l’arrière de l’orage de forte intensité.
Il apparaît que la divergence calculée à partir des données sur la vitesse radiale est représentative
de la divergence totale. Le calcul de la divergence radiale au sommet d’une perturbation
correspond au calcul de la hauteur du sommet des échos, indicateur de la force des courants
Figure 7.27. Une rafale descendante (quelle qu’en soit la taille) s’observe sous la forme d’un
dipôle de vitesses radiales de sens inverses alignées sur une radiale (voir les flèches sur
l’image de droite). Ce phénomène, qui peut aussi être associé à des orages ordinaires ou à de
petits orages, évolue rapidement.
CHAPITRE 7. MESURES RADAR 839
ascendants. Selon des expériences quasi opérationnelles réalisées au moyen de radars Doppler,
une augmentation de la divergence est vraisemblablement l’indicateur le plus précoce de
l’aggravation d’une perturbation. De plus, on a constaté qu’une forte divergence à proximité
du sommet d’une perturbation est un indicateur utile de grêle. On fait couramment appel à la
signature des rafales descendantes par divergence à faible altitude, obtenue au moyen de radars
météorologiques Doppler en zone terminale d’espace aérien, pour protéger les avions dans
les phases de décollage et d’atterrissage. Ces radars sont spécialement conçus pour assurer la
surveillance de zones restreintes et pour balayer rapidement et de façon répétée l’espace aérien
entourant les aérogares. Comme les microrafales ont un cycle d’évolution de 10 à 20 minutes,
leur détection efficace nécessite des systèmes radar spécialisés (figure 7.27). Il s’agit là d’un
exemple de courant descendant humide de forte réflectivité. Les courants descendants secs
peuvent ne pas apparaître dans les données radar si les précipitations s’évaporent et qu’aucune
autre cible ne peut être détectée. Dans ce cas, la détection du phénomène nécessite un radar de
grande sensibilité ou alors un lidar Doppler ou un réseau d’anémomètres. Dans cette application,
l’ensemble radar‑ordinateur donne automatiquement l’alerte à la tour de contrôle (Michelson
et al., 1990). Il est difficile de restituer des vents d’échelle moyenne (40 à 50 km) à l’aide d’un
radar Doppler étant donné que l’orientation du flux se confond avec l’hypothèse d’uniformité.
Les hypothèses portant sur la direction du vent doivent reposer sur des études expérimentales et
les résultats d’un modèle conceptuel de l’écoulement de l’air dans ces systèmes (Smull et Houze,
1987). Fort heureusement, dans certains cas, l’écoulement et la structure des réflectivités sont
distincts, ce qui permet de détecter les vents violents et d’émettre des alertes. La figure 7.28
montre un système se déplaçant vers l’est, aussi les vitesses radiales (A) dans le sens d’un
éloignement par rapport au radar (partie orange) sont‑elles représentatives de toute la violence
des vents rectilignes (appelés aussi derechos). Sur cette image, les vitesses en éloignement
se dirigent vers des vitesses en rapprochement. Le phénomène apparaît aussi dans l’arc
décrit par l’écho en réflectivité (image de gauche). À d’autres azimuts, le vent radial n’est pas
perpendiculaire au déplacement du système (B), ce que l’analyste doit prendre en compte.
Le meilleur moyen de mesurer les vents dans les précipitations est la méthode Doppler
multiple, utilisée depuis le milieu des années 70, dans le contexte de programmes de recherche
scientifique sur le terrain, d’une durée limitée. On ne prévoit cependant pour l’instant aucune
utilisation opérationnelle en temps réel des doubles ou triples analyses Doppler, car les radars
doivent être relativement peu éloignés les uns des autres (~40 km). Les aéroports, dont les
exigences en matière de couverture spatiale sont limitées, pourraient constituer une exception:
des réseaux de radars en bande X pourraient y trouver leur utilité (McLaughlin et al., 2009;
Wurman et al., 1995).
De nombreuses techniques ont été proposées pour identifier la grêle au moyen de radars ayant
une longueur d’onde de 10 cm, par exemple par la présence d’un écho de 50 dBZ à une altitude
de 3 ou 8 km (Dennis et al., 1970; Lemon et al., 1978). Des études portant sur des techniques
Figure 7.28. Une forme linéaire ou curviligne dans les données de réflectivité (à gauche) ou
de vitesse radiale (à droite) fournit une autre signature de vents violents dangereux.
840 PARTIE II. SYSTÈMES D’OBSERVATION
Figure 7.29. L’image insérée en haut à gauche est un produit fondé sur la réflectivité
fournissant une idée de la taille des grêlons. La grande image de gauche présente un produit
fondé sur la diversité de polarisation qui permet de déterminer le type des précipitations, y
compris la grêle. L’image de droite présente l’analyse détaillée correspondante. Figure
reproduite avec l’aimable autorisation de Sudesh Boodoo, Environnement Canada.
empiriques, mais restreintes ont montré qu’il était possible de prévoir la taille de la grêle
(Treloar, 1998; Joe et al., 2004; Witt et al., 1998). Federer et al. (1978) ont constaté que l’altitude
de l’isohypse 45 dBZ doit être supérieure d’au moins 1,4 km à celle du niveau de congélation
pour que la présence de grêle soit probable. Un prolongement de cette méthode, vérifié par
l’Institut météorologique royal néerlandais, est utilisé sur le plan opérationnel (Holleman et al.,
2000; Holleman, 2001). Une autre technique pour améliorer la détection de la grêle consiste à
faire appel à des radars ayant deux longueurs d’onde différentes, généralement en bande X et
en bande S (Eccles et Atlas, 1973). L’explication physique de ce que les radars distinguent pour
de telles longueurs d’onde est essentielle pour comprendre les points forts et les limites de ces
techniques (évolution des hydrométéores en coupe et répartition de l’intensité).
Les radars Doppler sont particulièrement utiles pour suivre les cyclones tropicaux et pour
recueillir des données sur l’évolution dynamique de l’œil, du mur de l’œil et des bandes spirales
ainsi que sur la position et l’intensité des vents d’ouragan (Ruggiero et Donaldson, 1987;
Baynton, 1979).
Dans le sens strict du terme, la prévision immédiate est la description du temps présent et
du temps prévu jusqu’à une échéance de deux heures. Il s’agit d’une extrapolation linéaire
automatique de la situation présente établie grâce aux observations. Initialement, le système
de prévision immédiate se basait sur une analyse de corrélation croisée du déplacement des
échos de deux images radar (CAPPI) (Bellon et Austin, 1978). L’analyse du déplacement était
réalisée dans neuf secteurs de l’image, ce qui servait à extrapoler les échos sur un maximum de
90 minutes à venir. Des points étaient déterminés pour les besoins de la prévision immédiate
et on établissait un météogramme indiquant les valeurs correspondant à deux niveaux de
probabilité (figure 7.30). L’image de gauche est un produit CAPPI sur lequel on observe un
écoulement vers le nord‑ouest. La prévision immédiate est représentée à droite, elle fournit des
valeurs prévues de l’intensité des précipitations pour différents points géographiques (les deux
colonnes pour chaque lieu correspondent à deux niveaux de probabilité différents, la colonne de
gauche fournissant l’indication la plus probable). Seuls deux lieux sont indiqués sur l’image de
gauche afin qu’elle ne soit pas trop encombrée. Le météogramme est ici présenté sous la forme
d’une image; l’heure présente se situe à la première ligne du tableau et chaque nouvelle ligne
correspond à un pas de temps de dix minutes dans le futur. Cette prévision immédiate repose sur
l’hypothèse implicite selon laquelle les précipitations se poursuivront au cours des 90 minutes
à venir. Cet exemple illustre la spécificité caractéristique des prévisions immédiates: précision
dans le temps, dans l’espace ainsi que sur l’élément météorologique. La qualité de cette prévision
est très élevée sur les 20 à 30 premières minutes, ce qui permet de diffuser des alertes voire des
recommandations sur les mesures à prendre. L’hypothèse d’une évolution éventuelle n’est pas
prise en compte.
En utilisant des données radar composites à l’échelle continentale, que l’on met à l’échelle pour
filtrer les formes propres aux fréquences élevées ou aux réflectivités de faible échelle, on obtient
des prévisions immédiates de bonne qualité à échéance de six heures voire plus, cette qualité
surpassant pour le moment celle des données fournies par les modèles de prévision numérique
du temps. La durée de validité est donc meilleure que les prévisions immédiates de petite échelle,
mais le degré de qualité ne fournit pas les précisions nécessaires pour qu’il soit possible dans ce
cas de diffuser des alertes comprenant des recommandations sur les mesures à prendre.
+ KRA
+ ADL
Figure 7.30. Exemple de prévision immédiate fondée sur une corrélation croisée. On observe
(image de gauche) un flux de sud-ouest et le météogramme à droite donne une indication de
l’intensité des précipitations (suivant deux niveaux de probabilité différents, le plus probable
étant celui de la colonne de gauche) que les différentes stations météorologiques pourraient
enregistrer (seuls les emplacements de KRA (Krasnaya Polyana) et de ADL (Adler) sont
indiqués sur l’image de gauche; sixième et dixième colonnes du météogramme).
842 PARTIE II. SYSTÈMES D’OBSERVATION
L’étude au moyen de radars Doppler du rôle des lignes de convergence de la couche limite dans
la formation de nouveaux orages vient confirmer les résultats d’études antérieures des arcus
effectuées par satellite. Selon certaines indications, les lignes de convergence à méso‑échelle
de la couche limite (et notamment l’intersection de fronts de rafales issus d’une convection
antérieure) jouent un rôle majeur dans la détermination du lieu et du moment de formation de
perturbations. Wilson et Schreiber (1986) ont cité et expliqué plusieurs cas, observés par des
radars Doppler, de formation de tornades par des lignes de cisaillement du vent non imputables
à des précipitations (Mueller et Carbone, 1987).
Les échos de ciel clair peuvent provenir de fluctuations turbulentes ou d’insectes. Les études
portant sur les radars polarisés montrent que les insectes sont la source principale de ces retours.
Aux applications classiques de prévision immédiate viennent s’ajouter des éléments tels que la
prévision de la naissance et la dissipation des phénomènes convectifs ou la modélisation du cycle
de vie des orages, l’analyse tenant compte des données fournies par les modèles de prévision
numérique du temps (Wilson et al., 1998; Sun et al., 2013). Outre les données radar, les champs
associés des modèles, tels que la température et l’humidité sont aussi extrapolés (Crook et Sun,
2002; Sun et al., 2013). Des améliorations sont envisagées: augmentation de la durée du cycle
(rafraîchissement rapide, une heure voire mieux), raccourcissement du cycle de démarrage des
modèles à haute résolution et amélioration des principes de la physique au sein de ces modèles
(Sun et al., 2013). Une nouvelle application prend forme, à savoir la mise au point de prévisions
immédiates d’ensemble portant sur les précipitations, selon laquelle les données à petite
échelle sont filtrées et réévaluées à l’aide d’une famille d’estimations cohérentes du point de vue
statistique (Seed, 2003).
Figure 7.31. Les radars modernes sont dotés d’une sensibilité suffisante pour repérer les brises
de lac (A) et les sorties d’air orageux (B) (image de gauche). Aux intersections que forment les
différences d’écoulement se forment des ascendances marquées pouvant donner naissance à
des phénomènes convectifs (voir l’orage en formation entouré d’une ligne tiretée blanche en
forme de cercle).
CHAPITRE 7. MESURES RADAR 843
Le radar est employé depuis longtemps pour évaluer la distribution, l’intensité et donc la
quantité des précipitations avec une bonne résolution spatio‑temporelle. La plupart des études
réalisées portent sur la pluie, mais il est également possible de faire des mesures de neige en
tenant compte correctement de la composition des cibles. L’extraction de données sur l’intensité
des précipitations repose principalement sur des relations empiriques établies à partir de la
puissance du signal renvoyé au radar ou réflectivité (Marshall et Palmer, 1948; Marshall et Gunn,
1952; Wilson et Brandes, 1979; Chandrasekar et al., 2003). Les radars à double polarisation
utilisent d’autres informations, à savoir essentiellement le déphasage de l’onde de propagation
atténuée et le différentiel de rétrodiffusion que produisent les grosses particules non sphériques.
Les études approfondies sur la grêle sont rares en raison de la difficulté de rassembler des
données pour établir la réalité de terrain. Le lecteur trouvera chez Joss et Waldvogel (1990) et
chez Smith (1990) une analyse détaillée des problèmes qui se posent, des pièges à éviter ainsi
que de l’efficacité et de l’exactitude de ces évaluations. Les nouveaux systèmes de traitement des
données radar sont en mesure d’éliminer les échos de sol (y compris la propagation anormale)
de différentes façons, d’atténuer le profil vertical de réflectivité et d’ajuster les résultats en
fonction des données recueillies par des appareils de mesure des précipitations au sol ou des
disdromètres, le tout en temps quasi réel.
À grande distance, les erreurs dues à l’incapacité d’observer les précipitations à proximité du
sol et au manque de remplissage du faisceau sont généralement prédominantes. En raison de
l’amplification ou de l’évaporation des précipitations, des mouvements atmosphériques et du
changement de phase (glace et eau dans la couche de fusion ou bande brillante), on observe
des profils verticaux de réflectivité très variables, tant à l’intérieur d’un même événement
pluvieux que d’un événement à l’autre. L’expérience indique que le profil vertical pose moins
de problèmes en cas de pluie convective. Cependant, en cas de pluie ou de neige stratiforme,
ce profil vertical prend davantage d’importance. Avec la distance, le faisceau radar s’élargit
et prend de l’altitude. C’est pourquoi la différence entre les précipitations estimées par radar
et les précipitations mesurées au sol augmente également. En général, la réflectivité diminue
avec l’altitude, d’où une sous‑estimation des précipitations mesurées par radar en cas de
précipitations stratiformes (neige comprise). La figure 7.32 présente trois profils verticaux de
réflectivité correspondant à des situations météorologiques différentes, dans des conditions
idéales. Les profils sont présentés à une distance nulle. Ces profils subissent un lissage progressif
au fur et à mesure que la distance par rapport au radar augmente, en raison de l’étalement du
faisceau. L’effet de propagation du faisceau est également pris en compte, la partie inférieure
du profil contribuant de moins en moins à la valeur mesurée. À grande distance, en cas de
précipitations de faible altitude, la sous‑estimation risque d’être considérable, surtout si le
faisceau est occulté par des obstacles tels que des montagnes pour un faible angle de site. Les
erreurs de ce type ont souvent tendance à prédominer sur toutes les autres. On peut facilement
les laisser passer lorsqu’on observe des perturbations à faible distance uniquement ou lorsqu’on
analyse des perturbations toutes situées à peu près à la même distance du radar. Un radar dont
la largeur de faisceau est de 1° fournit des mesures quantitatives des précipitations de bonne
qualité sans ajustement à une portée utile d’environ 80 km (figure 7.33). Cette portée augmente
si le faisceau est plus étroit (elle atteint 120 km pour une largeur de faisceau de 0,65°).
Dans le cas de conditions météorologiques à basse altitude, se produisant surtout en hiver, l’effet
de lissage du faisceau (figure 7.32) réduit la réflectivité avec la distance, ce qui a pour effet des
accumulations (réflectivité radar ou intensité dérivée des précipitations) qui forment des échos
en forme d’anneaux concentriques (figure 7.33, à gauche). Un remplissage non uniforme du
volume sondé en fonction de la distance contribue aussi à la réduction rapide de la réflectivité.
Le diagramme de droite met en évidence cette dégradation dans les estimations des quantités
de précipitations par comparaison avec les valeurs mesurées sur une saison par des appareils de
mesure des précipitations (rapport entre les mesures radar et celles relevées par des appareils
de mesure des précipitations au sol). Dans ce lieu précis, avec ce radar doté d’une ouverture
angulaire de 1° et des conditions météorologiques propres à l’hiver finlandais, la portée utile (la
partie plate de la courbe) atteint environ 80 km (évaluations directes des précipitations). Comme
844 PARTIE II. SYSTÈMES D’OBSERVATION
Hauteur (km)
100 % 100 % 100 % 99 % 93 % 81 %
5
1
Précipitations convectives
0
7
Hauteur (km)
5
200 % 127 % 109 % 101 % 90 % 67 %
1
Précipitations stratiformes
0
7
Hauteur (km)
5
14 %
28 %
3 44 %
200 % 99 % 65 %
Neige
1
Pluie à basse altitude
0
0 50 100 150 200 250
Distance (km)
l’effet examiné est de nature géométrique, un faisceau plus étroit se traduirait par une portée
utile plus élevée. C’est ce que le diagramme présente pour un faisceau de 0,65° d’ouverture, ce
qui étend la portée à environ 110 ou 120 km.
Aucune technique de compensation en temps réel des effets du profil vertical de la réflectivité ne
fait l’unanimité. Nous pouvons néanmoins en citer trois:
Kuopio, hiver
30
65° N
28
26
24
64° N
22
20
18
63° N
16
F (dB)
14
Faisceau de 1°
62° N 12
10
8
6 Faisceau de 0,65°
61° N
4
24° E 26° E 28° E 30° E
2
Cumul de précipitations (mm/3 mois) 0
–2
0 40 80 120 160 200 240
Distance (km)
0,1 0,250,5 1 2 4 8 16 32 64 128 256 > 25
6
Figure 7.33. L’image représente un cumul des précipitations sur un hiver, dérivé de données
radar. Les anneaux concentriques sont dus principalement à un mauvais remplissage du
volume sondé à grande distance par des systèmes météorologiques hivernaux de basse
altitude. À droite, le diagramme montre comment cela se traduit par une erreur systématique
fonction de la distance, par comparaison entre les données radar et les données des appareils
de mesure des précipitations au sol (figure reproduite avec l’aimable autorisation de Daniel
Michelson, Institut suédois de météorologie et d’hydrologie, et établie à partir de données
fournies par l’Institut finlandais de météorologie).
CHAPITRE 7. MESURES RADAR 845
Figure 7.34. Il s’agit ici d’un front stationnaire est-ouest. L’image de gauche présente une
dégradation avec la distance (voir la figure 7.33). L’image de droite présente l’ajustement
apporté aux données en fonction de la distance (figure reproduite avec l’aimable autorisation
de Jarmo Koistinen, Institut finlandais de météorologie).
a) Corrections selon la distance: l’effet du profil vertical est associé à l’altitude croissante
de l’axe du faisceau et à son élargissement avec la distance. On peut ainsi faire intervenir
un facteur climatologique moyen dépendant de la distance pour apporter une première
correction. Les facteurs seront différents selon la catégorie des précipitations: convectives
ou stratiformes, par exemple;
b) Corrections variables dans l’espace: des corrections variant selon l’azimut et la distance
peuvent être utiles si les caractéristiques des précipitations changent systématiquement
dans la zone considérée ou si la couverture radar n’est pas uniforme en raison de la
topographie ou d’obstacles locaux. Si les informations de base sont suffisantes, on peut
introduire des facteurs moyens de correction dans des tables de correction appropriées.
Sinon, il faut déduire les corrections à apporter des données sur la réflectivité proprement
dites ou d’une comparaison avec les données pluviométriques;
c) Profil vertical complet: le profil vertical dans les précipitations varie selon l’endroit et le
moment, et le niveau le plus bas visible à partir d’un radar varie généralement en raison
de l’irrégularité de l’horizon radar. Par conséquent, un processus de correction point par
point, faisant appel à un profil vertical représentatif pour chaque zone considérée, est
parfois nécessaire afin d’obtenir des résultats optimaux. Des profils représentatifs peuvent
être obtenus à partir des données du balayage volumique d’un radar elles‑mêmes, de
compilations climatologiques ou de modèles de précipitations. Cette technique est la plus
complexe, mais elle peut être appliquée grâce aux systèmes de traitement de données
actuels (Joss et Lee, 1993).
La figure 7.34 présente un exemple de cette dernière méthode de correction du profil vertical
de réflectivité selon la distance, qui est maintenant utilisée de façon habituelle à l’échelle d’un
réseau de radars. L’image de gauche montre un cumul sur 24 h de l’intensité des précipitations
dérivée des données radar, au cours du passage d’un front stationnaire. On s’attendrait à
observer une image largement uniforme. L’image de droite est établie grâce à un ajustement de
l’effet du profil vertical à grande distance, ce qui renforce le cumul sur les bords de l’écho. Les
différences entre ces deux images montrent aussi les avantages d’un travail en réseau dans la
conception d’un produit de précipitations, étant donné qu’il n’est pas évident au sein d’un réseau
d’isoler pour chaque radar l’effet du profil vertical.
846 PARTIE II. SYSTÈMES D’OBSERVATION
Dans des conditions idéales (proximité par rapport au radar, pas d’artéfacts), l’évaluation des
précipitations repose habituellement sur l’emploi de la relation Z–R:
Z = A Rb (7.13)
où A et b sont des constantes. Cette relation n’est pas la seule qui existe: de multiples rapports
empiriques ont été établis pour divers climats, zones ou types de précipitations. Les valeurs
nominales et caractéristiques des constantes sont A = 200 et b = 1,60 (Marshall et Palmer, 1948;
Marshall et Gunn, 1952). Cette relation s’applique avec une exactitude de facteur deux tant
pour la pluie que pour la neige. L’équation est développée en fonction d’un certain nombre
d’hypothèses qui ne sont pas nécessairement valables à 100 % dans tous les cas. Néanmoins,
les relevés historiques et l’expérience indiquent que dans la plupart des cas, ce rapport donne
une bonne indication des précipitations au niveau du sol, sauf en cas d’anomalies flagrantes
(figure 7.35). Une enquête portant sur l’emploi de la relation Z–R dans le monde a montré que
la relation Marshall‑Palmer s’applique à 80 % des radars météorologiques opérationnels, ce
qui est remarquable, compte tenu du très petit nombre de points de données qui ont servi à
élaborer cette relation (Sireci et al., 2010). La ligne rouge sur la figure 7.35 représente la relation
initiale de Marshall‑Palmer (formulée dans Marshall et Gunn, 1952 et Marshall et Palmer, 1948).
Plusieurs tentatives d’amélioration ont été entreprises au fil des ans; les résultats obtenus sont
représentés par les lignes noires (Battan, 1973). Encore une fois, il est remarquable que la relation
telle qu’elle a été établie à l’origine, à partir de si peu de mesures et pour un régime de conditions
météorologiques bien précis, ait surmonté l’épreuve du temps.
On peut faire état de certaines généralités. Pour une longueur d’onde de 5 ou 10 cm,
l’approximation de Rayleigh est valable pour la plupart des applications, sauf en présence
de grêlons (Z > 57 dBZ est souvent pris pour limite entre la pluie et la grêle). Une grande
concentration de glace mêlée à de l’eau peut provoquer des anomalies, surtout à proximité du
niveau de fusion. Si l’on tient compte de l’indice de réfraction de la glace (|K|2 = 0,208) et que l’on
choisisse un rapport correct entre la réflectivité et l’intensité des précipitations (Z par rapport à
R), on peut évaluer la quantité de précipitations de façon suffisamment précise en cas de neige.
(On prend un indice de 0,208 au lieu de 0,197 pour la glace afin de tenir compte du changement
de diamètre des particules pour des particules d’eau et de glace de même masse.) Les mesures
nivométriques sont cependant source de problèmes et peu d’études approfondies portent sur la
relation entre les données radar et les données nivométriques.
103
Marshall-Palmer – stratiforme
Blanchard – orographique
Jones – convective
Sud-ouest de l’Ontario – universelle
102
R (mm/h)
101
100
10–1
10 20 30 40 50 60 70
Z (dBZ)
Figure 7.35. Diagramme présentant bon nombre de relations Z–R, d’après Battan (1973).
Les relations empiriques Z–R et leurs variations d’un événement pluvieux à l’autre ou à l’intérieur
d’un même événement font l’objet de nombreuses études depuis une quarantaine d’années,
notamment des études propres à des épisodes particuliers. On peut obtenir une relation Z–R en
calculant les valeurs de Z et de R à partir de la répartition granulométrique des gouttes mesurée
par un disdromètre. Une autre solution consiste à comparer la valeur de Z mesurée en altitude
par un radar (on l’appelle alors «réflectivité radar équivalente» et on la désigne par Ze) avec la
valeur de R mesurée au sol. Cette technique consiste à intégrer toute différence existant entre
l’intensité des précipitations en altitude et l’intensité de celles qui atteignent le sol. Comme
elle peut aussi répercuter des erreurs d’étalonnage du radar, le résultat n’est pas strictement
une relation Z–R. On installe maintenant des disdromètres au sein de réseaux d’exploitation
pour déterminer la relation Z–R, afin de répondre aux besoins de la climatologie, des études
des événements pluvieux et de l’ajustement des mesures en temps réel; ces appareils sont très
sensibles et peuvent détecter des précipitations très fines.
On s’est beaucoup penché sur la possibilité de tenir compte d’une partie de la variabilité des
relations Z–R en stratifiant les événements pluvieux selon le type de précipitations (convective,
non cellulaire, orographique). Les variations de la répartition granulométrique des gouttes sont
assurément importantes, mais leur importance relative est souvent surestimée. Si l’on établit des
moyennes dans le temps et/ou dans l’espace, on constate que les erreurs liées à ces variations
dépassent rarement un facteur deux pour l’intensité des précipitations. À faible distance, ces
erreurs constituent la principale source de variation dans le cadre d’expériences bien définies.
On s’accorde généralement pour dire qu’il faudrait effectuer régulièrement des comparaisons
avec les données pluviométriques afin de contrôler les performances des radars, et qu’il faudrait
apporter les corrections voulues si des erreurs systématiques apparaissent clairement. Il faut
cependant opérer à bon escient, car une correction fine correspondant à une situation donnée
risque de créer des problèmes dans d’autres. Si les résultats obtenus par un radar sont nettement
erronés en raison d’un problème d’étalonnage ou autre, de telles corrections peuvent conduire à
des améliorations sensibles.
Les estimations de précipitations au sol à l’aide de systèmes radar sont réalisées généralement
pour des superficies de l’ordre de 1 à 4 km2, à intervalle de 5 à 15 minutes, en utilisant des
848 PARTIE II. SYSTÈMES D’OBSERVATION
sondages PPI (indicateur panoramique) suivant un angle d’élévation faible (< 1°), des produits
synthétiques CAPPI (indicateur panoramique à altitude constante) ou des produits encore plus
perfectionnés. On a constaté que les estimations radar sont comparables aux relevés ponctuels
obtenus à partir de pluviomètres à un facteur deux près. Alors que le pluviomètre échantillonne
une superficie extrêmement réduite (de 100 à 200 cm2), le radar intègre un volume à bien
plus grande échelle (de 1 à 4 km2). Cette disproportion est à l’origine de bien des écarts entre
les deux types de mesure. Certains éléments portent à croire que l’exactitude des données
pluviométriques est nettement inférieure, dans certains cas, à ce qu’on pense généralement,
surtout si ces données proviennent d’un nombre relativement faible de pluviomètres (Neff,
1977). Il faut donc accorder de l’importance au choix du paramètre le mieux adapté. Les
moyennes saisonnières peuvent être acceptables pour certaines applications et une seule
relation Z–R pourra alors suffire. Par contre, il faudra probablement apporter des corrections en
temps réel quand il s’agira de mesures destinées au déclenchement éventuel d’alertes aux crues
soudaines.
Il y a lieu de noter que ces corrections n’assurent pas automatiquement une amélioration
des mesures effectuées par radar: les résultats corrigés sont parfois plus mauvais que ceux
d’origine. Il en va ainsi notamment dans le cas de pluies de convection où le développement
vertical des échos réduit les difficultés liées au profil vertical et où les données pluviométriques
sont suspectes en raison d’un échantillonnage non représentatif. En outre, la distance de
décorrélation spatiale est parfois faible et la comparaison pluviomètres‑radar devient de plus
en plus inexacte avec la distance au pluviomètre. On peut adopter une règle générale selon
laquelle les corrections n’apportent d’améliorations sensibles que si la différence systématique
(c’est‑à‑dire le biais systématique) existant entre l’intensité des précipitations mesurée par radar
et celle mesurée par des pluviomètres est plus grande que l’écart type de la dispersion aléatoire
entre mesures pluviométriques et radar. Cette règle, qui permet de déterminer s’il convient
d’utiliser des données pluviométriques pour procéder à des corrections, nous incite à contrôler
les données disponibles avant d’apporter quelque correction que ce soit. Diverses techniques ont
été étudiées à cet égard, mais aucune ne fait l’unanimité jusqu’à présent.
Plusieurs techniques faisant appel à des radars à diversité de polarisation ont été proposées pour
améliorer la mesure de l’intensité des précipitations. On a supposé notamment que la différence
entre la réflectivité mesurée pour une polarisation horizontale et verticale (Z DR) ou un déphasage
(ϕDP ou K DP) pourrait donner des indications utiles sur la répartition granulométrique des gouttes
(Seliga et Bringi, 1976). Ces techniques dépendent de la distorsion hydrodynamique subie par
les grosses gouttes et de l’intensification de la pluie avec l’augmentation de la taille des gouttes,
qui donne une signature de polarisation plus nette. Il faut d’abord corriger l’atténuation et là
encore il est possible d’appliquer les techniques de la double polarisation. Beaucoup de travaux
de recherche se poursuivent pour savoir si cette technique est prometteuse pour la mesure des
précipitations dans un cadre opérationnel (English et al., 1991). Pour des longueurs d’onde
relativement grandes, les seuils d’intensité des précipitations pour lesquels les techniques de K DP
sont efficaces sont plus élevés (par exemple environ 20 mm h‑1 en bande S et environ 4 mm h‑1 en
bande X).
À faible distance (pour une résolution spatiale élevée), les radars à diversité de polarisation
sont susceptibles d’offrir des informations précieuses sur la répartition des particules et d’autres
paramètres dépendant de la physique des nuages. À plus grande distance, on ne peut être sûr
que le faisceau radar soit rempli d’hydrométéores répartis de façon homogène, ce qui rend
plus incertaine la relation empirique établie entre la signature polarimétrique et la répartition
granulométrique des gouttes. Bien évidemment, le fait de mieux connaître la relation Z–R sera
utile, mais même si des techniques à paramètres multiples étaient parfaitement au point, l’erreur
imputable à cette relation ne passerait que de 33 % à 17 %, comme l’ont indiqué Ulbrich et Atlas
(1984). Pour des applications hydrologiques à faible distance, la correction des autres erreurs
systématiques (que nous avons abordées ci‑dessus) est généralement plus importante, d’un
facteur 10 ou parfois davantage.
CHAPITRE 7. MESURES RADAR 849
a b
c d
Figure 7.36. Les images de la partie supérieure montrent l’atténuation pour un radar à double
polarisation en bande C (a) par comparaison avec un radar en bande S (b) à un moment
précis. Les images de la partie inférieure sont des cumuls de précipitations correspondant à la
durée de l’épisode pluvieux; elles montrent de grandes similitudes après correction
découlant de la capacité de mesure en diversité de polarisation (voir le corps du texte
et la figure 7.37; figure reproduite avec l’aimable autorisation de Sudesh Boodoo,
Environnement Canada).
Les radars à double polarisation sont en mesure de résoudre les problèmes que posent
l’atténuation, le remplissage partiel du faisceau et l’occultation partielle du faisceau. La
figure 7.36 présente le cas d’une correction de l’atténuation par la technique de la polarisation
appliquée aux données d’un radar en bande C. Les paramètres d’une double polarisation sont
sensibles au diamètre et à la forme des grosses particules et plus la longueur d’onde est courte,
plus le radar est sensible. Dans l’exemple fourni, un système de fortes précipitations ayant causé
des inondations est observé par un radar en bande C et par un radar en bande S. Les inondations
en question se sont produites à environ 40 km du radar en bande C, celui de King City (ouverture
de 0,65°) et à environ 100 km du radar en bande S, celui de Buffalo (ouverture de 1°). Les
images a et b donnent une idée de la réflectivité radar à basse altitude, à un instant donné et
pour les deux radars. Les lignes de maille rouges sont des lignes de référence. Le pluviomètre se
situe à environ 7 km au sud‑ouest du centre de l’image. On observe une atténuation de l’écho
en bande C par rapport à l’écho en bande S (intensité plus forte dans l’image b). Le fait que
le radôme du radar en bande C ait été mouillé au cours de cet épisode contribue grandement
à l’atténuation du signal. Les images c et d correspondent aux cumuls tirés des produits de
précipitations dérivés de la double polarisation qu’ont fournis les deux radars pour la durée
de l’épisode pluvieux (8 h) (voir également la figure 7.37). La différence de résolution apparaît
clairement, mais la forme des cumuls est très semblable. Cela montre qu’un radar en bande C
à double polarisation dispose du potentiel pour fournir des données de qualité malgré une
atténuation marquée. Il est intéressant de noter que les estimations fondées sur la double
polarisation à partir du radar en bande S étaient en réalité inférieures et plus proches de la
valeur fournie par le pluviomètre (non indiquée) que celles fondées sur la relation Z–R classique,
puisqu’on avait eu recours à la classification des particules entre grêle et pluie pour éviter une
surestimation.
La figure 7.37 illustre la comparaison de diverses estimations de précipitations fournies par des
radars en bandes C et S et un pluviomètre. Les courbes inférieure (C1) et supérieure (S1) sont des
cumuls tirés d’une simple conversion classique de la réflectivité en intensité des précipitations
(Z = 300 R1,4) pour le radar en bande C de King City (situé à 40 km de l’emplacement du
pluviomètre) et pour le radar en bande S de Buffalo (situé à 100 km de l’emplacement du
850 PARTIE II. SYSTÈMES D’OBSERVATION
120
(losanges jaunes)
60
40
Figure 7.37. Météogramme d’un cumul de pluies pour un même emplacement (celui du
pluviomètre) présentant les résultats obtenus à partir des données d’un pluviomètre (ligne
jaune formée de losanges), dont l’emplacement se situe à environ 7 km au sud-ouest du
centre, et des estimations, fondées sur différentes techniques en diversité de polarisation,
fournies par trois radars en bande C (C1, C2, C3) et deux radars en bande S (S1, S2)
(voir la figure 7.36; figure reproduite avec l’aimable autorisation de Sudesh Boodoo,
Environnement Canada).
pluviomètre). Les deux radars sont bien étalonnés et la seule correction appliquée aux données
est un rejet Doppler des échos de sol. La courbe Z AC –R (C2) correspond à une conversion,
suivie d’un cumul, de la réflectivité Z DR en intensité des précipitations dont seule l’atténuation
est corrigée. Les courbes tiretée (S2) et bleu foncé (C3) représentent des estimations obtenues
respectivement par une conjugaison de techniques de double polarisation par le radar en
bande S (S2) et par la technique K DP – R qu’applique le radar en bande C (C3). L’amélioration
des résultats obtenus par le radar en bande S de Buffalo est attribuée à l’élimination de l’erreur
systématique due à la grêle à l’aide de la technique de classification des particules en double
polarisation. Quant à l’amélioration des estimations fournies par le radar en bande C de King
City, elle est due à la technique reposant sur la phase différentielle spécifique (K DP) qui est
insensible à l’atténuation, à l’occultation partielle du faisceau et au remplissage partiel du
faisceau. Cette figure donne une idée de l’incidence de la double polarisation sur les données
quantitatives que l’on peut tirer des radars tant en bande S qu’en bande C. Elle montre aussi que
l’influence de cette double polarisation est plus marquée dans le cas des radars en bande C.
Avec les radars classiques ou à simple réflectivité, on utilisait la forme et l’intensité des échos pour
évaluer grossièrement la nature de la cible. En été, on estimait que les réflectivités inférieures
à environ 12 dBZ correspondaient à des échos en l’absence de précipitations, jusqu’à environ
30 dBZ on estimait qu’il s’agissait de pluies faibles et jusqu’à environ 50 dBZ de pluies fortes. Les
réflectivités supérieures à 57 dBZ étaient attribuées à la grêle. Dans le plan horizontal, ce type de
radar n’est pas en mesure d’établir une distinction entre la pluie et la neige. Dans le plan vertical,
la bande brillante (région de réflectivité accrue provoquée par une masse importante de gros
flocons de neige mouillée) établissait la limite entre la neige en altitude et la pluie au‑dessous.
Les radars à double polarisation déterminent le type des cibles grâce à des informations
recueillies par deux voies orthogonales, leur signal de polarisation croisée et les déphasages de
la propagation. On utilise aussi les données sur la température et l’humidité en surface et les
CHAPITRE 7. MESURES RADAR 851
sondages simulés par les modèles de prévision numérique du temps. Les techniques de logique
floue utilisent des estimations indépendantes établies à partir de différents paramètres en double
polarisation pour établir le type des échos qu’elles classent en diverses catégories, notamment
les échos de sol, la pluie, la neige, la grêle, les échos biologiques, voire les gouttes de grand et de
petit diamètre (figure 7.29).
Les radars classiques détectaient les aéronefs sous la forme d’anomalies ponctuelles isolées et
les échos de sol sous la forme d’échos stationnaires ou permanents à courte distance du radar.
Les réflectivités des aéronefs et des échos de sol peuvent varier grandement, puisqu’une petite
variation de l’angle sous lequel se présentent les objets entraîne des changements importants de
l’onde rétrodiffusée.
Les radars Doppler continuent de détecter les cibles fixes, tels les échos de sol et les échos
correspondant aux anomalies de propagation, en présence de précipitations. Le traitement du
signal permet de filtrer avec efficacité les cibles au sol pour produire un affichage de la réflectivité
sans échos de sol. Presque tous les radars modernes sont des radars Doppler et possèdent cette
capacité. Avant l’entrée en service des radars Doppler, on utilisait différentes techniques pour
éliminer les échos de sol: i) le recours à un CAPPI, ii) l’emploi de cartes d’échos de sol, et iii)
l’emploi de données statistiques de la fluctuation de la réflectivité.
Les vitesses Doppler sont des vitesses radiales dont une seule et même valeur peut correspondre
à bon nombre de vitesses réelles. Les données en vitesses radiales seules sont donc ambiguës
et leur interprétation se fonde nécessairement sur des hypothèses de simplification. Suivant
un affichage couleur type, les vitesses de l’intervalle ±Vmax sont généralement représentées
par des couleurs chaudes et froides pour indiquer leur différence de sens: rapprochement ou
éloignement par rapport au radar. Les vitesses situées en dehors de l’intervalle de Nyquist
(vitesse haute ou non ambiguë) passent par l’échelle de couleurs en commençant par l’extrémité
opposée. Le processus peut être répété s’il y a un repliement des vitesses sur plus d’un intervalle
de Nyquist.
On peut utiliser un radar Doppler pour obtenir le profil vertical des vents horizontaux à l’échelle
synoptique. Lorsque l’antenne du radar est orientée au‑dessus de l’horizontale, l’altitude
augmente en fonction de la distance. Il est possible d’obtenir un profil du vent selon l’altitude
en ajustant les courbes sinusoïdales en fonction des données observées (technique baptisée
Velocity Azimuth Display (affichage vitesse‑azimut) ou VAD, d’après Lhermitte et Atlas, 1961) si on
estime que le vent est relativement uniforme ou linéaire dans la zone balayée. Dans les cellules
du volume sondé dont la vitesse radiale est nulle, le vent est perpendiculaire à l’axe du faisceau
radar. Les données VAD obtenues pour des systèmes de précipitations de grande échelle sont
faciles à interpréter sur des écrans couleur. Dans le cas de précipitations de grande étendue, un
tracé conique élevé, tout à fait caractéristique, fait apparaître une courbe en forme de S pour une
vitesse radiale nulle lorsque le vent moyen tourne dans le sens des aiguilles d’une montre avec
l’altitude (Wood et Brown, 1986). Dans d’autres cas, on peut distinguer des courbes fermées
représentant des courants‑jets. La figure 7.12 présente un exemple de champs de vents Doppler à
l’échelle synoptique.
S’il est possible de poser l’hypothèse d’uniformité, on peut alors évaluer la divergence au moyen
de la technique VAD en insérant une constante dans l’équation pour ajuster la courbe. Cette
technique ne peut cependant pas être employée de façon précise en cas de précipitations de
convection autour du radar, puisque l’hypothèse d’uniformité ne peut alors être satisfaite. On
a quand même réussi, au moyen de radars Doppler, à obtenir par cette technique des profils
du vent et des estimations de la divergence dans la couche limite, lorsqu’elle est optiquement
dégagée, pendant tous les mois de l’année sauf les plus froids, jusqu’à une hauteur de 3 à 5 km
au‑dessus du sol. La technique VAD semble bien adaptée à la mesure de vents émanant de
systèmes de précipitations associés à des cyclones tropicaux et extratropicaux. Lorsque le radar
852 PARTIE II. SYSTÈMES D’OBSERVATION
Depuis le milieu des années 70, on procède à des expériences de mesure de champs de vent
tridimensionnels au moyen de réseaux de plusieurs radars Doppler. Les mesures effectuées en
un endroit donné, dans une zone de précipitations, peuvent être combinées au moyen d’une
transformation géométrique appropriée pour produire les trois composantes du vent. On peut
également aboutir à de telles estimations au moyen de deux radars uniquement, en faisant appel
à l’équation de continuité. Browning et Wexler (1968) ont présenté une analyse cinématique
d’un champ de vent. Pour que l’estimation de vitesse soit exacte, il faut cependant que les radars
soient suffisamment rapprochés l’un de l’autre (entre 40 et 80 km) et que la cible se trouve dans
deux lobes perpendiculaires à l’axe des radars. Dans la réalité du cadre opérationnel, il est peu
fréquent de trouver des radars aussi rapprochés l’un de l’autre.
Des centres de prévision numérique du temps, à des fins d’assimilation de données, recueillent
une diversité de données et de produits radar. Tous les modèles n’utilisent pas les mêmes
produits. Les précipitations constituant un paramètre dérivé dans les modèles de prévision
numérique du temps, il est difficile d’assimiler directement les champs de précipitations ou
de réflectivité. Les vents représentant des variables directes des modèles, les vitesses radiales
nécessitent moins d’artifices pour être assimilées. Cela comprend les profils du vent en VAD,
les champs composites de précipitations en surface déduits des données radar pour des
modèles mondiaux et, dans certains cas, des champs de réflectivité et de vitesse radiale en trois
dimensions pour des modèles de zones locales ou de petite échelle, en coordonnées polaires.
Lopez (2011) a montré qu’il était utile d’assimiler le produit de précipitations de surface de
« stade IV » pour les États‑Unis d’Amérique sur les conditions atmosphériques en Europe et en
Asie. Ces activités ainsi que d’autres applications (suivi des typhons) représentent les principaux
éléments moteurs de l’initiative lancée en faveur de l’échange à l’échelle mondiale des données
des radars météorologiques.
La restitution de l’humidité à partir des différences de propagation du faisceau par les cibles
permanentes au sol constitue une innovation dans le domaine des radars (Fabry, 2004). Cette
CHAPITRE 7. MESURES RADAR 853
innovation paraît paradoxale, puisque le choix du site des radars météorologiques vise à réduire
autant que possible les cibles qui produiront des échos de sol. Les variations de l’indice de
réfraction entraînent des variations de la longueur de la trajectoire de propagation du faisceau
qui peuvent être détectées sous la forme de déphasages du signal ou de décalages Doppler.
En comparant ces déphasages et décalages dans des conditions sèches par opposition à des
conditions humides, et en tenant compte des ambiguïtés de portée, il est possible d’évaluer
la variation de la longueur de la trajectoire et de la relier à la variation de l’indice de réfraction
par la loi de Snell. L’indice de réfraction est fonction de la température, de la pression et surtout
de l’humidité, si bien qu’il est possible d’extraire des données sur l’humidité à faible distance
du radar. Plusieurs radars de recherche disposent de cette capacité et certains systèmes en
exploitation (en France et au Royaume‑Uni) l’utilisent à titre de prototype avant de passer à une
utilisation dans le cadre opérationnel.
Il est possible de traiter les données radar pour élaborer différents produits météorologiques
utiles dans diverses applications. La qualité de ces produits est fonction de plusieurs facteurs:
le type du radar, la stratégie de sondage, les caractéristiques de traitement des signaux, le
système de commande et le système d’analyse et de production de données. Ces produits
sont divers: grilles de données brutes ou de paramètres dérivés, profils verticaux du vent,
emplacements et caractéristiques des cellules orageuses analysées, avec leurs trajectoires
observées et des données prévues dans l’immédiat à leur sujet, etc. Les données en coordonnées
polaires sont converties en coordonnées cartésiennes tridimensionnelles grâce à des techniques
d’interpolation et en grilles de données suivant différentes projections géographiques. La
figure 7.24 présente des exemples de certains des produits dont la liste suit. Le tableau 7.10
fournit une liste de produits radar types.
a) Vue panoramique (PPI) – Cet affichage donne une représentation polaire d’une variable
à partir d’une seule rotation complète d’antenne pour un angle de site donné. Il s’agit de
l’affichage radar classique, utilisé pour la surveillance météorologique. C’est le produit
radar de base. Il y a lieu de noter qu’il est réalisé à un angle de site constant et qu’une
augmentation de la portée signifie que les données proviennent d’une altitude plus élevée.
Cet affichage peut s’appliquer à tout paramètre.
b) Vue panoramique à altitude constante (CAPPI) – Cet affichage propose une coupe
horizontale d’une variable à une altitude donnée par interpolation à partir des données
volumiques. On s’en sert pour la surveillance et l’identification des orages de forte intensité.
Il est également utile, en matière de circulation aérienne, pour le suivi des conditions
météorologiques à des niveaux de vol donnés. L’un des intérêts que présente ce type
de produit est le suivant: par un choix judicieux de l’altitude, il est possible d’élaborer
un produit presque sans échos parasites, sans qu’il soit nécessaire de disposer d’un filtre
coupe‑bande pour éliminer les vitesses Doppler nulles.
g) Sommet des échos – C’est une représentation, dans le plan horizontal, de l’altitude la plus
élevée à laquelle est observée une valeur de réflectivité donnée, qu’on obtient en analysant
les données volumiques. Ce produit donne une idée de la puissance du courant ascendant,
c’est donc un indicateur de phénomènes météorologiques violents et de grêle.
Outre ces représentations standard ou de base, d’autres produits peuvent être élaborés pour
répondre aux besoins particuliers des divers utilisateurs (hydrologie, prévision immédiate ou
aviation):
a) Cumul des précipitations – Évaluation des précipitations cumulées dans le temps en chaque
point de la zone observée;
b) Total des précipitations par sous‑bassin – Précipitations cumulées intégrées sur une
superficie.
e) Suivi des orages – Le produit fait appel à un logiciel complexe; il permet de déterminer la
trajectoire de cellules orageuses et de prévoir la future position du centre de gravité de ces
cellules;
g) Profil de la divergence – Il s’agit d’une estimation de la divergence par rapport aux données
sur la vitesse radiale, compte tenu de certaines hypothèses;
i) Signature tourbillonnaire des tornades – Ce produit est issu d’un logiciel perfectionné de
reconnaissance de structures qui détecte les signatures de cisaillement «porte‑à‑porte»
à partir de données tridimensionnelles sur la vitesse à l’échelle de la circulation
tourbillonnaire des tornades;
j) Type de particules – L’écho est classé par type de précipitations à partir des données de
double polarisation.
En outre, le traitement des données provenant de réseaux de radars donne pour résultat une
mosaïque radar. Les produits dont il a été question ci‑dessus sont repris, mais à l’échelle d’un
réseau de radars, ce qui est en fait une pratique courante. Les éléments à prendre en compte
dans les produits radar sont notamment les suivants: i) les projections servent à la visualisation
des données; ii) pour les surfaces où les zones couvertes par les radars se chevauchent, on fait
appel à divers algorithmes qui se fondent soit sur les valeurs maximales fournies par le radar
le plus proche, soit sur une estimation perfectionnée de la qualité des données. En cas de
chevauchement important, un radar proche peut remplir le vide correspondant au cône de
silence. Pour élaborer des produits à partir de données issues de réseaux de radars, il faut aussi
s’assurer de l’homogénéisation des données au sein d’un même réseau et entre les différents
réseaux. Cela comprend une harmonisation temporelle et spatiale des données ainsi qu’un
alignement par étalonnage mutuel des données radar et la prise en compte des sensibilités des
radars qui peuvent entraîner des discontinuités dans des produits de réseaux.
ANNEXE 7.A. DIRECTIVES DE L’OMM SUR LE PARTAGE DU SPECTRE DES
RADIOFRÉQUENCES UTILES AUX RADARS MÉTÉOROLOGIQUES
Préoccupée par la pression accrue qui pèse sur les bandes de radiofréquences utiles aux
radars météorologiques, l’OMM insiste sur la nécessité de déployer des efforts adaptés visant
à se protéger contre la perte de l’utilisation des fréquences de ce spectre ou à atténuer les
effets d’un partage du spectre en question. L’Organisation s’adresse aux décideurs, aux
organismes nationaux de réglementation des radiofréquences, aux sociétés hydrologiques et
météorologiques nationales, aux fournisseurs d’équipements de télécommunication et à la
communauté météorologique.
Les modèles de prévision du temps et les prévisions d’exploitation localisées dépendent aussi
de plus en plus des réseaux nationaux de radars météorologiques Doppler terrestres pour
les avis de conditions météorologiques extrêmes, comme les tornades, les crues éclair et les
ouragans qui pénètrent à l’intérieur des terres, pour les prévisions de précipitations (pluie, neige,
grêle), pour la prévention du givrage d’aéronef et pour que les aéronefs évitent les conditions
météorologiques défavorables. À l’échelle de la planète, les réseaux de radars Doppler doivent
faire face à des pressions accrues découlant d’un partage du spectre avec des applications libres
(non assujetties à l’obtention de licence) de réseaux hertziens large bande. Comme cela est
déjà le cas en Europe, le brouillage des radiofréquences par les communications hertziennes
peut rendre les radars météorologiques aveugles dans certaines directions voire sur une grande
partie de leur couverture. On observe une aggravation de la situation découlant de la nature
tentaculaire de ces applications hertziennes et du fait qu’elles ne sont pas assujetties à l’obtention
de licence. Cela pourrait entraîner une perte totale du spectre des fréquences utiles aux radars
météorologiques.
Les travaux de mise au point de nouvelles techniques radar, y compris des stratégies de sondage
adaptatif, des impulsions de plus courte durée, la polarisation, la compression des impulsions,
l’agilité de fréquence et de phase, se poursuivent. Les systèmes radar qui équipent les satellites en
orbite ou qui équiperont les missions déjà planifiées mesurent les nuages et les précipitations, ce
qui revêt une grande importance pour les prévisions météorologiques et les travaux de recherche
et d’évaluation dans le domaine du changement climatique planétaire. À l’heure actuelle, des
expérimentations portent sur diverses techniques radiométriques de télédétection spatiale et
terrestre qui pourraient justifier à l’avenir de nouvelles attributions de radiofréquences.
des fréquences crée des problèmes. Elle encourage le financement et la réalisation d’études
visant à déterminer les conséquences d’une perte totale ou partielle d’une ou plusieurs bandes
de fréquences utilisées par les systèmes d’observation actuellement en exploitation, ou dont
l’entrée en service est prévue. Elle recommande par ailleurs que les résultats de ces études
soient communiqués aux commissions d’étude des radiocommunications relevant de l’UIT, aux
organismes nationaux de réglementation en matière de radiofréquences et aux industries des
télécommunications, pour favoriser le dialogue entre les utilisateurs actifs et passifs du spectre
en question. La vigilance s’impose, car la qualité des données météorologiques risque fort de se
dégrader en raison de la progression des intrusions sur les fréquences en question ou du partage
du spectre. L’OMM encourage la coopération avec les organismes nationaux de réglementation
en matière de radiofréquences, l’industrie des télécommunications et d’autres utilisateurs du
spectre des radiofréquences afin d’obtenir une reconnaissance de l’importance cruciale que
revêt l’utilisation météorologique du spectre des radiofréquences et pour prévenir les problèmes
éventuels.
Toutes les nations ont intérêt à protéger les radiofréquences essentielles aux activités
météorologiques qui jouent un rôle crucial dans la prévision des conditions météorologiques
extrêmes. Il convient d’appuyer la recherche de solutions qui se poursuit à l’échelle
internationale. Par l’intermédiaire d’un groupe composé d’experts du monde entier, l’OMM
participe activement aux activités internationales de gestion des fréquences, afin de protéger
les bandes de fréquences qui servent actuellement à l’observation météorologique et
climatologique, ainsi qu’à l’observation générale de la Terre, et pour obtenir de nouvelles bandes
pour les besoins de la recherche et de l’exploitation.
Préoccupée par les effets accrus des parcs d’éoliennes sur le fonctionnement des radars
météorologiques, l’OMM est d’avis qu’il est nécessaire de procéder à des activités de
consultation, de protection et d’atténuation. Elle s’adresse aux décideurs, aux organismes
nationaux de réglementation des radiofréquences, aux sociétés hydrologiques et
météorologiques nationales, aux concepteurs de parcs d’éoliennes, aux fournisseurs
d’équipements éoliens et à la communauté météorologique.
Les parcs d’éoliennes ont déjà un impact sur les réseaux de radars météorologiques, en
engendrant des échos de sol qui provoquent une perte importante de données ou qui sont pris
en compte comme des précipitations par les applications hydrologiques. Les vitesses enregistrées
sous l’effet des pales en rotation peuvent aussi faire penser à un phénomène météorologique
violent, telle une tornade. Certes, des concepteurs d’éoliennes ont accepté de déplacer des
radars météorologiques, mais, d’une manière générale, le secteur de la météorologie n’a pas de
contrôle sur le choix de l’emplacement des éoliennes et compte sur l’application de règles de
«bon voisinage» pour en atténuer les effets.
Il incombera aux météorologistes et aux exploitants d’éoliennes d’établir des plans stratégiques
d’atténuation des effets en question quand il s’agira d’installer de nouveaux réseaux de radars et
de profileurs de vent ou de nouveaux parcs d’éoliennes. L’OMM et le secteur de la météorologie,
qui comptent sur les organismes internationaux et nationaux de réglementation en matière de
radiocommunication, et qui les appuient, encourageront et soutiendront de manière proactive
les efforts de ceux‑ci destinés à promouvoir et protéger l’utilisation de l’espace non obstrué à des
fins météorologiques. L’OMM incite les agences nationales à établir des critères d’obstruction
acceptables et à fournir des outils aux concepteurs d’éoliennes pour le choix des emplacements.
On peut se servir de la distance entre les éoliennes et les radars météorologiques pour établir
une description générale des effets sur la qualité des données radar et élaborer une stratégie
d’atténuation pour le choix en commun de l’emplacement des radars et des éoliennes. Le tableau
ci‑après présente les directives générales pour des installations radar normales sur terrain plat qui
pourraient nécessiter des modifications en cas de situations particulières ou de types de radars
particuliers. Pour les radars de forte puissance, notamment les radars en bande S (longueur
d’onde de 10 cm), caractérisés par une atténuation relativement faible, il est possible qu’il faille
augmenter les distances minimales indiquées dans le tableau.
Toutes les nations ont intérêt à protéger l’espace libre d’obstruction pour les radars
météorologiques et les profileurs de vent, qui jouent un rôle crucial dans la prévision des
CHAPITRE 7. MESURES RADAR 859
Ahnert, P.R., M. Hudlow, E. Johnson, D. Greene et M. Dias, 1983: Proposed on‑site processing system for
NEXRAD. Preprints of the Twenty‑first Conference on Radar Meteorology (Edmonton, Canada),
American Meteorological Society, Boston, 378–385.
Anagnostou, E.N., C.A. Morales et T. Dinku, 2001: The use of TRMM precipitation radar observations in
determining ground radar calibration biases. Journal of Atmospheric and Oceanic Technology,
18(4):616–628.
Aoyagi, J., 1983: A study on the MTI weather radar system for rejecting ground clutter. Papers in Meteorology
and Geophysics, 33(4):187–243.
Aoyagi, J. et N. Kodaira, 1995: The reflection mechanism of radar rain echoes. Preprints of
the Twenty‑seventh Conference on Radar Meteorology (Vail, Colorado),
American Meteorological Society, Boston, 246–248.
Atlas, D., 1964: Advances in radar meteorology. Dans: Advances in Geophysics (dir.: H.E. Landsberg et
J. Van Meighem). Academic Press, New York, 10:317–479.
——— (dir.), 1990: Radar in Meteorology. American Meteorological Society, Boston.
Atlas, D., R.C. Srivastava et R.S. Sekhon, 1973: Doppler radar characteristics of precipitation at vertical
incidence. Reviews of Geophysics and Space Physics, 11(1):1–35.
Battan, L.J., 1973: Radar Observation of the Atmosphere. University of Chicago Press, Chicago.
Baynton, H.W., 1979: The case for Doppler radars along our hurricane affected coasts. Bulletin of the
American Meteorological Society, 60(9):1014–1023.
Bean, B.R. et E.J. Dutton, 1966: Radio Meteorology. US Government Printing Office, Washington.
Bebbington, D.H.O., 1992: Degree of polarization as a radar parameter and its susceptibility to coherent
propagation effects. Preprints from URSI Commission F Symposium on Wave Propagation and Remote
Sensing (Ravenscar, Royaume‑Uni), 431–436.
Bellon, A. et G.L. Austin, 1978: The evaluation of two years of real‑time operation of a Short‑Term
Precipitation Forecasting Procedure (SHARP). Journal of Applied Meteorology, 17(12):1778–1787.
Berenguer, M., S. Park, D. Sempere‑Torres, J. Didszun, M. Pool et M. Pfeifer, 2012: RAINSCANNER@
Barcelona: an experiment to assess the hydrological value of a portable X‑band radar.
Preprints, Seventh European Conference on Radar in Meteorology and Hydrology (ERAD 2012),
Toulouse, France.
Bringi, V.N. et V. Chandrasekar, 2001: Polarimetric Doppler Weather Radar, Cambridge University Press.
Bringi, V.N. et A. Hendry, 1990: Technology of polarization diversity radars for meteorology. Dans: Radar in
Meteorology (dir.: D. Atlas). American Meteorological Society, Boston, 153–190.
Brown, R.A. et L.R. Lemon, 1976: Single Doppler radar vortex recognition: Part II – Tornadic vortex
signatures. Preprints of the Seventeenth Conference on Radar Meteorology (Seattle, Washington),
American Meteorological Society, Boston, 104–109.
Brown, R.A., V.T. Wood, R.M. Steadham, R.R. Lee, B.A. Flickinger et D. Sirmans, 2005: New WSR‑88D
Volume Coverage Pattern 12: Results of field tests. Weather and Forecasting, 20:385–393.
Browning, K.A. et C.G. Collier, 1982: An integrated radar‑satellite nowcasting system in the United
Kingdom. Dans: Nowcasting (dir.: K.A. Browning). Academic Press, Londres, 47–61.
Browning, K.A., C.G. Collier, P.R. Larke, P. Menmuir, G.A. Monk et R.G. Owens, 1982: On the forecasting of
frontal rain using a weather radar network. Monthly Weather Review, 110:534–552.
Browning, K.A. et R. Wexler, 1968: The determination of kinematic properties of a wind field using Doppler
radar. Journal of Applied Meteorology, 7:105–113.
Brunkow, D., 2001: Sphere Calibrations, The Most Hated Experiment in Radar Meteorology, RADCAL 2000
Workshop, AMS Short Course, Albuquerque, Nouveau‑Mexique.
Burgess, D.W., 1976: Single Doppler radar vortex recognition: Part I – Mesocyclone signatures. Preprints of
the Seventeenth Conference on Radar Meteorology (Seattle, Washington), American
Meteorological Society, Boston, 97–103.
Burgess, D.W. et L.R. Lemon, 1990: Severe thunderstorm detection by radar. Dans: Radar in Meteorology
(dir.: D. Atlas). American Meteorological Society, Boston, 619–647.
Burrows, C.R. et S.S. Attwood, 1949: Radio Wave Propagation. Academic Press, New York.
Byers, H.R., 1948: The use of radar in determining the amount of rain falling over a small area. Transactions
of the American Geophysical Union, 187–196.
Chandrasekar, V. et L. Baldini, 2013: RADCAL 2013, AMS Short Course, Fort Collins, Colorado.
Chandrasekar, V., R. Meneghini et I. Zawadzki, 2003: Global and local precipitation measurements by
radar. Meteorological Monographs, 30(52):215–215.
CHAPITRE 7. MESURES RADAR 861
Cluckie, I.D. et M.E. Owens, 1987: Real‑time rainfall run‑off models and use of weather radar information.
Dans: Weather Radar and Flood Forecasting (dir.: V.K. Collinge et C. Kirby). John Wiley and Sons,
New York.
Collier, C.G., 1989: Applications of Weather Radar Systems: A Guide to Uses of Radar Data in Meteorology and
Hydrology. John Wiley and Sons, Chichester, Angleterre.
Commission des Communautés européennes, 1990: Une revue du programme ARAMIS (J.L. Chèze). Weather
Radar Networking: Seminar on Cost Project 73 (Bruxelles, 5–8 septembre 1989), 80–85.
Crook, N.A. et J. Sun, 2002: Assimilating radar, surface, and profiler data for the Sydney 2000 Forecast
Demonstration Project. Journal of Atmospheric and Oceanic Technology, 19:888–898.
Crozier, C.L., P. Joe, J. Scott, H. Herscovitch et T. Nichols, 1991: The King City operational Doppler radar:
Development, all‑season applications and forecasting. Atmosphere‑Ocean, 29:479–516.
Crum, T.D. et R.L. Alberty, 1993: The WSR‑88D and the WSR‑88D Operational Support Facility. Bulletin of
the American Meteorological Society, 74(9):1669–1687.
Dennis, A.S., C.A. Schock et A. Koscielski, 1970: Characteristics of hailstorms of western South Dakota.
Journal of Applied Meteorology, 9:127–135.
Dexter, P.E., M.L. Heron et J.F. Ward, 1982: Remote sensing of the sea‑air interface using HF radars.
Australian Meteorological Magazine, 30:31–41.
Dixon, M. et G. Wiener, 1993: TITAN: Thunderstorm identification, tracking, analysis, and nowcasting – A
radar‑based methodology. Journal of Atmospheric and Oceanic Technology, 10(6):785–797.
Donaldson, R.J., Jr., 1970: Vortex signature recognition by a Doppler radar. Journal of Applied Meteorology,
9:661–670.
Doneaud, A.A., S. Ionescu‑Niscov, D.L. Priegnitz et P.L. Smith, 1984: The area‑time integral as an indicator
for convective rain volumes. Journal of Climate and Applied Meteorology, 23:555–561.
Doneaud, A.A., J.R. Miller Jr., L.R. Johnson, T.H. Vonder Haar et P. Laybe, 1987: The area‑time integral
technique to estimate convective rain volumes over areas applied to satellite data: A
preliminary investigation. Journal of Climate and Applied Meteorology, 26:156–169.
Doviak, R.J. et D.S. Zrnić, 1993: Doppler Radar and Weather Observations. Deuxième édition, Academic Press,
San Diego.
Dupuy, P., S. Matthews, N. Gaussia, R. Scovel et A. Kergomard, 2010: Developing a European Radar Data
Centre. Preprints, Sixth European Conference on Radar in Meteorology and Hydrology (ERAD 2010),
Sibiu, Roumanie.
Eccles, P.J. et D. Atlas, 1973: A dual‑wavelength radar hail detector. Journal of Applied Meteorology,
12:847–854.
Eilts, M.D. et S.D. Smith, 1990: Efficient dealiasing of Doppler velocities using local environment
constraints. Journal of Atmospheric and Oceanic Technology, 7:118–128.
English, M.E., B. Kochtubajda, F.D. Barlow, A.R. Holt et R. McGuiness, 1991: Radar measurement of rainfall
by differential propagation phase: A pilot experiment. Atmosphere‑Ocean, 29:357–380.
Fabry, F., 2004: Meteorological value of ground target measurements by radar. Journal of Atmospheric and
Oceanic Technology, 21:560–573.
Fabry, F., C. Augros et A. Bellon, 2013: The case of sharp velocity transitions in high vertical wind shear
when measuring Doppler velocities with narrow Nyquist intervals. Journal of Atmospheric and
Oceanic Technology, 30:389–394.
Federer, B., A. Waldvogel, W. Schmid, F. Hampel, Rosini, D. Vento et P. Admirat, 1978: Grossversuch IV:
Design of a randomized hail suppression experiment using the Soviet method. Pure and Applied
Geophysics, 117:548–571.
Frush, C., R.J. Doviak, M. Sachidananda et D.S. Zrnić, 2002: Application of the SZ phase code to mitigate
range – Velocity ambiguities in weather radars. Journal of Atmospheric and Oceanic Technology,
19:413–430.
Germann, U., G. Galli, M. Boscacci et M. Bolliger, 2006a: Radar precipitation measurement in a
mountainous region. Quarterly Journal of the Royal Meteorological Society, 132:1669–1692.
Germann, U., I. Zawadzki et B. Turner, 2006b: Predictability of precipitation from continental radar images.
Part IV: Limits to prediction. Journal of the Atmospheric Sciences, 63:2092–2108.
Gossard, E.E. et R.G. Strauch, 1983: Radar Observations of Clear Air and Clouds. Elsevier Scientific Publication,
Amsterdam.
Harlan, J.A. et T.M. Georges, 1994: An empirical relation between ocean‑surface wind direction and the
Bragg line ratio of HF radar sea echo spectra. Journal of Geophysical Research: Oceans,
99(C4):7971–7978.
Heiss, W.H., D.L. McGrew et D. Sirmans, 1990: NEXRAD: Next generation weather radar (WSR‑88D).
Microwave Journal, 33(1):79–98.
862 PARTIE II. SYSTÈMES D’OBSERVATION
Holleman, I., 2001: Hail Detection Using Single‑polarization Radar. Scientific Report, Royal Netherlands
Meteorological Institute (KNMI), WR‑2001‑01, De Bilt.
Holleman, I., H.R.A. Wessels, J.R.A. Onvlee et S.J.M. Barlag, 2000: Development of a hail‑detection
product. Physics and Chemistry of the Earth, Part B, 25:1293–1297.
Holt, A.R., M. Chandra et S.J. Wood, 1995: Polarisation diversity radar observations of storms at C‑band.
Preprints of the Twenty‑seventh Conference on Radar Meteorology (Vail, Colorado), American
Meteorological Society, Boston, 188–189.
Holt, A.R., P.I. Joe, R. McGuinness et E. Torlaschi, 1993: Some examples of the use of degree of polarization
in interpreting weather radar data. Proceedings of the Twenty‑sixth International Conference on
Radar Meteorology, American Meteorological Society, 748–750.
Hubbert, J.C., M. Dixon, S.M. Ellis et G. Meymaris, 2009a: Weather radar ground clutter. Part I:
Identification, modeling, and simulation. Journal of Atmospheric and Oceanic Technology,
26:1165–1180.
Hubbert, J.C., M. Dixon et S.M. Ellis, 2009b: Weather radar ground clutter. Part II: Real‑time identification
and filtering. Journal of Atmospheric and Oceanic Technology, 26:1181–1197.
Joe, P., 1999: Beamheight Statistics for Low Elevation Scans. Paper, Twenty‑ninth AMS Radar Conference,
Montréal, American Meteorological Society, Boston, 922–925.
———, 2001: RADCAL 2000 Workshop, AMS Short Course, Albuquerque, Nouveau‑Mexique.
———, 2010: RADMON Workshop, Sixth European Conference on Radar in Meteorology and Hydrology
(ERAD 2010), Sibiu, Roumanie.
Joe, P., D. Burgess, R. Potts, T. Keenan, G. Stumpf et A. Treloar, 2004: The S2K severe weather detection
algorithms and their performance. Weather and Forecasting, 19:43–63.
Joe, P., S. Dance, V. Lakshmanan, D. Heizenrehder, P. James, P. Lang, T. Hengstebeck, Y. Feng, P.W. Li,
H.Y. Yeung, O. Suzuki, K. Doi et J. Dai, 2012: Automated processing of Doppler radar data for
severe weather forecasting. Dans: Doppler Radar Observations, Weather Radar, Wind Profiler,
Ionospheric Radar and other Advanced Applications (dir.: J. Bech et J.L. Chau), Intech.
Joe, P., M. Falla, P. Van Rijn, L. Stamadianos, T. Falla, D. Magosse, L. Ing et J. Dobson, 2002: Radar data
processing for severe weather in the national radar project of Canada. Preprints, Twenty‑first
Conference on Severe Local Storms, San Antonio, 12–16 août 2002, 221–224.
Joe, P. et P.T. May, 2003: Correction of dual PRF velocity errors for operational Doppler weather radars.
Journal of Atmospheric and Oceanic Technology, 20(4):429–442.
Joe, P., R.E. Passarelli et A.D. Siggia, 1995: Second trip unfolding by phase diversity processing. Preprints of
the Twenty‑seventh Conference on Radar Meteorology (Vail, Colorado), American Meteorological
Society, Boston, 770–772.
Joe, P., B. Scott, C. Doyle, G. Isaac, I. Gultepe, D. Forsyth, S. Cober, E. Campos, I. Heckman, N. Donaldson,
D. Hudak, R. Rasmussen, R. Stewart, J.M. Thériault, H. Carmichael, M. Bailey et F. Boudala,
2014: The monitoring network of the Vancouver 2010 Olympics. Pure and Applied Geophysics,
171(1):25–58.
Joint Doppler Operational Project, 1979: Final Report on the Joint Doppler Operational Project. NOAA Technical
Memorandum, ERL NSSL‑86, Norman, Oklahoma, National Severe Storms Laboratory.
Joss, J. et R.W. Lee, 1993: Scan strategy, clutter suppression calibration and vertical profile corrections.
Preprints of the Twenty‑sixth Conference on Radar Meteorology (Norman, Oklahoma), American
Meteorological Society, Boston, 390–392.
Joss, J. et A. Waldvogel, 1990: Precipitation measurement and hydrology. Dans: Radar in Meteorology
(dir.: D. Atlas). American Meteorological Society, Boston, 577–606.
Keeler, R.J., C.A. Hwang et E. Loew, 1995: Pulse compression weather radar waveforms. Preprints of the
Twenty‑seventh Conference on Radar Meteorology (Vail, Colorado), American Meteorological
Society, Boston, 767–769.
Keenan, T.D. et S.J. Anderson, 1987: Some examples of surface wind field analysis based on Jindalee
skywave radar data. Australian Meteorological Magazine, 35:153–161.
Lakshmanan, V., T. Smith, G. Stumpf et K. Hondl, 2007: The Warning Decision Support System–Integrated
Information. Weather and Forecasting, 22:596–612.
Leber, G.W., C.J. Merrit et J.P. Robertson, 1961: WSR‑57 analysis of heavy rains. Preprints of the Ninth Weather
Radar Conference, American Meteorological Society, Boston, 102–105.
Lee, R., G. Della Bruna et J. Joss, 1995: Intensity of ground clutter and of echoes of anomalous propagation
and its elimination. Preprints of the Twenty‑seventh Conference on Radar Meteorology (Vail,
Colorado), American Meteorological Society, Boston, 651–652.
Lemon, L.R., 1978: New Severe Thunderstorm Radar Identification Techniques and Warning Criteria: A Preliminary
Report. NOAA Technical Memorandum, NWS NSSFC‑1, Kansas City, National Severe Storms
Forecast Center.
CHAPITRE 7. MESURES RADAR 863
———, 1998: The radar “three‑body scatter spike”: An operational large‑hail signature. Weather and
Forecasting, 13:327–340.
Lemon, L.R., D.W. Burgess et R.A. Brown, 1978: Tornadic storm airflow and morphology derived from
single‑Doppler radar measurements. Monthly Weather Review, 106:48–61.
Leone, D.A., R.M. Endlich, J. Petriceks, R.T.H. Collis et J.R. Porter, 1989: Meteorological considerations used
in planning the NEXRAD network. Bulletin of the American Meteorological Society, 70:4–13.
Lhermitte, R. et D. Atlas, 1961: Precipitation motion by pulse Doppler radar. Preprints of the Ninth Weather
Radar Conference, American Meteorological Society, Boston, 218–233.
Lopez, P., 2011: Direct 4D‑Var assimilation of NCEP stage IV radar and gauge precipitation data at ECMWF.
Monthly Weather Review, 139:2098–2116.
Makihara, Y., 2000: Algorithms for precipitation nowcasting focused on detailed analysis using radar and
raingauge data. Technical Report of the Meteorological Research Institute, Japan Meteorological
Agency, 39:63–111.
Markowski, P.M., 2002: Hook echoes and rear‑flank downdrafts: A review. Monthly Weather Review,
130:852–876.
Marshall, J.S. et E.H. Ballantyne, 1978: Weather Surveillance Radar. Journal of Applied Meteorology,
14(7):1317–1338.
Marshall, J.S. et K.L.S. Gunn, 1952: Measurement of snow parameters by radar. Journal of Meteorology,
9:322–327.
Marshall, J.S. et W.M. Palmer, 1948: The distribution of raindrops with size. Journal of Meteorology,
5:165–166.
McLaughlin, D., D. Pepyne, B. Philips, J. Kurose, M. Zink, D. Westbrook, E. Lyons, E. Knapp, A. Hopf,
A. Defonzo, R. Contreras, T. Djaferis, E. Insanic, S. Frasier, V. Chandrasekar, F. Junyent,
N. Bharadwaj, Y. Wang, Y. Liu, B. Dolan, K. Droegemeier, J. Brotzge, M. Xue, K. Kloesel,
K. Brewster, F. Carr, S. Cruz‑Pol, K. Hondl et P. Kollias, 2009: Short‑wavelength technology and
the potential for distributed networks of small radar systems. Bulletin of the American
Meteorological Society, 90(12):1797–1817.
Meischner, P. (dir.), 2003: Weather Radar: Principles and Advanced Applications, Springer, Berlin.
Melnikov, V., D.S. Zrnić, R.J. Dovink et J.K. Carter, 2002: Status of the dual polarization upgrade on the
NOAA’s research and development WSR‑88D. Preprints of the Eighteenth International Conference
on Interactive Information Processing Systems (Orlando, Floride), American Meteorological
Society, Boston, 124–126.
Michelson, D., R. Gill, M. Peura et J. Szturc, 2010: Community‑based weather radar networking with
BALTRAD. Preprints, Sixth European Conference on Radar in Meteorology and Hydrology
(ERAD 2010), Sibiu, Roumanie.
Michelson, D.B., P.I. Joe, D. Lockett, S. Goldstraw, L. Bai, A. Becker, K.P. Georgakakos, S. Foreman, E. Fucile,
R. Giraud, N. Gaussiat, T. Hohmann, A. Kamilliddin, M. Kitchen, E. Kyte, J.F. Mahfouf,
S. Matthews, J.M. de Rezende, O. Sireci, M.A. de Barros Teixeira et E. Wattrelot, 2013: WMO
initiative for the global exchange of radar data. Manuscript, Thirty‑sixth AMS Radar Meteorology
Conference, Breckenridge, Colorado, American Meteorological Society.
Michelson, M., W.W. Schrader et J.G. Wilson, 1990: Terminal Doppler weather radar. Microwave Journal,
33(2):139–148.
Mie, G., 1908: Beiträge zur Optik träber Medien, speziell kolloidaler Metalläsungen. Annalen der Physik,
25:377–445.
Mueller, C.K. et R.E. Carbone, 1987: Dynamics of a thunderstorm outflow. Journal of the Atmospheric
Sciences, 44:1879–1898.
Mueller, E.A., S.A. Rutledge, V.N. Bringi, D. Brunkow, P.C. Kennedy, K. Pattison, R. Bowie et
V. Chandrasekar, 1995: CSU‑CHILL radar upgrades. Preprints of the Twenty‑seventh Conference on
Radar Meteorology (Vail, Colorado), American Meteorological Society, Boston, 703–706.
Neff, E.L., 1977: How much rain does a rain gauge gage? Journal of Hydrology, 35:213–220.
Organisation météorologique mondiale, 1985: Use of Radar in Meteorology (G.A. Clift).
Technical Note No. 181 (WMO‑No. 625), Genève.
———, 2012: Operational use of dual‑polarisation: lessons learned at Météo France after 8 years of
experience at all wavelengths (S / C / X) (P. Tabary). Papers Presented at the WMO Technical
Conference on Meteorological and Environmental Instruments and Methods of Observation
(TECO‑2012). Instruments and Observing Methods Report No. 109, Genève.
Passarelli, R.E., Jr., P. Romanik, S.G. Geotis et A.D. Siggia, 1981: Ground clutter rejection in the frequency
domain. Preprints of the Twentieth Conference on Radar Meteorology (Boston, Massachusetts),
American Meteorological Society, Boston, 295–300.
864 PARTIE II. SYSTÈMES D’OBSERVATION
Probert‑Jones, J.R., 1962: The radar equation in meteorology. Quarterly Journal of the Royal Meteorological
Society, 88:485–495.
Ray, P.S., C.L. Ziegler, W. Bumgarner et R.J. Serafin, 1980: Single‑ and multiple‑Doppler radar observations
of tornadic storms. Monthly Weather Review, 108:1607–1625.
Rinehart, R.E., 2004: Radar for Meteorologists, 4è édition, Rinehart Publishing.
Ruggiero, F.H. et R.J. Donaldson, Jr., 1987: Wind field derivatives: A new diagnostic tool for analysis of
hurricanes by a single Doppler radar. Preprints of the Seventeenth Conference on Hurricanes and
Tropical Meteorology (Miami, Floride), American Meteorological Society, Boston, 178–181.
Sauvageot, H., 1982: Radarmétéorologie. Eyrolles, Paris.
———, 1994: Rainfall measurement by radar: A review. Atmospheric Research, 35:27–54.
Seed, A.W., 2003: A dynamic and spatial scaling approach to advection forecasting. Journal of Applied
Meteorology, 42(3):381–388.
Seliga, T.A. et V.N. Bringi, 1976: Potential use of radar differential reflectivity measurements at orthogonal
polarizations for measuring precipitation. Journal of Applied Meteorology, 15:69–76.
Seltmann, J.E.E., T. Hohmann, M. Frech et P. Tracksdorf, 2013: DWD’s new operational scan strategy.
Thirty‑sixth AMS Radar Meteorology Conference, 16–20 septembre 2013, Breckenridge, Colorado,
poster 329.
Shearman, E.D.R., 1983: Radio science and oceanography. Radio Science, 18(3):299–320.
Sireci, O., P. Joe, S. Eminoglu et K. Akylidiz, 2010: A comprehensive worldwide web‑based weather radar
database. Preprints, Sixth European Conference on Radar in Meteorology and Hydrology
(ERAD 2010), Sibiu, Roumanie.
Skolnik, M.I. (dir.), 1970: Radar Handbook. McGraw‑Hill, New York.
——— (dir.), 1990: Radar Handbook. Deuxième édition, McGraw‑Hill, New York.
Smith, P.L., 1990: Precipitation measurement and hydrology: Panel report. Dans: Radar in Meteorology
(dir.: D. Atlas). American Meteorological Society, Boston, 607–618.
———, 1995: Dwell time considerations for weather radars. Preprints of the Twenty‑seventh Conference on
Radar Meteorology (Vail, Colorado), American Meteorological Society, Boston, 760–762.
Smull, B.S. et R.A. Houze Jr., 1987: Rear inflow in squall lines with trailing stratiform precipitation. Monthly
Weather Review, 115(12):2869–2889.
Strauch, R.G., 1981: Comparison of meteorological Doppler radars with magnetron and klystron
transmitters. Preprints of the Twentieth Conference on Radar Meteorology (Boston, Massachusetts),
American Meteorological Society, Boston, 211–214.
Sun, J., M. Xue, J.W. Wilson, I. Zawadzki, S.P. Ballard, J. Onvlee‑Hooimeyer, P. Joe, D. Barker, P.W. Li,
B. Golding, M. Xu et J. Pinto, 2013: Use of NWP for nowcasting convective precipitation: Recent
progress and challenges. Bulletin of the American Meteorological Society, 95:409–426.
Tapping, K., 2001: Antenna Calibration using 10.7cm Solar Flux, RADCAL 2000, AMS Short Course,
Albuquerque, Nouveau‑Mexique.
Treloar, A., 1998: Vertically integrated radar reflectivity as an indicator of hail size in the greater Sydney
region of Australia. Preprints of the Nineteenth Conference on Severe Local Storms, Minneapolis,
Minnesota, American Meteorological Society, 48–51.
Turner, B.J., I. Zawadzki et U. Germann, 2004: Predictability of precipitation from continental radar images.
Part III: Operational nowcasting implementation (MAPLE). Journal of Applied Meteorology,
43:231–248.
Ulbrich, C.W. et D. Atlas, 1984: Assessment of the contribution of differential polarization to improve
rainfall measurements. Radio Science, 19(1):49–57.
Weber, M.E., J.Y.N. Cho, J.S. Herd, J.M. Flavin, W.E. Benner et G.S. Torok, 2007: The next‑generation
multimission U.S. surveillance radar network. Bulletin of the American Meteorological Society,
88(11):1739–1751.
Wiener, N., 1964: Time Series. M.I.T. Press, Cambridge, Massachusetts.
Wilson, J.W. et E.A. Brandes, 1979: Radar measurement of rainfall – A summary. Bulletin of the American
Meteorological Society, 60(9):1048–1058.
Wilson, J.W., N.A. Crook, C.K. Mueller, J. Sun et M. Dixon, 1998: Nowcasting thunderstorms: A status
report. Bulletin of the American Meteorological Society, 79(10):2079–2099.
Wilson, J.W. et W.E. Schreiber, 1986: Initiation of convective storms at radar‑observed boundary‑layer
convergence lines. Monthly Weather Review, 114:2516–2536.
Wilson, J.W., T.M. Weckwerth, J. Vivekanandan, R.M. Wakimoto, R.W. Russell, 1994: Origin of echoes and
accuracy of derived winds. Journal of Atmospheric and Oceanic Technology, 11(5):1184–1206.
Witt, A., M. Eilts, G. Stumpf, J. Johnson, D. Mitchell et K. Thomas, 1998: An enhanced hail detection
algorithm for the WSR‑88D. Weather and Forecasting, 13:286–303.
CHAPITRE 7. MESURES RADAR 865
Wolff, D.B. et B.L. Kelley, 2009: NASA's Radar Software Library (RSL) and RSL in IDL. Paper,
Thirty‑fourth AMS Radar Conference, Breckenridge, Colorado.
Wood, V.T. et R.A. Brown, 1986: Single Doppler velocity signature interpretation of non‑divergent
environmental winds. Journal of Atmospheric and Oceanic Technology, 3:114–128.
Wurman, J., M. Randall et C. Burghart, 1995: Real‑time vector winds from a bistatic Doppler radar network.
Preprints of the Twenty‑seventh Conference on Radar Meteorology (Vail, Colorado), American
Meteorological Society, Boston, 725–728.
Wurman, J., J.M. Straka et E.N. Rasmussen, 1996 : Fine‑scale Doppler radar observations of tornadoes.
Science, 272:1774–1777.
Xue, M., K. Kloesel, K. Brewster, F. Carr, S. Cruz‑Pol, K. Hondl et P. Kollias, 2009: Short‑wavelength
technology and the potential for distributed networks of small radar systems. Bulletin of the
American Meteorological Society, 90(12):1797–1817.
Yamauchi, H., A. Adachi, O. Suzuki et T. Kobayashi, 2013: Precipitation estimate of a heavy rain event using
a C‑band solid‑state polarimetric radar. Preprints, Seventh European Conference on Radar in
Meteorology and Hydrology (ERAD 2012), Toulouse, France.
Zhang, J., K. Howard et J.J. Gourley, 2005: Constructing three‑dimensional multiple‑radar reflectivity
mosaics: Examples of convective storms and stratiform rain echoes. Journal of Atmospheric and
Oceanic Technology, 22:30–42.
Zrnić, D.S. and S. Hamidi, 1981: Considerations for the Design of Ground Clutter Cancelers for Weather Radar.
Report DOT/FAA/RD‑81/72, NTIS.
Zrnić, D.S. et A.V. Ryzhkov, 1995: Advantages of rain measurements using specific differential phase.
Preprints of the Twenty‑seventh Conference on Radar Meteorology (Vail, Colorado), American
Meteorological Society, Boston, 35–37.
Zrnić, D.S., A. Ryzhkov, J. Straka, Y. Liu et J. Vivekanandan, 2001: Testing a procedure for automatic
classification of hydrometeor types. Journal of Atmospheric and Oceanic Technology, 18:892–913.
Zrnić, D.S., G. Zhang, V. Melnikov et J. Andric, 2010: Three‑body scattering and hail size. Journal of Applied
Meteorology and Climatology, 49:687–700.
TABLE DES MATIÈRES DU CHAPITRE
Page
8.1 BALLONS
a) Les ballons‑pilotes, qui servent à mesurer visuellement le vent en altitude, et les ballons
plafonnants, destinés à mesurer la hauteur de la base des nuages. Ils emportent
généralement de faibles charges et sont donc infiniment plus petits que les ballons de
radiosondage. Ils sont presque toujours de type sphérique dilatable et la principale
exigence, outre leur faculté à atteindre des altitudes suffisantes, concerne leur capacité à
conserver leur forme sphérique pendant l’ascension;
Le présent chapitre ne traite pas des autres types de ballons exploités à des fins particulières. Les
ballons à niveau constant qui montent puis dérivent à une altitude prédéterminée sont construits
dans un matériau inextensible. De gros ballons à niveau constant sont remplis partiellement
au largage. D’autres, pressurisés, sont gonflés de manière à ce que leur enveloppe se déploie
complètement à l’envol. Les ballons tétraédriques sont de petits ballons de forme tétraédrique
pressurisés à niveau constant et destinés à étudier les trajectoires. L’emploi de ballons captifs
pour obtenir des profils est traité au chapitre 5 de la présente partie.
Les matériaux les plus adaptés à la réalisation des ballons dilatables sont un latex naturel de haute
qualité et un latex polychloroprène. Le latex naturel se déforme moins que le polychloroprène,
est plus résistant et peut s’appliquer en couche plus épaisse pour une performance donnée. Il
est moins sensible à la température, mais plus sensible à l’ozone et au rayonnement ultraviolet
à haute altitude, et possède une durée de vie au stockage plus courte. C’est pourquoi, afin de
prolonger la durée limite de stockage et d’améliorer la résistance et les performances de ces deux
matériaux à basses températures tant en magasin qu’en vol ainsi que leur résistance à l’ozone et
au rayonnement ultraviolet, on peut les traiter à l’aide d’un certain nombre d’additifs. En outre,
l’ajout d’un agent antistatique en cours de fabrication permet de réduire les risques d’explosion
des ballons gonflés à l’hydrogène.
Il existe deux grands procédés de fabrication d’un ballon dilatable: par immersion d’une forme
dans une émulsion de latex ou par projection de latex sur la face intérieure d’un moule creux. Le
moulage permet de conférer au ballon une épaisseur plus uniforme, ce qui l’aide à supporter la
dilatation qu’entraîne l’ascension, et de couler le col d’une seule pièce avec l’enveloppe et ainsi
éviter tout risque de formation de points de fragilité.
Le polyéthylène est la matière inextensible utilisée pour les ballons à niveau constant.
868 PARTIE II. SYSTÈMES D’OBSERVATION
8.1.3 Spécifications
Le ballon fini devrait être exempt de tout corps étranger, trou d’aiguille et autre défaut. Sa
texture devrait être homogène et son épaisseur uniforme. Selon la taille du ballon, le diamètre
du col oscillera entre 1 et 5 cm et la longueur entre 10 et 20 cm. Le col d’un ballon‑sonde devrait
pouvoir résister à une force de 200 N sans dommage. Il importe que l’épaisseur de l’enveloppe se
renforce graduellement vers l’encolure afin d’en atténuer le risque d’arrachement: toute rupture
de continuité dans l’épaisseur constitue un point de fragilité.
La taille des ballons dépend de leur poids nominal en grammes. Le poids réel de chaque ballon
ne devrait pas s’écarter de plus de 10 % du poids nominal spécifié, voire de préférence 5 %. La
capacité de dilatation d’un ballon devrait pouvoir atteindre au moins quatre fois, et de préférence
cinq à six fois, son diamètre en position non déployée sur une durée minimum d’une heure. Une
fois gonflé, le ballon devrait présenter la forme d’une sphère ou d’une poire.
Lors de la fabrication des ballons en latex synthétique, on incorpore un plastifiant pour éviter
que le matériau ne durcisse ou ne gèle une fois exposé aux basses températures au voisinage et
au‑dessus de la tropopause. Certains fabricants proposent deux types de ballons destinés à être
utilisés le jour ou la nuit selon le dosage du plastifiant.
En vertu du principe d’Archimède, la force ascensionnelle totale d’un ballon est fonction de la
poussée totale du gaz qu’il contient, calculée comme suit:
( ) (
T = V ρ − ρ g = 0, 523 D3 ρ − ρ g ) (8.1)
Toutes les unités sont exprimées selon le Système international d’unités (SI). Pour l’hydrogène, la
poussée verticale au sol (ρ – ρg ) est d’environ 1,2 kg m–3. Toutes les grandeurs de l’équation 8.1
changent avec l’altitude.
La force ascensionnelle libre L d’un ballon est la différence entre la force ascensionnelle totale et
le poids cumulé W de l’engin et de sa charge (éventuelle):
L = T −W (8.2)
En d’autres termes, elle correspond à la poussée verticale nette ou au poids supplémentaire que
le ballon et ses accessoires peuvent supporter sans monter ni descendre.
qLn
V= (8.3)
( L + W )1/3
CHAPITRE 8. TECHNIQUES D’OBSERVATION PAR BALLONS MÉTÉOROLOGIQUES 869
Il peut s’avérer nécessaire d’accroître la force ascensionnelle libre dans une proportion pouvant
atteindre 75 % en fonction de l’intensité du phénomène quand les sondages ont lieu dans
des conditions de précipitations ou de givrage. Il est recommandé de se référer à une vitesse
ascensionnelle estimée du ballon uniquement lorsque les précipitations sont faibles. Il n’est en
général pas indispensable de connaître avec exactitude la vitesse ascensionnelle, sauf dans les
cas d’observation par ballon‑pilote ou ballon plafonnant, où ce paramètre est la seule donnée
disponible pour calculer l’altitude. La vitesse ascensionnelle dépend en grande partie de la force
ascensionnelle libre et de la résistance que l’air oppose au ballon et à son train, l’effet de cette
dernière étant parfois plus important, notamment sur les ballons non sphériques. L’altitude
maximale qu’un ballon peut atteindre est principalement fonction de sa force ascensionnelle
totale, de ses dimensions et de sa qualité.
8.2.2 Performances
Le tableau ci‑après présente les chiffres correspondant habituellement aux performances des
ballons de différentes tailles. Pour déterminer les performances d’un ballon et de son train en vue
de connaître avec exactitude ses performances, il convient d’analyser des vols réels. Les ballons
peuvent emporter des charges utiles supérieures à celles indiquées dans le tableau. Il faudra pour
cela augmenter le volume du ballon et utiliser une plus grande quantité de gaz, ce qui aura une
incidence sur la vitesse ascensionnelle et l’altitude maximale à laquelle il sera capable de monter.
Diamètre au
30 50 90 120 130 140 160 180 210
lâcher (cm)
Charge utile
0 0 0 250 250 250 250 1 000 1 000
(g)
Force
ascensionnelle 5 60 300 500 600 900 1 100 1 300 1 700
(g)
Vitesse
ascensionnelle 60 150 250 300 300 300 300 300 300
(m min–1)
Altitude
maximum 12 13 20 21 26 31 34 34 38
(km)
Le choix d’un ballon à des fins météorologiques est dicté par la charge à emporter (le cas
échéant), la vitesse ascensionnelle et l’altitude à atteindre, ainsi que la couleur de l’enveloppe
lorsque le vol est suivi à vue par temps couvert. En général, il est conseillé d’adopter une
vitesse ascensionnelle comprise entre 300 et 400 m min‑1 afin de réduire au minimum la durée
d’observation et garantir une ventilation suffisante des capteurs de la radiosonde. En outre, il ne
faut pas oublier qu’un ballon monte d’ordinaire moins haut lorsque la température est très basse
au moment du lancer.
870 PARTIE II. SYSTÈMES D’OBSERVATION
Dans le cadre des observations courantes, il peut s’avérer utile de déterminer la force
ascensionnelle libre qui produira les hauteurs d’éclatement optimales. Il a par exemple été
constaté qu’une réduction de la vitesse ascensionnelle moyenne de 390 à 310 m min‑1 pour
certains ballons de taille moyenne via la réduction de la quantité de gaz embarqué peut
augmenter de 2 km en moyenne la hauteur d’éclatement. Les relevés des hauteurs d’éclatement
devraient être archivés et révisés afin de garantir la mise en œuvre d’une pratique optimale.
L’emploi de ballons incolores par temps clair et bien ensoleillé et de ballons foncés par temps
couvert, facilite les observations visuelles diurnes.
Le meilleur critère pour apprécier les performances d’un ballon est l’extension linéaire maximale
qu’il supporte avant d’éclater, facilement exprimée par le rapport diamètre (ou circonférence) de
l’enveloppe à l’éclatement/diamètre avant gonflage. Les performances d’un ballon en vol ne sont
cependant pas nécessairement les mêmes que celles enregistrées lors d’un essai d’éclatement
au sol. En effet, celles‑ci peuvent être affectées par des erreurs de manipulation au moment du
gonflage et par les contraintes subies au cours d’un lancer effectué lorsque le vent souffle en
rafales. En vol, la dilatation du ballon peut également être affectée par une perte d’élasticité due
à de basses températures, par l’action chimique de l’oxygène, de l’ozone ou du rayonnement
ultraviolet et par des défauts de fabrication tels que des trous d’aiguille ou des points de fragilité.
Un ballon de bonne qualité devrait toutefois pouvoir se dilater d’au moins quatre fois son volume
en conditions réelles de sondage. L’épaisseur de l’enveloppe au lâcher oscille généralement
entre 0,1 et 0,2 mm.
8.3.1 Stockage
Il est extrêmement important de stocker les ballons‑sondes dans de bonnes conditions afin qu’ils
conservent toutes leurs propriétés après plusieurs mois. Il est conseillé de limiter les stocks au
niveau minimal de sécurité rapporté aux besoins de l’exploitation. Si possible, il conviendra de
préférer des réapprovisionnements fréquents aux achats en grandes quantités, qui impliquent
de longues durées de stockage. En tout état de cause, il est recommandé de toujours utiliser les
ballons dans l’ordre chronologique de leurs dates de fabrication.
Il est généralement possible d’obtenir des résultats optimaux sur une durée d’environ 18 mois
maximum à compter de la date de fabrication si les conditions de stockage recommandées par
les différents fabricants ont été scrupuleusement respectées. Les consignes générales ci‑après
s’appliquent à la plupart des ballons‑sondes.
Les ballons devraient être stockés à l’abri des rayons directs du soleil et, si possible, dans
l’obscurité. Ils ne devraient en aucun cas être entreposés à proximité d’une source de chaleur ou
d’ozone. En effet, l’ozone émis par de gros générateurs ou moteurs électriques altère la qualité
du polychloroprène (pur ou mélangé) et du caoutchouc naturel. Tous les ballons devraient
être conservés dans leur emballage d’origine jusqu’aux préparatifs du lancement. Il conviendra
de bien veiller à ce qu’ils n’entrent pas en contact avec de l’huile ou toute autre substance
susceptible de pénétrer à l’intérieur de l’emballage et ainsi les endommager.
CHAPITRE 8. TECHNIQUES D’OBSERVATION PAR BALLONS MÉTÉOROLOGIQUES 871
Si les conditions le permettent, les ballons devraient être stockés dans un local à une température
située entre 15 et 25 °C. Certains fabricants donnent des instructions particulières qu’il
conviendra de bien respecter.
8.3.2 Conditionnement
Les ballons en caoutchouc naturel n’exigent aucun traitement thermique particulier avant emploi
dans la mesure où ce matériau ne gèle pas à température ambiante dans des locaux habités. Il
est toutefois recommandé que les ballons qui auraient été conservés sur une longue période à
des températures inférieures à 10 °C soient placés dans un endroit tempéré pendant quelques
semaines.
Les ballons en polychloroprène perdent une partie de leur élasticité lorsqu’on les stocke
longtemps à des températures inférieures à 10 °C. C’est pourquoi, pour un meilleur résultat,
il faudrait y remédier avant de le gonfler, en procédant à un conditionnement conforme aux
recommandations du fabricant. En général, il suffit de placer les ballons pendant quelques
jours dans une chambre isotherme à ventilation forcée, en respectant les conditions requises de
température et humidité, ou de les plonger dans un bain d’eau tiède.
Les ballons utilisés dans les stations polaires devraient présenter des propriétés spéciales qui leur
permettront de conserver leurs capacités de résistance et d’élasticité par grand froid.
8.3.3 Gonflage
Le port de vêtements de protection (voir la section 8.6.4) est recommandé pendant les
opérations de gonflage. L’opérateur ne devrait pas séjourner dans un local clos avec un ballon
empli d’hydrogène. L’alimentation en hydrogène et le remplissage devraient être commandés
de l’extérieur si les portes sont fermées. Lorsqu’un opérateur est dans le local avec un ballon, les
portes devraient rester ouvertes.
L’opération de gonflage devrait être lente car toute dilatation brusque peut entraîner la formation
de points de fragilité dans l’enveloppe du ballon. Il est recommandé de prévoir une soupape de
réglage fin pour pouvoir régler l’afflux de gaz. On peut déterminer le volume de gaz à insuffler
(poussée libre) au moyen d’une buse de remplissage du poids exigé ou d’une buse formant
un bras d’une balance avec laquelle on mesure la force ascensionnelle du ballon. Le dernier
procédé est moins commode, sauf si l’on veut prendre en compte les différences de poids entre
les ballons, ce qui s’impose rarement dans la pratique courante. Il est recommandé de prévoir
une soupape actionnée par la balance. Certains services ont même perfectionné le système en se
servant d’une soupape réglable qui se ferme automatiquement lorsque la poussée ascensionnelle
a atteint la valeur désirée.
872 PARTIE II. SYSTÈMES D’OBSERVATION
8.3.4 Lancer
Il convient de garder le ballon sous abri jusqu’à ce que tout soit prêt pour le lancer. Toute
exposition prolongée au soleil risque de détériorer rapidement l’enveloppe et même de
provoquer l’éclatement de l’engin avant qu’il n’ait quitté le sol. Le port de vêtements de
protection est recommandé lors des lancers manuels.
Le lancer de ballons‑sondes ne pose pas de problème particulier par vent léger. Il est
recommandé de bien veiller à ce que le ballon et les instruments ne puissent pas aller heurter des
arbres ou des bâtiments au voisinage de la station. Une grande vigilance dans l’aménagement
de l’aire de lancer permettra d’éliminer dans une large mesure les incidents de ce genre.
L’aire sélectionnée devrait comporter le moins possible d’obstacles susceptibles de gêner les
opérations. Les bâtiments de la station devraient en outre être conçus et implantés en fonction
des vents dominants, des effets probables de rafales sur l’aire de lancement et des phénomènes
de chasse‑neige dans les climats froids.
Par vent violent, il est également conseillé de maintenir aussi courte que possible la suspente des
instruments sous le ballon pendant le lancer. Un dispositif commode à cette fin se compose d’un
dévidoir sur lequel on enroule la cordelette de suspension et d’un axe commandé par un frein à
air ou un échappement qui la laisse se dérouler lentement après le lancer.
Les lanceurs mécaniques présentent le grand avantage d’offrir une sécurité presque absolue car
ils permettent aux opérateurs de rester éloignés du ballon pendant les opérations de gonflage et
de lancement. Il est possible de les automatiser jusqu’à éliminer toute intervention humaine d’un
bout à l’autre de l’opération de radiosondage, mais ils deviennent inutilisables lorsque la vitesse
du vent dépasse 20 m s–1. Des mesures devraient être prises pour assurer une bonne ventilation
des capteurs des radiosondes avant le lancer et veiller à ce que la structure soit à l’épreuve du feu
ou des explosions.
8.4 ACCESSOIRES
La source de lumière la plus communément employée pour les sondages nocturnes à l’aide de
ballons‑pilotes est une lampe alimentée par une petite batterie électrique. Deux piles sèches
de 1,5 V (ou une pile amorçable à l’eau et une ampoule de 2,5 V 0,3 A) peuvent également
convenir. On peut également faire appel à un système d’éclairage à fluorescence chimique. Il faut
cependant recourir à un éclairage plus puissant (2 à 3 W), éventuellement associé à un réflecteur
simple pour les sondages à haute altitude.
Pour que l’emport d’un éclairage ne ralentisse pas la vitesse ascensionnelle, il faut théoriquement
accroître légèrement la force ascensionnelle libre, c’est‑à‑dire augmenter la force ascensionnelle
totale d’un peu plus que du poids de la charge supplémentaire transportée (voir l’équation 8.3).
En réalité, l’augmentation nécessaire sera probablement inférieure à celle calculée car la charge
améliore le profil aérodynamique et la stabilité du ballon.
On utilisait naguère une petite bougie dans une lanterne en papier translucide accrochée à
environ deux mètres sous le ballon. Cette pratique est déconseillée car la bougie risque de
produire une explosion ou des flammes si elle se rapproche accidentellement du ballon ou de la
source d’hydrogène, et ainsi déclencher un feu de forêt ou tout autre sinistre grave en retombant
au sol.
8.4.2 Parachutes
Pour éviter qu’un instrument de sondage ne subisse ou ne cause des dégâts à l’atterrissage, on
le munit habituellement d’un parachute rudimentaire. Les conditions principales que celui‑ci
devrait remplir sont de s’ouvrir facilement, de ramener la vitesse de descente à 5 m s–1 au plus à
CHAPITRE 8. TECHNIQUES D’OBSERVATION PAR BALLONS MÉTÉOROLOGIQUES 873
8.5.1 Généralités
Les deux gaz les mieux adaptés au gonflement des ballons météorologiques sont l’hélium
et l’hydrogène. Le premier est bien préférable au second car il ne risque ni de s’enflammer,
ni d’exploser, mais son emploi reste l’apanage des rares pays qui disposent de sources
d’approvisionnement naturelles abondantes (voir OMM, 1982). La force ascensionnelle (poussée
totale) de l’hélium est de 1,115 kg m–3 à une pression de 1 013 hPa et une température de 15 °C.
Le chiffre correspondant est de 1,203 kg m–3 pour l’hydrogène pur et un peu inférieur pour
l’hydrogène du commerce.
Il convient de noter que les conditions générales des contrats d’assurance maritime proscrivent
l’emploi de l’hydrogène à bord des navires. On ne peut donc comparer les mérites respectifs
de l’hélium et de l’hydrogène sans prendre en compte le fait que si l’utilisation du premier est
à priori plus onéreuse, celle du second est plus dangereuse et qu’il faut y ajouter le surcoût de
l’assurance — à supposer qu’on parvienne à en souscrire une.
Abstraction faite du coût et des servitudes du transport, le mieux pour une station
météorologique est de se faire livrer le gaz en bouteilles. Cependant, si cela se révèle trop
coûteux ou impraticable, le recours à un générateur d’hydrogène sur place (voir la section 8.5.3)
ne devrait pas présenter de trop grosses difficultés.
De manière générale, les plus commodes sont sans doute les bouteilles en acier renfermant
6 m3 de gaz comprimé à 18 MPa (10 MPa dans les régions tropicales). Toutefois, pour de fortes
consommations, ce qui est le cas des stations de radiosondage, il peut s’avérer utile d’utiliser
des bouteilles de plus grande capacité ou une batterie de bouteilles reliées à une même sortie
afin de limiter le nombre de manipulations. Pour éviter tout risque de confusion, les bouteilles
d’hydrogène devraient être peintes d’une couleur distinctive (rouge dans nombre de pays) avec
un marquage différencié selon la réglementation nationale en vigueur. Les robinets devraient
être à pas inversé, pour les distinguer des bouteilles contenant des gaz non combustibles, et
protégés par une coiffe de sécurité pendant le transport.
Les bouteilles de gaz devraient être contrôlées à intervalles réguliers (entre deux et cinq ans),
selon la réglementation nationale en vigueur. Elles devraient alors être soumises à une pression
interne d’au moins 50 % supérieure à la pression nominale de service. Les bouteilles d’hydrogène
ne devraient pas être exposées à la chaleur et, dans les régions tropicales, elles devraient donc
être protégées contre les rayons directs du soleil. Elles devraient de préférence être entreposées
dans un abri bien ventilé pour permettre aux éventuelles fuites d’hydrogène de s’échapper à l’air
libre.
874 PARTIE II. SYSTÈMES D’OBSERVATION
L’hydrogène peut être produit sur site en faisant appel à différents types de générateurs. Tous les
générateurs et les installations de stockage de l’hydrogène doivent être lisiblement repérés et les
avertissements d’usage clairement marqués selon la réglementation en vigueur (par exemple
«Bouteille contenant de l’hydrogène» ou «Hydrogène – gaz inflammable – Défense de fumer –
Éviter les flammes nues»). Les procédés ou mélanges ci‑après se sont révélé les plus adaptés aux
besoins météorologiques:
g) Électrolyse de l’eau.
La plupart des produits chimiques mis en œuvre dans ces procédés sont dangereux et il est
recommandé de respecter scrupuleusement les normes et codes de bonne pratique nationaux
en vigueur, notamment les consignes de marquage et de mise en garde. Des précautions
spéciales doivent être prises en matière de transport, de stockage, de manutention et
d’élimination. Nombre de ces produits sont corrosifs, de même que leurs résidus. Mal contrôlées,
leurs réactions peuvent générer un dégagement de chaleur et une pression excessifs. En cas
d’ingestion, le méthanol, alcool toxique, peut entraîner la mort, comme cela peut arriver chez les
personnes abusant de substances toxiques.
C’est le cas en particulier de la soude caustique, d’un usage pourtant largement répandu. Lors
de la manipulation, il convient de prendre toutes les précautions nécessaires, en particulier pour
se protéger les yeux et éviter tout contact avec la solution, mais aussi avec la poussière fine qui
se dégage lorsqu’on verse le produit sous forme solide dans le générateur. Un flacon rince‑œil
contenant un agent neutralisant (du vinaigre par exemple) devrait être rangé à portée de main
en cas d’accident.
Certains des procédés chimiques précités exigent l’application de pressions élevées, d’où un
risque plus élevé d’accident. C’est pourquoi les générateurs à haute pression devraient être
soumis à des essais tous les deux ans à une pression égale à au moins deux fois la pression de
service. Ils devraient être munis d’un dispositif de sûreté contre les surpressions, généralement
un disque de rupture. Il convient de respecter strictement les consignes relatives à la taille et
à la forme des disques, au matériau utilisé et à la fréquence de remplacement. Même s’il est
efficace, le dispositif de sûreté n’empêche pas les éventuelles projections de solution bouillante.
Il convient de procéder à un nettoyage minutieux des générateurs à haute pression avant de les
recharger, car les résidus de la charge précédente sont susceptibles de réduire considérablement
le volume disponible à l’intérieur du générateur et donc d’entraîner une augmentation de la
pression de service au‑delà de la limite de calcul.
Tous ces procédés fournissent du gaz à une pression suffisante pour le remplissage des ballons.
Toutefois, le rythme de production de certains (électrolyse en particulier) est si lent qu’il faut
produire du gaz à l’avance et le stocker soit sous une forme comprimée, soit dans un réservoir.
Les procédés fondés sur l’électrolyse de l’eau ou le craquage catalytique du méthanol semblent
intéressants car ils sont relativement sûrs, avec des coûts récurrents de fabrication modérés,
et les matériaux employés sont non corrosifs. Ces deux procédés, ainsi que le procédé à base
d’ammoniaque liquide, font appel au courant électrique. Le matériel est de conception assez
complexe et doit faire l’objet d’un entretien et de procédures de contrôle approfondies destinées
à vérifier que les systèmes de sécurité fonctionnent correctement sur une base quotidienne. L’eau
d’électrolyse doit posséder une faible teneur en minéraux.
8.6.1 Généralités
Une petite étincelle suffit à enflammer l’hydrogène qui se consume en produisant une flamme
presque invisible. Il brûle à des concentrations dans l’air allant de 4 à 74 % en volume (National
Fire Protection Association, 1999), et explose à des concentrations comprises entre 18 et 59 %.
Dans les deux cas, l’opérateur qui se trouve à proximité peut être gravement brûlé sur toutes les
parties exposées de son corps et la déflagration peut le blesser grièvement en le projetant contre
un mur ou au sol.
Les risques d’accident peuvent être évités en mettant en place des procédures et un matériel
adaptés, à condition de prendre les mesures nécessaires pour les faire respecter et de veiller
au bon entretien des équipements (Gremia, 1977; Ludtke et Saraduke, 1992; NASA, 1968). On
n’accorde pas toujours assez d’attention aux problèmes de sécurité à l’intérieur des bâtiments
dans lesquels est fabriqué et stocké l’hydrogène, ou sur les aires de gonflage et de lancer de
ballons (voir la section suivante). Il convient notamment de mettre en place des formations
poussées et de procéder à une surveillance et un contrôle méticuleux des personnels et des
installations pour s’assurer du respect des procédures.
Les points forts des lanceurs automatiques de ballons (voir la section 8.3.4) sont qu’ils sont
pratiquement infaillibles et ne présentent pas de danger pour les opérateurs dans la mesure où
ces derniers ne se situent pas à proximité de l’hydrogène.
Les normes et codes de bonne pratique nationaux relatifs à la prévention des risques en
atmosphère explosive constituent un bon point de départ pour étudier les précautions à prendre.
Par ailleurs, on peut également se reporter aux publications qui traitent de ce problème dans
les blocs opératoires des hôpitaux et les locaux industriels exposés à des risques analogues. Un
opérateur ne devrait jamais se trouver dans un local fermé en présence d’un ballon gonflé. Les
différents paragraphes du présent chapitre donnent quelques consignes relatives aux questions
de sécurité.
Des mesures devraient être prises pour éviter toute accumulation d’hydrogène à l’état libre et de
charges électrostatiques, ainsi que le risque d’étincelles, dans les locaux où l’on fabrique, stocke
et utilise de l’hydrogène, et ce même lorsqu’un ballon éclate pendant le gonflage (OMM, 1982).
La sécurité doit entrer en ligne de compte dans l’architecture des bâtiments (National Fire
Protection Association, 1999; Standards Association of Australia, 1985). Ce sont les conditions
climatiques ainsi que les normes et codes nationaux qui dictent ce qu’il est possible de faire en
matière de conception et de matériaux pour la construction de bâtiments sûrs, protégés contre
les risques liés à l’hydrogène. Les codes n’ont qu’une valeur consultative et servent de base à
la mise en place de bonnes pratiques. Les normes sont publiées sous la forme de spécifications
techniques relatives aux matériaux, aux produits et aux pratiques sûres. Elles devraient
876 PARTIE II. SYSTÈMES D’OBSERVATION
notamment traiter des matériels d’éclairage ignifuges, des appareils électriques en atmosphère
explosive, de la ventilation des locaux en atmosphère explosive, et de l’emploi de vitrage
plastique, de disques de rupture, etc. (OMM, 1982).
Les normes et les codes devraient fournir des informations utiles relatives à la conception des
bâtiments exposés aux risques liés à l’hydrogène. Ils devraient en outre concorder avec les
pratiques nationales recommandées. Il convient de consulter les organismes nationaux de
normalisation lors de la conception de ces bâtiments ou de la révision des règles de sécurité dans
les bâtiments existants, en particulier sur les points suivants:
Des mesures devraient être prises pour réduire au minimum les risques d’étincelles dans les
locaux où l’on manipule de l’hydrogène. Ainsi, tout le matériel électrique (interrupteurs, prises,
câbles) devraient être monté à l’extérieur des locaux concernés. À défaut, il conviendra de prévoir
des interrupteurs anti‑étincelles et des câbles pressurisés. Il est également recommandé d’éclairer
les locaux à la lumière du jour en installant des fenêtres. Pour les mêmes raisons, aucun des outils
utilisés ne devrait produire d’étincelles. Les chaussures des opérateurs ne devraient pas non plus
produire d’étincelles. Il est également recommandé de prévoir une protection contre la foudre.
Si un système d’extinction automatique a été installé dans une partie du bâtiment, il convient
d’étudier les éventuels risques de fuite d’hydrogène par cette voie une fois éteint l’incendie.
Il existe des systèmes de détection d’hydrogène qui peuvent être utilisés pour couper
l’alimentation du générateur d’hydrogène et déclencher une alarme lorsque la concentration de
l’hydrogène dans l’air atteint 20 % du seuil inférieur d’explosion, puis une seconde alarme à 40 %
de ce seuil.
Il conviendra de définir une zone de risque autour du générateur et des aires de stockage des
bouteilles d’hydrogène et de gonflage du ballon, zone dans laquelle le port de vêtements de
protection sera rendu obligatoire (voir la section 8.6.4).
Les lanceurs automatiques (voir la section 8.3.4) permettent en général d’éviter d’avoir à recourir
à un local spécial pour le gonflage des ballons, ce qui simplifie beaucoup la conception des
installations d’hydrogène.
On peut considérablement réduire les risques liés au gonflage et au lancer des ballons en prenant
des mesures contre l’apparition de charges électrostatiques dans la salle de gonflage, sur les
vêtements des opérateurs et le ballon lui‑même. Loeb (1958) fournit des informations sur le
processus d’électrisation. On peut contrôler ce phénomène par une mise à la terre du matériel
d’alimentation en hydrogène et autres équipements et en dotant les opérateurs d’un bracelet de
protection contre les décharges générées par leurs vêtements (OMM, 1982).
Les charges sur les ballons sont plus difficiles à éliminer. Les matériaux dont sont faits ces
derniers, en particulier le latex pur, constituent de très bons isolants. Les charges électrostatiques
naissent de la rupture du contact entre deux matériaux isolants. Un seul effleurement avec les
CHAPITRE 8. TECHNIQUES D’OBSERVATION PAR BALLONS MÉTÉOROLOGIQUES 877
vêtements ou les cheveux de l’opérateur peut engendrer une charge de 20 kV, plus que suffisante
pour enflammer un mélange d’air et d’hydrogène si elle se décharge sous la forme d’une étincelle
très incandescente. Les charges accumulées sur un ballon peuvent mettre de nombreuses heures
à se dissiper dans la terre ou naturellement dans l’air environnant. On a aussi constaté que, quand
un ballon explosait, les déchirures de l’enveloppe pouvaient produire des étincelles assez fortes
pour provoquer un embrasement.
Il est possible de résorber les charges électrostatiques ou d’en prévenir la formation sur le ballon
en pulvérisant de l’eau ou en projetant un jet d’air ionisé sur l’enveloppe pendant le gonflage, en
la trempant dans une solution antistatique (avec ou sans séchage avant le lancer) ou en utilisant
des engins dont le latex contient un additif antistatique; mettre le col à la terre ne suffit pas.
Le potentiel électrostatique maximal qui peut se former ou subsister à la surface d’un ballon
décroît en raison inverse de l’humidité, mais on ne sait pas au juste dans quelle proportion.
Certains essais effectués avec des ballons gonflés de 20 g indiquent que des étincelles assez
puissantes pour enflammer un mélange d’hydrogène et d’oxygène ne pouvaient probablement
pas jaillir lorsque l’humidité relative de l’air ambiant était supérieure à 60 %. D’autres études
semblent indiquer que le seuil acceptable de sécurité se situerait entre 50 et 76 % d’humidité,
tandis que d’autres encore montrent que des étincelles restent à craindre même au‑delà
de ces valeurs. Ceci laisse à penser qu’on pourrait ne plus craindre l’apparition de charges
électrostatiques au‑delà de 70 %, mais une telle conclusion demeure sujette à caution (voir
Cleves et al., 1971).
Pulvériser de l’eau sur l’enveloppe est vivement recommandé parce que l’humidification et la
mise à la terre du ballon débarrassent ses parties mouillées de la plus grande part des charges
électrostatiques. La zone mouillée devrait être la plus étendue possible et l’eau s’écouler en
filets continus jusqu’au sol. Si les portes restent fermées, le taux d’humidité relative dans la
salle de gonflage peut atteindre au minimum 75 % et la probabilité que jaillissent des étincelles
assez puissantes pour enflammer le gaz diminue. Il convient de lancer le ballon dès l’arrêt de la
pulvérisation et l’ouverture des portes.
On peut aussi lutter contre l’accumulation de charges électrostatiques par les voies suivantes
(OMM, 1982):
a) Doter le bâtiment d’un système complet de mise à la terre: relier séparément tous les
accessoires, le matériel d’alimentation en hydrogène et le conducteur du paratonnerre à
une même prise de terre, elle‑même conforme aux normes nationales en vigueur; ne pas
oublier de purger le plancher de ses charges électrostatiques;
e) Réduire au minimum les contacts entre les opérateurs et le ballon, par exemple en installant
la station de gonflage à un mètre ou plus au‑dessus du sol.
Le port de vêtements de protection adaptés est recommandé à toutes les étapes de la procédure,
y compris la production de l’hydrogène, la manutention des bouteilles ainsi que le gonflage et
le lâcher de ballons. La tenue devrait se composer d’une combinaison légère ignifugée dotée
d’une cagoule fabriquée dans un matériau antistatique non synthétique couvrant aussi le bas
du visage, de lunettes ou d’un masque, de gants en coton et de tout vêtement ininflammable
recommandé localement (voir Hoschke et al., 1979).
878 PARTIE II. SYSTÈMES D’OBSERVATION
Il est recommandé de mettre en place un poste de premiers secours adapté à l’installation, doté
d’une trousse permettant de dispenser les premiers soins en cas de brûlure ou de fracture. Dès
lors que des produits chimiques sont employés, il convient d’avoir à portée de main des solutions
neutralisantes adaptées, de l’acide citrique par exemple pour traiter les brûlures à la soude
caustique. Un appareil rince‑œil devrait également être mis à disposition pour permettre une
intervention immédiate (OMM, 1982).
RÉFÉRENCES ET AUTRES LECTURES
Cleves, A.C., J.F. Sumner et R.M.H. Wyatt, 1971: The Effect of Temperature and Relative Humidity on the
Accumulation of Electrostatic Charges on Fabrics and Primary Explosives. Proceedings of the
Third Conference on Static Electrification, Londres.
Gremia, J.O., 1977: A Safety Study of Hydrogen Balloon Inflation Operations and Facilities of the National Weather
Service. Trident Engineering Associates, Annapolis, Maryland.
Hoschke, B.N. et al., 1979: Report to the Bureau of Meteorology on Protection Against the Burn Hazard from
Exploding Hydrogen‑filled Meteorological Balloons. CSIRO Division of Textile Physics and the
Department of Housing and Construction, Australie.
Loeb, L.B., 1958: Static Electrification, Springer‑Verlag, Berlin.
Ludtke, P. et G. Saraduke, 1992: Hydrogen Gas Safety Study Conducted at the National Weather Service Forecast
Office. Norman, Oklahoma.
National Aeronautics and Space Administration (NASA), 1968: Hydrogen Safety Manual. NASA Technical
Memorandum TM‑X‑52454, NASA Lewis Research Center, États‑Unis.
National Fire Protection Association, 1999: NFPA 50A: Standard for Gaseous Hydrogen Systems at Consumer
Sites. National Fire Protection Association, Quincy, Maryland.
———, 2002: NFPA 68: Guide for Venting of Deflagrations. National Fire Protection Association, Batterymarch
Park, Quincy, Maryland.
———, 2005: NFPA 70, National Electrical Code. National Fire Protection Association, Quincy, Maryland.
———, 2006: NFPA 220, Standard on Types of Building Construction. National Fire Protection Association,
Quincy, Maryland.
Organisation météorologique mondiale, 1982: Meteorological Balloons: The Use of Hydrogen for Inflation of
Meteorological Balloons. Instruments and Observing Methods Report No. 13, Genève.
Rosen, B., V.H. Dayan et R.L. Proffit, 1970: Hydrogen Leak and Fire Detection: A Survey. NASA SP‑5092.
Service de l'environnement atmosphérique (Canada), 1978: The Use of Hydrogen for Meteorological Purposes
in the Canadian Atmospheric Environment Service, Toronto.
Standards Association of Australia, 1970: AS C99: Electrical equipment for explosive atmospheres –Flameproof
electric lightning fittings.
———, 1980: AS 1829: Intrinsically safe electrical apparatus for explosive atmospheres.
———, 1985: AS 1482: Electrical equipment for explosive atmospheres – Protection by ventilation – Type of
protection V.
———, 1995: ASNZS 1020: The control of undesirable static electricity.
———, 2004: AS 1358: Bursting discs and bursting disc devices – Application selection and installation.
TABLE DES MATIÈRES DU CHAPITRE
Page
9.1 GÉNÉRALITÉS
La nécessité de mettre en place des observations météorologiques en ville se fait chaque jour
plus pressante. Les populations urbaines ne cessent de croître et les Services météorologiques
sont de plus en plus souvent sollicités pour fournir les données météorologiques qui viendront
alimenter les prévisions détaillées à l’intention des citoyens ou susceptibles d’être utiles dans les
domaines de la construction et de l’urbanisme, des économies d’énergie, des transports et des
communications, de la qualité de l’air et de la santé, de l’ingénierie hydraulique liée aux eaux de
ruissellement et de l’ingénierie éolienne, ainsi que dans le domaine de l’assurance et des mesures
d’urgence. Dans le même temps, les Services météorologiques rencontrent des difficultés à
réaliser des observations urbaines qui ne soient pas gravement remises en cause. En effet, dans la
plupart des sites urbanisés, il s’avère impossible de respecter les directives normalisées relatives à
la sélection des sites et l’exposition des instruments présentées dans la partie I du présent guide
en raison de l’obstruction à l’écoulement d’air et aux échanges radiatifs imputable à la présence
de bâtiments et d’arbres, d’un couvert superficiel artificialisé, de rejets thermiques et de vapeur
d’eau d’origine anthropique.
Le présent chapitre fournit des informations qui permettront de sélectionner des sites, d’installer
une station météorologique et d’interpréter les données relevées en zone urbaine. Il traite
en particulier le cas d’une station climatologique dite standard. En dépit de la complexité et
de l’hétérogénéité des milieux urbains, il est possible d’effectuer des observations utiles et
reproductibles. Chaque site constitue un défi unique. Il convient de s’intéresser de près à certains
principes et concepts pour ainsi dire uniques en agglomération, afin de pouvoir obtenir des
résultats d’observation intéressants. En outre, les personnes chargées d’installer et de gérer la
station devront appliquer ces principes et concepts avec souplesse et intelligence afin de tenir
compte des réalités et des spécificités du milieu observé, la mise en œuvre de règles strictes
étant difficilement applicable. Cette nécessaire souplesse entre en légère contradiction avec la
notion générale de standardisation prônée par l’OMM en termes de pratiques d’observation.
Dans les zones urbaines, il faut parfois accepter une exposition au-dessus de surfaces et à des
hauteurs non normalisées, et consentir à répartir les observations sur deux ou plusieurs sites, ou à
s’approcher plus près que d’habitude des bâtiments et des sources de rejets thermiques.
Les unités de mesure et les instruments utilisés en zone urbaine sont les mêmes que ceux
employés dans les autres milieux. En conséquence, seuls les aspects spécifiques à la ville, ou
difficiles à gérer en raison de la nature de la cité concernée, tels que le choix du site, l’exposition
des instruments et la documentation relative aux métadonnées, seront examinés dans le présent
chapitre.
Les heures et la fréquence des observations, comme le chiffrement des messages, devraient
respecter les normes en vigueur (OMM, 2006, 2010, 2011a, 2011b, 2011c).
Les raisons de la création d’une station urbaine doivent être clairement motivées pour en
garantir le succès. Les deux points les plus fréquemment soulignés sont la volonté de représenter
l’environnement météorologique en un lieu donné à des fins climatologiques et celle de fournir
des données susceptibles de répondre aux besoins d’un utilisateur particulier. Dans les deux
882 PARTIE II. SYSTÈMES D’OBSERVATION
cas, il convient de définir des échelles spatio-temporelles utiles, mais comme expliqué dans les
paragraphes suivants, l’implantation de la station et l’exposition des instruments peuvent différer
significativement d’un cas à l’autre.
Rien n’est plus important que de bien appréhender le concept d’échelle pour assurer le bon
fonctionnement d’une station. On dénombre trois grandes échelles (Oke, 1984; figure 9.1):
b) Échelle locale: elle correspond à l’échelle pour laquelle sont conçues les stations
météorologiques standard. Elle prend en compte les particularités du paysage, par exemple
la topographie, mais exclut les effets à microéchelle. Dans le cas d’une zone urbaine, elle
correspond au climat moyen de parcelles voisines présentant le même type d’urbanisation
(couvert superficiel, taille et espacement des bâtiments, activité). Le signal intègre un
ensemble caractéristique d’effets microclimatiques émanant d’une zone source à proximité
du site. La zone source est la portion de la surface en amont qui détient les principales
propriétés du flux ou de la concentration de variables météorologiques mesurés (Schmid,
2002). Les échelles types s’étendent d’un à plusieurs kilomètres;
La différence essentielle entre le climat des zones urbaines et celui des zones rurales, ou des
aéroports, tient au fait qu’en ville, les échanges verticaux de quantité de mouvement, de
chaleur et d’humidité n’interviennent pas sur une surface (quasi) plane, mais dans une couche
d’épaisseur non négligeable, appelée couche de canopée urbaine (figure 9.1). La hauteur de
la canopée urbaine est approximativement équivalente à la hauteur moyenne des principaux
éléments de rugosité (bâtiments et arbres), zH (voir la définition des paramètres en figure 9.4).
Les effets microclimatiques liés aux différents obstacles et surfaces persistent sur une courte
distance par rapport à leur source pour ensuite se mélanger et s’atténuer sous l’action des
tourbillons de turbulence. La distance nécessaire pour que l’effet s’annule dépend de l’ampleur
de celui-ci ainsi que de la vitesse et de la stabilité du vent (stable, neutre, instable). Ce mélange
intervient tant dans le plan horizontal que dans le plan vertical. Comme nous l’avons déjà noté,
les effets horizontaux peuvent persister sur quelques centaines de mètres. Dans le plan vertical,
CHAPITRE 9. OBSERVATIONS URBAINES 883
a) Méso-échelle
Panache “urbain”
Couche de mélange
PBL
UBL
Sous-couche
Couche inertielle
de surface
Sous-couche
de rugosité
Sous-couche c)
de rugosité UCL
UCL
Figure 9.1. Schéma des échelles climatiques et des couches verticales présentes dans les zones
urbaines: couche limite planétaire (PBL), couche limite urbaine (UBL), couche du couvert
urbain (UCL), couche limite rurale (RBL) (modification de Oke, 1997).
on peut discerner les effets des différents éléments dans la sous-couche de rugosité (RSL), qui
s’étend du sol à la hauteur de mélange zr. Les estimations approximatives et les mesures sur le
terrain indiquent que la valeur de zr peut descendre jusqu’à 1,5 zH sur des sites homogènes
à forte densité de bâti (constructions très rapprochées) mais être supérieure à 4 zH pour des
sites à faible densité (Grimmond et Oke, 1999; Rotach, 1999; Christen, 2003). Un instrument
placé en dessous de zr peut relever des anomalies microclimatiques, mais au-dessus il «voit» un
écoulement mélangé et moyenné spatialement, représentatif de l’échelle locale.
Il convient d’examiner un autre problème susceptible de restreindre encore le choix d’un site
en termes de hauteur. En effet, chaque type de surface à l’échelle locale génère une couche
limite interne, la structure de l’écoulement et les propriétés thermodynamiques observées à
ce niveau correspondant à ce type de surface. La hauteur de la couche augmente avec le fetch
(distance au vent à partir de la transition prise pour origine avec un autre type de surface). La
vitesse à laquelle la couche limite interne se développe avec le fetch dépend de la rugosité et de
la stabilité. En milieu rural, les rapports hauteur/fetch peuvent varier de 1:10 par vent instable à
1:500 par vent stable, et ce rapport diminue à mesure que la rugosité augmente (Garratt, 1992;
Wieringa, 1993). Les zones urbaines tendent vers une stabilité neutre en raison d’une turbulence
thermique et mécanique renforcée liée au phénomène d’îlot de chaleur et à leur forte rugosité.
En conséquence, on considère que le rapport hauteur/fetch type est environ égal à 1:100. La
hauteur de la couche limite interne est prise au-dessus de la hauteur de déplacement zd, qui
correspond au niveau de référence du flux au-dessus de la hauteur de mélange (l’explication de
zd est donnée à la figure 9.4 et dans la note b du tableau 9.2).
Par exemple, si l’on prend l’hypothèse d’un quartier à forte densité de bâti avec une hauteur zH
de 10 m, alors zr devra être au moins égal à 15 m. Si on choisit cette hauteur comme niveau de
mesure, le fetch dans une zone urbaine similaire devrait atteindre au moins 0,8 km, étant donné
que le fetch est égal à 100 (zr – zd), et zd environ 7 m. Cela risque de considérablement réduire le
choix du site, car si la taille de la zone urbaine autour du site d’implantation de la station n’est
pas au moins similaire à cette distance, les observations ne seront pas représentatives du type de
surface locale. Dans les sites à plus faible densité d’urbanisation, où les effets d’îlot de chaleur et
de rugosité sont moindres, le fetch devra probablement être plus important.
884 PARTIE II. SYSTÈMES D’OBSERVATION
À des altitudes supérieures à la hauteur de mélange, mais à l’intérieur de la couche limite interne
locale, les mesures sont réalisées dans la sous-couche en équilibre (figure 9.1), pour laquelle la
théorie de la couche limite s’applique. Cette théorie régit la forme des profils verticaux moyens
des variables météorologiques (notamment la température de l’air, l’humidité et la vitesse du
vent), le comportement des flux turbulents, les spectres et les statistiques. Elle sert de base:
b) À l’extrapolation d’un flux ou d’une propriété donnée dans la couche d’équilibre et en aval
à l’intérieur de la couche de rugosité (et, même si cela est moins fiable, à l’intérieur de la
canopée urbaine). Au niveau de la couche en équilibre, les flux sont constants, la hauteur et
la valeur moyenne des propriétés météorologiques ne varient pas dans le sens horizontal.
En conséquence, les observations des flux et des variables standard sont d’une grande
utilité et permettent de caractériser le milieu sous-jacent à l’échelle locale. L’extrapolation à
l’intérieur de la sous-couche de rugosité est moins souvent prescrite.
Un détecteur placé au-dessus d’une surface ne «voit» qu’une portion de son environnement,
dénommée «zone source» de l’instrument, laquelle dépend du positionnement de ce dernier
en altitude et des caractéristiques du processus de transport entre les deux. Pour les signaux de
rayonnement ascendant (rayonnements de courtes et grandes longueurs d’onde et température
de la surface vus par un thermomètre à infrarouge), le champ de vision de l’instrument et la
géométrie de la surface sous-jacente déterminent ce que l’instrument voit. Par analogie, les
détecteurs tels que les thermomètres, hygromètres, analyseurs de gaz et anémomètres «voient»
des propriétés telles que la température, l’humidité, les gaz atmosphériques, la vitesse et la
direction du vent, qui sont transmis de la surface au détecteur par le transport turbulent. Une
illustration théorique de ces zones sources est présentée dans la figure 9.2.
Capteur
50 %
x
50 %
90 %
Vent
90 %
Figure 9.2. Représentation conceptuelle des zones d’origine contribuant à envoyer vers les
capteurs des rayonnements et des flux turbulents de concentrations. Si le capteur est un
radiomètre, 50 à 90 % du flux provient de la zone située à l’intérieur des cercles
correspondants. Si le capteur répond à une propriété du transport turbulent, 50 à 90 % du
signal provient de la zone située à l’intérieur des ellipses correspondantes. Ces flux sont
dynamiques au sens où ils sont orientés par le vent et se déplacent donc
selon la direction et la stabilité du vent.
CHAPITRE 9. OBSERVATIONS URBAINES 885
La zone source d’un radiomètre pointé vers le bas, l’élément sensible étant orienté parallèlement
au sol, est une parcelle circulaire au centre de laquelle est placé l’instrument (figure 9.2). Le rayon
(r) de la zone source circulaire contribuant au signal du radiomètre à la hauteur (z1) est donné
par Schmid et al. (1991):
−0.5
1
r = z1 − 1 (9.1)
F
où F est le facteur de forme, à savoir la proportion de flux mesuré au niveau du détecteur émis
par cette zone. En fonction de son champ de vision, le radiomètre ne peut voir qu’un cercle
limité ou étendre sa vision jusqu’à l’horizon. Dans ce dernier cas, l’instrument fournit un signal
cosinusoïdal, de telle sorte que, vers l’horizon, il devient de plus en plus difficile de définir la
véritable zone source vue, d’où l’utilisation du facteur de forme qui définit la zone contribuant
à une portion déterminée (souvent fixée à 50 %, 90 %, 95 %, 99 % ou 99,5 %) du signal de
l’instrument.
La zone source d’un capteur, qui dérive son signal de l’observation du transport turbulent, n’est
pas distribuée symétriquement autour de celui-ci. Elle présente une forme elliptique dans le sens
opposé au vent à partir de la tour (figure 9.2). Par conditions ventées, l’effet de l’aire de surface
à la base du mât est effectivement nul, car la turbulence ne peut pas transporter son influence
jusqu’au niveau du capteur. À une certaine distance au vent, la source commence à affecter le
capteur; cet effet atteint un pic avant de décroître à des distances plus grandes (pour la forme
des variations dans le sens des x et des y, voir Kljun et al., 2002; Schmid, 2002). La distance au
vent jusqu’à la première surface contribuant au signal, au point du pic d’influence, à la surface
au vent la plus éloignée ayant une incidence sur la mesure, et à la zone dite «d’empreinte», varie
considérablement avec le temps. Elle dépend de l’altitude à laquelle la mesure est réalisée (plus
importante aux altitudes plus élevées), de la rugosité de la surface, de la stabilité atmosphérique
(augmente à mesure que l’on passe de conditions instables à stables) et de la mesure éventuelle
d’un flux turbulent ou de la concentration de variables météorologiques (plus importante pour
la concentration) (Kljun et al., 2002). Il existe des méthodes pour calculer les dimensions des
«empreintes» de flux et de concentration (Schmid, 2002; Kljun et al., 2004).
La situation illustrée en figure 9.2 représente le cas général, mais elle s’applique surtout aux
instruments placés dans la sous-couche en équilibre, bien au-dessus des complications que
peuvent provoquer la sous-couche de rugosité et la géométrie complexe de la surface en trois
dimensions d’une zone urbaine. Au niveau de la canopée urbaine, aucune évaluation fiable de
la diminution des effets des zones sources de rayonnement et de turbulence avec la distance
n’a encore été réalisée. On peut supposer que ces derniers dépendent des mêmes propriétés
et présentent des formes générales similaires à celles illustrées en figure 9.2. Toutefois, on
observe des complications évidentes dues à la géométrie complexe du rayonnement, ainsi qu’au
blocage et à la canalisation des flux, lesquels caractérisent la canopée urbaine. Il est évident
que l’environnement immédiat de la station est de loin le paramètre le plus déterminant et
l’étendue de la zone source des effets convectifs augmente avec la stabilité du vent et l’altitude
du détecteur. La distance ayant une incidence sur les détecteurs au niveau de l’abri (~1,5 m)
peut être égale à quelques dizaines de mètres en conditions neutres, inférieure à cette valeur en
conditions instables, et sans doute supérieure à 100 m en conditions stables. À 3 m de hauteur,
les distances équivalentes peuvent probablement atteindre 300 m environ pour un vent stable.
On estime que le rayon du cercle d’influence sur un détecteur de température ou d’humidité
au niveau de l’abri est généralement égal à environ 0,5 km, mais cela dépend sans doute de la
densité du bâti.
Il ressort de l’analyse ci-dessus que, si un site urbain instrumenté est destiné à la surveillance du
climat à l’échelle locale à proximité de la surface, deux stratégies offrent de bonnes chances de
pouvoir y parvenir, à savoir:
à celles utilisées pour des sites non urbains. On suppose alors que le mélange induit par le
flux généré autour des obstacles est suffisant pour mélanger les propriétés et former une
couche moyenne de canopée urbaine au niveau local;
b) Installer les capteurs sur une tour élevée au-dessus de la sous-couche de rugosité pour
obtenir des valeurs de mélange susceptibles d’être extrapolées à la canopée urbaine.
La taille de chaque échelle urbaine ne correspond pas avec exactitude à celle généralement
donnée dans les manuels. Les échelles sont attribuées selon les dimensions des éléments
morphométriques qui caractérisent un paysage urbain. L’accent est ainsi mis sur la nécessité de
décrire correctement les propriétés des zones urbaines qui ont une incidence sur l’atmosphère.
Les paramètres de base les plus importants sont la structure urbaine (taille des bâtiments,
espaces entre les bâtiments, largeur de la rue et espacement entre les rues), le couvert urbain
(zones bâties, revêtues et végétalisées, sol nu, surfaces d’eau), le tissu urbain (bâti et éléments
naturels) et le métabolisme urbain (chaleur, eau et pollution d’origine anthropique). En
conséquence, il convient de prendre en compte ces descripteurs pour caractériser les sites
d’implantation des stations de climatologie urbaine, sélectionner les sites potentiels et alimenter
les métadonnées destinées à décrire avec précision l’environnement des stations.
Les classes urbaines caractéristiques sont généralement définies à partir d’une combinaison
de ces quatre paramètres de base. Par exemple, l’hypercentre des villes se caractérise par des
bâtiments relativement élevés, très proches les uns des autres, de sorte que le sol est largement
occupé par des bâtiments ou des surfaces revêtues, construits en matériaux durables tels que la
pierre, le béton, la brique et l’asphalte, et par d’importants rejets dus aux appareils de chauffage
et de climatisation, aux cheminées et au trafic automobile. De l’autre côté de l’éventail, on trouve
des quartiers à faible densité de bâti, avec des bâtiments d’un ou deux étages de construction
relativement légère, entourés de grands jardins ou espaces verts, où les rejets thermiques sont
faibles, mais les besoins en matière d’irrigation probablement importants.
On peut utiliser le système mis au point par Ellefsen pour décrire la structure urbaine en termes
de rugosité, d’écoulement d’air, d’exposition ou d’obstacle au rayonnement. On peut affirmer
que celui-ci comprend indirectement des aspects du couvert, du tissu et du métabolisme urbains
car chaque structure se caractérise en effet par un certain type de couvert, de matériaux et
d’activité humaine. La typologie d’Ellefsen s’avère toutefois moins utile lorsque les éléments de
bâti sont rares et en présence de zones végétalisées importantes (forêt urbaine, couvert végétal
ras, prairie, broussailles, cultures), d’un sol nu (sol proprement dit ou roche) et de surfaces d’eau
(lacs, marécages, rivières). Une typologie simple des zones climatiques urbaines est présentée
dans le tableau 9.1. Elle comprend les groupes de zones définies par Ellefsen, plus une mesure
de la structure, zH/W (voir la note c du tableau 9.1,) qui s’avère étroitement liée à l’écoulement,
aux phénomènes d’ombrage et d’îlot de chaleur, ainsi qu’une mesure du couvert (% de bâti) par
rapport au degré de perméabilité de la surface.
CHAPITRE 9. OBSERVATIONS URBAINES 887
Cette classification précise des zones climatiques urbaines est particulièrement utile, non pas
tant pour décrire un site que pour permettre une classification des différentes zones urbanisées
en quartiers dotés de caractéristiques similaires en termes d’influence sur le climat local, ainsi
que le repérage d’éventuelles transitions entre ces zones. Il est donc primordial de procéder
à une telle classification avant toute implantation d’une station urbaine afin de pouvoir
approximativement satisfaire aux critères d’homogénéité spatiale qui président au déploiement
d’une station dans la couche de canopée urbaine ou au-dessus de la sous-couche de rugosité.
On suppose ci-après que la morphométrie de tout ou partie de la zone urbaine a été évaluée
à partir de cartes détaillées et/ou de photographies aériennes, d’images satellites (visibles et/
ou thermiques), de documents d’urbanisme ou au moins d’une analyse visuelle réalisée à partir
d’un véhicule ou à pied. Même si les cartes d’occupation des sols peuvent présenter un intérêt, il
serait souhaitable qu’elles illustrent la fonction et pas nécessairement la forme physique de l’espace
bâti. La description d’un milieu urbain devrait en principe viser à établir une carte sur laquelle les
différentes zones climatiques urbaines sont délimitées.
Le présent document s’appuie sur les zones climatiques urbaines présentées au tableau 9.1.
Les catégories proposées peuvent être adaptées pour tenir compte des formes urbaines
particulièrement caractéristiques de cités anciennes ou d’un développement urbain
anarchique tel qu’on le rencontre dans certains pays moins développés. Par exemple, nombre
d’agglomérations en Afrique et en Asie n’ont pas une proportion aussi importante de surfaces
recouvertes de matériaux imperméables et les routes ne sont pas toujours asphaltées.
9.2.1 Emplacement
Dans un premier temps, l’objectif doit être clairement défini. Si le projet concerne le déploiement
d’une seule station en milieu urbain, il convient de décider si le but visé est de surveiller l’impact
majeur sur le climat exercé par la ville ou un quartier type ou plus représentatif, ou alors de
déterminer les caractéristiques d’un site particulier (éventuels problèmes d’ordre climatique
ou nouveau projet d’urbanisme). Au départ, on peut évaluer les zones où la probabilité de
rencontrer les effets les plus importants est la plus forte en se référant à la typologie des zones
climatiques urbaines classées par ordre d’importance dans le tableau 9.1. De même, on peut
évaluer le probable caractère typique d’une station donnée en s’appuyant sur les éléments
contenus dans le tableau 9.1 et en choisissant de vastes zones présentant le même type
d’urbanisation en vue d’une analyse plus fine.
% de
Indice de Rapport de
Zone climatique urbainea Image construction
rugositéb formec
(imperméable)d
1. Zone urbaine 8 >2 > 90
extrêmement
développée avec
des immeubles
séparés, rapprochés
et élevés portant un
revêtement (par ex.:
tours en centre‑ville)
888 PARTIE II. SYSTÈMES D’OBSERVATION
% de
Indice de Rapport de
Zone climatique urbainea Image construction
rugositéb formec
(imperméable)d
2. Zone urbaine 7 1,0–2,5 > 85
extrêmement
développée et à
haute densité de
population avec des
immeubles de 2 à
5 étages attenants ou
très proches, souvent
en brique ou en pierre
(par ex.: anciens
centres ‑villes)
Bâtiments Végétation
Sol imperméable Sol perméable
CHAPITRE 9. OBSERVATIONS URBAINES 889
Notes:
a Ensemble de classes simplifié reprenant certains éléments des systèmes d’Auer (1978) et d’Ellesfen (1991) ainsi que
des mesures physiques liées au vent et à la régulation des températures et de l’humidité (colonnes de droite). La
correspondance approximative entre les zones climatiques urbaines et les zones de terrain urbain d’Ellefsen est la
suivante:
1 (Dc1, Dc8), 2 (A1–A4, Dc2), 3 (A5, Dc3–5, Do2), 4 (Do1, Do4, Do5), 5 (Do3), 6 (Do6), 7 (aucune).
b Rugosité effective des terrains selon la classification de Davenport (Davenport et al., 2000); voir le tableau 9.2.
c Rapport de forme = zh/W. C’est la hauteur moyenne des principaux éléments de rugosité (bâtiments, arbres) divisée
par leur espacement moyen; en centre‑ville il s’agit de la hauteur/largeur du couloir formé par une rue. Il existe
un lien notoire entre cette valeur et les types de régimes d’écoulement (Oke, 1987) ainsi que la régulation des
températures (protection contre le soleil et filtrage des grandes longueurs d’onde) (Oke, 1981). Les grands arbres
font augmenter cette valeur de manière notable.
d Proportion moyenne de terrain recouvert de constructions (bâtiments, routes, zones goudronnées et autres zones
imperméables); le reste de la zone dispose d’une couverture perméable (espaces verts, eau et autres surfaces
naturelles). La perméabilité a une incidence sur l’humidité du sol et donc sur l’humidification et sur le potentiel de
refroidissement
par évaporation.
Dans le cadre des mesures de température et d’humidité de l’air, on peut utilement affiner
la recherche en effectuant des relevés spatiaux à pied, à bicyclette ou en voiture à travers les
zones à étudier. Cette opération doit être réitérée plusieurs fois avant de pouvoir établir des
cartes en isolignes ou en coupe transversale (voir la figure 9.3), indiquant l’emplacement des
zones d’anomalies thermiques ou hydriques dignes d’intérêt. En général, le meilleur moment
pour réaliser ce type de mesures se situe la nuit, quelques heures après le coucher ou avant
le lever du soleil, par temps relativement calme et ciel clair, et ce pour augmenter les chances
de bien distinguer les différences entre microclimat et climat local. Il n’est pas conseillé de
conduire ce type d’observations au moment du lever ou du coucher du soleil car les variables
météorologiques évoluent très rapidement à ces heures, rendant difficile toute comparaison
spatiale significative.
Si la station doit s’intégrer à un réseau destiné à décrire les caractéristiques spatiales du climat
urbain, il est alors nécessaire de disposer d’une vue plus large. Il convient donc de mener une
réflexion sur la forme spatiale type des distributions climatiques en milieu urbain. Par exemple,
les isolignes des îlots de chaleur et d’humidité ressemblent véritablement aux contours de leurs
éponymes topographiques (figure 9.3). Elles présentent des «pentes» abruptes, avec souvent
un «plateau» sur une grande partie de la zone urbaine, entrecoupées de «talus» et de «bassins»
Cœur urbain
+8
+6
+4
Parc
A +4
+2
nt
Ve
Aire urbanisée
Figure 9.3. Configuration spatiale type des isothermes dans une grande ville la nuit par temps
clair et calme. Ce graphique illustre l’effet d’îlot de chaleur (d’après Oke, 1982).
890 PARTIE II. SYSTÈMES D’OBSERVATION
Dans la plupart des cas, la dernière proposition est trop ambitieuse pour un réseau de stations
fixes implantées dans la couche de canopée urbaine. Il faudrait en effet un grand nombre de
stations pour décrire les gradients à la périphérie, au niveau de la région en plateau, des crêtes et
des creux des nœuds de développement urbain plus faibles ou plus forts que la moyenne. Si les
mesures sont réalisées à partir d’une tour, les détecteurs étant placés au-dessus de la sous-couche
de rugosité, l’action de mélange produit des configurations spatiales plus voilées et se pose avec
pertinence la question de la longueur du fetch jusqu’à la transition la plus proche avec une autre
zone climatique urbaine et à l’interface zone urbaine/zone rurale. Alors qu’on peut admettre un
fetch de 0,5 à 1 km à l’intérieur de la canopée urbaine, il sera sans doute plus proche de quelques
kilomètres pour un détecteur monté sur une tour.
Dans la mesure où l’objectif est de surveiller le climat local induit par une zone urbaine, il
convient d’éviter les influences microclimatiques externes ou autres phénomènes climatiques à
échelle locale ou méso-échelle susceptibles de compliquer les observations. En conséquence, à
moins de s’intéresser plus spécifiquement aux configurations climatiques liées à la topographie,
il est judicieux d’éviter les endroits exposés aux effets à échelle locale ou méso-échelle tels que
les effets du drainage de l’air froid en bas des vallées et le long des pentes dans la zone urbaine,
les effets de l’accélération du vent ou l’effet d’abri à proximité d’une colline ou d’un escarpement,
les effets du brouillard dans les vallées fluviales ou aux abords des nappes d’eau, ou encore ceux
des configurations nuageuses bloquées par la géographie des lieux, etc. D’autre part, si de tels
évènements présentent un avantage ou un danger, il peut s’avérer utile de concevoir un réseau
spécifiquement destiné à échantillonner ses effets sur le climat urbain, comme les effets positifs
d’une brise de mer ou de lac sur une ville trop chaude.
9.2.2 Implantation
Une fois choisis le type et l’emplacement de la zone climatique urbaine, l’étape suivante
consiste à étudier la carte, les images satellites et les photographies pour réduire le nombre de
sites possibles à l’intérieur de cette zone. On recherche les zones d’urbanisation relativement
homogène, sans anomalie de structure, de couvert ou de matériau sur de larges étendues.
Il n’est toutefois pas possible de donner une définition précise du «relativement», dans la vie
réelle, chaque quartier urbain présentant des spécificités qui lui sont propres et qui limitent
son homogénéité à une certaine échelle. Néanmoins, s’il n’est pas possible de proposer une
liste exhaustive, voici quelques exemples de ce qu’il faut éviter: des étendues inhabituellement
humides dans une zone par ailleurs sèche, des bâtiments deux fois plus hauts que la hauteur
moyenne du quartier, un grand parking asphalté au milieu de jardins irrigués, une importante
source de chaleur concentrée telle qu’une installation de chauffage ou une cheminée de
ventilation d’un tunnel. Il convient également d’éviter toute proximité avec les zones de transition
entre les différents types de zones climatiques urbaines, comme les sites sur lesquels sont ou
risquent d’être prévus d’importants réaménagements urbains. Le degré de préoccupation en
termes de paramètres anormaux diminue à mesure que l’on s’éloigne du site lui-même, comme
nous l’avons vu par rapport aux zones sources.
Dans la pratique, pour chaque site envisagé, il convient d’estimer une «empreinte» en matière
de rayonnement (voir par exemple l’équation 9.1) et de propriétés de turbulence. Ensuite, les
principales propriétés de surface telles que la hauteur moyenne et la densité des obstacles,
ainsi que les caractéristiques du couvert et des matériaux utilisés, devraient être soigneusement
analysées au sein de ces empreintes. Leur homogénéité devrait ensuite être évaluée, soit
visuellement, soit par la mise en œuvre de méthodes statistiques. Une fois sélectionnées
des zones cibles dont l’homogénéité conviendrait à l’installation d’un abri ou d’une station
à une hauteur élevée (au-dessus de la sous-couche de rugosité), il conviendra de recenser
les propriétaires de sites susceptibles d’héberger l’abri ou la station. Si un organisme public
recherche un site, il peut se tourner vers l’un des terrains par ailleurs utilisés dont il est déjà
CHAPITRE 9. OBSERVATIONS URBAINES 891
propriétaire dans la zone visée ou vers d’autres organismes ou entreprises (possédant bureaux,
cours fermées, terrains libres, droits de passage) avec lesquels il entretient de bonnes relations,
notamment les écoles, les universités, les entreprises de services collectifs (électricité, téléphone,
canalisations) et les gestionnaires des voies de transport (routes, chemins de fer). Ces sites sont
appropriés car ils sont faciles d’accès, souvent protégés contre le vandalisme, et raccordés à
l’électricité.
Les toits des bâtiments ont souvent constitué un site de prédilection pour les observations
météorologiques. Ce choix était souvent fondé sur la conviction sans doute erronée qu’à cette
hauteur, l’abri de l’instrument n’était pas exposé aux complications liées à la couche de canopée
urbaine. En fait, il règne au sommet des toits un microclimat anormal très particulier qui risque
de conduire à des résultats erronés. L’écoulement d’air au-dessus d’un bâtiment crée de fortes
perturbations en termes de vitesse et de direction du vent et de rafales, et ne ressemble en
rien à l’écoulement enregistré à la même altitude à une certaine distance du bâtiment ou près
du sol (figure 9.5). Les bâtiments à toit plat peuvent en réalité créer des flux au niveau du toit
contraires au flux principal externe et les vitesses varient d’une turbulence extrême à un quasi-
calme. Les toits sont en outre construits en matériaux aux propriétés thermiques plutôt extrêmes.
Par vent léger et ciel clair, ils peuvent devenir très chauds le jour et froids la nuit, d’où un fort
gradient de température à leur proximité. Ils sont aussi conçus pour être étanches et évacuer
l’eau rapidement. Si on y ajoute leur exposition au rayonnement solaire et au vent, ils peuvent
se révéler anormalement secs. Les toits constituent donc en général un piètre choix pour les
observations de la température, de l’humidité et des précipitations, à moins de placer les
instruments sur des mâts très hauts. Ils peuvent néanmoins s’avérer adaptés à l’observation des
composantes du rayonnement incident.
Une fois le site choisi, il est primordial d’établir une description complète et détaillée des
caractéristiques du site (métadonnées) (voir la section 9.4).
À bien des égards, les normes généralement admises en matière d’exposition des instruments
météorologiques et décrites dans la partie I du présent guide s’appliquent aux sites urbains.
Toutefois, le respect de ces normes ne se justifie pas dans nombre de cas, quand il ne s’avère
pas impossible. La présente section recommande un certain nombre de principes utiles dans
ce cadre, même s’il n’est pas possible d’envisager toutes les éventualités. Les recommandations
présentées ci-après demeurent conformes aux objectifs généraux définis dans le chapitre 1 de la
partie I.
De nombreuses stations urbaines ont été implantées au-dessus d’une herbe courte dans des
lieux découverts (parcs, terrains de jeux), et mesurent donc en réalité des conditions de type
rural modifié, non représentatives du milieu urbain. On arrive ainsi au constat étonnant que
certaines stations urbaines couplées à des stations rurales n’enregistrent aucun effet urbain sur la
température (Peterson, 2003).
Selon le principe directeur qui régit l’exposition des capteurs dans la canopée urbaine, il
conviendra d’installer ces derniers de sorte à mesurer des conditions représentatives du milieu
de la zone climatique urbaine étudiée. Dans les villes, il n’est pas judicieux d’adopter des sites où
les conditions sont similaires à celles généralement rencontrées en rase campagne. Au contraire,
il est recommandé d’implanter les stations urbaines au-dessus de surfaces représentatives d’un
microclimat urbain à l’échelle locale. La catégorie «% de construction» (tableau 9.1) n’est qu’une
indication sommaire de la surface sous-jacente recommandée.
La distance aux obstacles, à savoir un éloignement suffisant des arbres, des bâtiments, des
murs ou autres obstacles (voir le chapitre 1 de la partie I), constitue de toute évidence la
892 PARTIE II. SYSTÈMES D’OBSERVATION
condition la plus difficile à respecter dans de nombreux sites urbains. On recommande plutôt
de déployer la station urbaine au centre d’un espace dégagé où le rapport de forme (zH/W) est
approximativement représentatif de la localité.
Lors de l’installation des instruments en milieu urbain, il est particulièrement important d’utiliser
des câbles blindés en raison du grand nombre de lignes électriques et d’autres sources de bruit
électrique présentes sur ces sites.
9.3.2 Température
Les capteurs généralement utilisés pour mesurer la température de l’air (notamment leur
exactitude et leurs caractéristiques de réponse) sont adaptés aux mesures en milieu urbain.
Il est recommandé d’accorder une attention toute particulière à leur protection contre le
rayonnement et à leur ventilation. Dans la canopée urbaine, les capteurs sont susceptibles d’être
placés relativement près de surfaces chaudes, telles qu’un mur éclairé par le soleil, une route ou
un moteur chaud de véhicule, ou d’être exposés à la chaleur reflétée par des surfaces vitrées.
En conséquence, les écrans utilisés devraient arrêter efficacement le rayonnement. De même, il
convient de prévoir une ventilation forcée des capteurs placés dans la partie basse de la canopée
urbaine si ces derniers sont dotés d’une protection trop efficace. Si un réseau comporte à la fois
des groupes de capteurs avec et sans protection ou ventilation, cela peut expliquer les différences
enregistrées d’un site à l’autre. Les pratiques suivies devraient donc être uniformisées.
Dans les stations situées en dehors des zones urbaines, la hauteur recommandée de l’écran
se situe entre 1,25 et 2 m au-dessus du sol. Si on peut admettre ces valeurs en milieu urbain,
il peut s’avérer judicieux d’assouplir cette règle et d’envisager des hauteurs plus élevées, sans
risque d’erreur importante dans la plupart des cas. Cela est particulièrement vrai dans les zones
à forte densité de bâti car les observations dans les canyons font apparaître des gradients de
température très faibles dans la plus grande partie de la couche de canopée urbaine, à condition
de se situer à plus d’un mètre d’une surface (Nakamura et Oke, 1988). Les mesures réalisées à
trois ou cinq mètres ne diffèrent sensiblement pas de celles réalisées à la hauteur standard; elles
permettent de couvrir des zones sources relativement plus importantes, de mettre les capteurs
hors d’atteinte afin d’éviter tout risque de dommage, et de les éloigner des voies de circulation.
Elles permettent en outre une meilleure dilution de la chaleur émise par les gaz d’échappement
automobiles et une réduction de la contamination provoquée par les poussières.
Les températures mesurées au-dessus de la canopée urbaine à l’aide de capteurs montés sur une
tour subissent l’influence des flux échangés avec la canopée, auxquels s’ajoutent les effets des
toits. Les toits présentent une variabilité thermique infiniment plus importante que la plupart des
autres surfaces à l’intérieur de la canopée. La majorité des toits sont conçus pour isoler et donc
réduire au minimum les échanges de chaleur avec l’intérieur des bâtiments. En conséquence, la
température de surface des toits peut devenir très élevée le jour, alors que les murs des bâtiments
et le sol des «rues canyons», partiellement à l’ombre et plus conducteurs, sont plus frais. La nuit,
les conditions s’inversent, les toits étant relativement froids et les surfaces à l’intérieur des rues
canyons plus chaudes à mesure qu’elles restituent la chaleur absorbée pendant la journée. On
CHAPITRE 9. OBSERVATIONS URBAINES 893
peut également enregistrer des complications liées aux rejets thermiques au niveau des toits.
En conséquence, alors que la température varie peu avec la hauteur dans la canopée urbaine,
on relève une discontinuité au niveau des toits tant horizontale que verticale. Il convient
d’installer les détecteurs bien au-dessus des toits, > 1,5 zH si possible, pour obtenir une moyenne
spatiale significative, et favoriser ainsi le mélange de l’air entre le toit et le canyon. À partir des
données de température relevées par un capteur placé en altitude, il est difficile d’extrapoler les
valeurs enregistrées au niveau de l’écran car il n’existe pas pour l’instant de méthode standard.
De même, il n’existe pas de mécanisme général simple pour extrapoler les températures
horizontalement à l’intérieur de la canopée urbaine. Les modèles statistiques donnent de bons
résultats, mais il faut pouvoir disposer d’un très grand nombre d’archives de données observées
par un réseau dense de capteurs, ce qui n’est généralement pas le cas.
Il n’est pas fréquent de mesurer la température de surface dans les stations urbaines, mais ce
paramètre pourrait représenter une variable très utile pour alimenter les modèles destinés à
calculer les flux. Pour obtenir une valeur représentative de la température de surface, il convient
de faire la moyenne des échantillons des nombreuses surfaces, tant horizontales que verticales,
qui constituent une zone urbaine. Cela ne peut être réalisé que par télédétection infrarouge
à l’aide d’un scanner embarqué sur un aéronef ou un satellite, d’un pyrgéomètre pointé vers
le bas, ou d’un ou plusieurs thermomètres à rayonnement dont le champ cumulé de vision
couvre un échantillon représentatif d’un quartier. En conséquence, il convient de correctement
échantillonner la cible et de bien définir son émissivité si l’on veut obtenir des résultats précis.
Il est conseillé de mesurer la température du sol dans les zones urbaines. L’effet d’îlot de chaleur
s’étend au sous-sol, ce qui peut avoir une incidence sur la conception technique des canalisations
d’eau ou la construction des routes. En pratique, il peut s’avérer difficile de mesurer cette
variable dans les sites fortement urbanisés. Le sol nu est souvent rare, le profil du sol est souvent
fortement perturbé et on peut trouver en profondeur des obstacles ou des objets anormalement
chauds ou froids (par exemple des canalisations d’eau vides, pleines ou qui fuient, des égouts
ou des conduites de chauffage). La mesure de la température minimale sur gazon ne présente
pratiquement aucun intérêt en milieu urbain.
Les capteurs de température sont souvent enfouis dans la chaussée, en particulier dans les
régions exposées au gel. Ils sont généralement reliés à une station de surveillance de la
météorologie des routes. Il peut être très utile de placer les capteurs au niveau de la zone de
contact avec les pneumatiques et au centre de la voie.
À l’échelle urbaine, il sera probablement inutile de mesurer la pression atmosphérique s’il existe
déjà une station synoptique dans la région. Néanmoins, si des capteurs de pression sont prévus,
les recommandations du chapitre 3 de la partie I, s’appliquent. À l’intérieur des bâtiments ou à
proximité de ces derniers, on risque d’observer un phénomène de «pompage» dû aux rafales
de vent. On peut en outre relever des différences de pression entre l’intérieur et l’extérieur des
bâtiments si le capteur est installé dans une pièce climatisée. Il suffit pour remédier à ces deux
difficultés d’installer une sonde de pression statique (voir la section 3.8 du chapitre 3 de la
partie I).
894 PARTIE II. SYSTÈMES D’OBSERVATION
9.3.4 Humidité
Il est bien connu que le milieu urbain est contaminé (poussières, huiles, polluants). Dans ce
contexte, certains hygromètres se détériorent et doivent faire l’objet d’un entretien plus fréquent.
C’est pour cela que, si des méthodes psychrométriques sont mises en œuvre, il convient de
remplacer plus souvent le manchon des thermomètres mouillés et de veiller à ce que l’eau
distillée ne soit pas contaminée. Les cheveux d’un hygromètre à cheveux peuvent être détruits
par l’air pollué de la ville, c’est pourquoi il est déconseillé de faire appel à ce type d’instrument
sur des périodes prolongées. Le miroir des hygromètres à condensation et les fenêtres des
hygromètres à infrarouge et ultraviolet doivent être nettoyés régulièrement. L’état de certains
instruments se dégrade tellement qu’il faut remplacer entièrement les capteurs à intervalles
relativement fréquents. Les instruments installés dans la canopée urbaine étant protégés du
vent par un abri, il est essentiel de prévoir une ventilation forcée, comme recommandé dans la
section 4.2 du chapitre 4 de la partie I, ainsi qu’une protection contre les sources externes de
rayonnement solaire et de rayonnement de grandes longueurs d’onde.
Toutefois, si un site se trouve sur un terrain relativement horizontal, avec un fetch suffisant en
aval des principaux changements de rugosité, et est constitué d’une seule zone climatique
urbaine sans bâtiments anormalement élevés, on devrait pouvoir observer un profil de vent
moyen tel qu’illustré dans la figure 9.4. La moyenne est à la fois spatiale et temporelle. Il n’existe
vraisemblablement aucun site présentant un tel profil dans la canopée urbaine. Les différents
lieux d’implantation sont exposés à des changements de direction et de vitesse du vent
extrêmement variables à l’interface des bâtiments, des rues, des cours et des arbres. La forme du
profil diffère selon qu’il s’agit d’un écoulement longitudinal ou d’un écoulement transversal dans
le canyon (Christen et al., 2002) et dépend de sa position par rapport à la rue, transversale ou
longitudinale (DePaul et Shieh, 1986). Les gradients de vitesse du vent dans la canopée urbaine
sont faibles pratiquement jusqu’à la surface. En première approximation, on peut décrire le profil
à l’intérieur de la canopée sous une forme exponentielle (Britter et Hanna, 2003) qui se confond
avec le profil logarithmique près des toits (figure 9.4).
CHAPITRE 9. OBSERVATIONS URBAINES 895
Hauteur
z Sous-couche
inertielle
Couche
de surface
zr
zH
RSL
z0 {
zd
0
{ UCL
0
Vitesse horizontale moyenne, ū
Figure 9.4. Moyenne généralisée (spatiale et temporelle) du profil de la vitesse du vent (ū)
dans une zone urbaine dense. Le graphique indique également l’emplacement des sous-
couches de la couche superficielle. Les valeurs indiquées sur l’axe des ordonnées (hauteur)
correspondent à la hauteur moyenne des éléments de rugosité (zH), à la sous-couche de
rugosité (zr, ou hauteur de combinaison), à la longueur de rugosité (z0) et à la longueur de
déplacement sur le plan zéro (zd). La ligne en pointillés représente le profil extrapolé à partir
de la sous-couche inertielle; la ligne continue représente le profil réel.
z
u z = ( u* / k ){ln ( z − zd ) z0 +Ψ M } (9.2)
L
où u* est la vitesse de frottement; k la constante de von Karman (0,40); z0 la longueur de
rugosité d’un élément de surface; zd la hauteur de déplacement (figure 9.4); L la longueur de
stabilité d’Obukhov (= –u*3/[k(g/θv)QH]), où g est l’accélération de la pesanteur, θv la température
potentielle virtuelle de l’air et QH le flux turbulent de chaleur sensible; et ΨM une fonction sans
dimension qui tient compte du changement de courbure du profil de vent qui s’éloigne du profil
neutre avec une plus grande stabilité ou instabilité1. En cas de profil neutre (généralement par
vent fort et ciel nuageux), ΨM est égal à 1, l’équation 9.2 se réduit à:
u z = ( u* / k ) ln ( z − zd ) z0 (9.3)
1
Pour plus de détails sur L et la forme de la fonction ΨM , consultez un texte de référence dans le domaine de la
micrométéorologie, par exemple, Stull, 1988; Garratt, 1992; ou Arya, 2001. Notez qu’il convient d’évaluer u* et QH
dans la couche en équilibre au-dessus de la sous-couche de rugosité.
896 PARTIE II. SYSTÈMES D’OBSERVATION
Il est important d’intégrer la hauteur de déplacement zd dans les évaluations de profils du vent.
Cela équivaut effectivement à définir une base de profil logarithmique du vent qui prend en
compte la masse physique de la canopée urbaine. Cela revient à définir une nouvelle «surface
de sol» en altitude, là où se situe le puits de quantité de mouvement moyennée de l’écoulement
(figure 9.4).
Selon la densité du bâti et des arbres, il est possible de définir la base du profil à une hauteur
se situant entre 0,5 et 0,8 zH (Grimmond et Oke, 1999). En conséquence, ne pas intégrer
ce paramètre dans les calculs peut engendrer des erreurs importantes. On peut réaliser les
premières estimations en utilisant les fractions de zH données dans le tableau 11.2 (note b).
6 Très rugueuse 0,5 Zone modérément recouverte de bâtiments bas avec des espacements
relatifs de 3 à 7 fois la hauteur des obstacles et aucun grand arbre
(l’analyse nécessite zd)b
Le choix de la hauteur à laquelle réaliser les mesures de vent en ville est une question difficile.
Toutefois, on peut obtenir des résultats satisfaisants si l’on respecte certains principes
fondamentaux. Un mauvais positionnement des capteurs de vent en ville peut entraîner un
gaspillage considérable de ressources et d’efforts, et un risque d’erreurs dans le calcul de la
dispersion des polluants. Cela est déjà une source de difficulté en terrain dégagé en raison
des effets liés aux obstacles et à la topographie. C’est pourquoi la hauteur standard pour les
observations du vent en milieu rural a été fixée à 10 m au-dessus du sol et non pas au niveau
de l’abri, et la distance horizontale entre un anémomètre et un obstacle devrait être égale à au
moins dix fois la hauteur de cet obstacle (section 5.9.2 du chapitre 5 de la partie I). Dans les
quartiers urbains types, il est impossible de trouver un site correspondant à ces critères. Dans
une zone climatique urbaine par exemple, avec des immeubles de 10 m de haut et des arbres,
il faudrait pouvoir disposer d’une parcelle d’un rayon de 100 m au minimum. Et même si c’était
le cas, ce site ne serait certainement pas représentatif de la zone. Nous avons déjà noté que la
sous-couche de rugosité, dans laquelle les effets de différents éléments de rugosité persistent,
s’étend à une hauteur approximativement égale à 1,5 zH dans une zone à forte densité de bâti,
et probablement plus dans les sites moins urbanisés. En conséquence, dans le quartier étudié,
la hauteur minimale admise pour l’implantation d’un anémomètre se situe au minimum à 15 m,
et non pas à 10 m comme prescrit. Là où les immeubles sont encore plus hauts, un anémomètre
placé à la hauteur standard de 10 m pourrait se retrouver très en dessous de la canopée urbaine
en raison de l’hétérogénéité de la forme urbaine et donc de la structure du vent. Placer un
capteur en dessous ou voire au même niveau que les toits ne présenterait pas de véritable intérêt.
CHAPITRE 9. OBSERVATIONS URBAINES 897
a)
A
A
B
D
C
b)
Figure 9.5. Flux bidimensionnel type autour d’un bâtiment avec le flux courant orienté vers la
face au vent: a) lignes de courant et zones de flux; A représente le courant non perturbé, B le
déplacement, C la cavité, D le sillage (d’après Halitsky, 1963); b) flux et structures du
tourbillon (simplifiés d’après Hunt et al., 1978).
D’après les observations réalisées en soufflerie ou sur le terrain, on sait bien que l’écoulement
au-dessus d’un obstacle isolé fixe, un immeuble par exemple, est fortement perturbé aux abords
immédiats de ce dernier: modifications des lignes de flux, apparition de zones de recirculation
sur le toit et, dans ce qu’il est convenu d’appeler la «bulle» ou cavité à l’arrière du bâtiment, effets
de sillage qui persistent dans l’écoulement aval, équivalant à plusieurs dizaines de fois la hauteur
des bâtiments et atteignant une grande partie du voisinage (figure 9.5).
Les exemples d’exposition défaillante d’anémomètres associés à des girouettes en ville sont
légion. Les données enregistrées par ce type d’instruments sont fausses, de nature à induire en
erreur et potentiellement dangereuses si on les utilise pour calculer la dispersion ou la charge due
au vent, et constituent donc un gaspillage des ressources. On ne saurait donc trop insister sur le
caractère inapproprié d’une installation d’anémomètres et de girouettes sur des mâts courts au
sommet des bâtiments. La vitesse et la direction des vents varient énormément à courte distance,
tant dans le plan vertical qu’horizontal. Les résultats enregistrés par des instruments ainsi
déployés ne reflètent absolument pas l’écoulement général et sont fonction des caractéristiques
spécifiques du bâtiment lui-même, de l’implantation du mât sur la structure, et de l’incidence de
l’écoulement par rapport au bâtiment. L’écoulement laminaire et l’écoulement tourbillonnaire
illustrés sur la figure 9.5 signifient que, si l’on place le mât à l’avant, au sommet ou dans la zone
de cavité à l’arrière d’un bâtiment, les mesures de direction pourraient bien contredire celles qui
prévalent dans l’écoulement relevé en dehors de la zone d’influence du climat qui règne autour
de l’immeuble (à savoir dans la zone A de la figure 9.5 a)), avec des vitesses qui varient fortement.
Si l’on veut s’éloigner de la zone perturbée, il convient d’installer ce type d’instruments à très
grande hauteur. Par exemple, Wieringa (1996) a proposé de placer ces capteurs à une hauteur
supérieure à la dimension horizontale maximale du toit principal. Cela implique d’installer un
système onéreux de mâts, probablement dotés de haubans destinés à sous-tendre une aire
importante, et sans doute des difficultés à obtenir les autorisations nécessaires. Néanmoins, c’est
la seule méthode acceptable si l’on veut obtenir des données satisfaisantes.
Pour faire face à ces réalités, il conviendra de monter les capteurs de manière à ce que la
structure porteuse de ces derniers ne vienne pas trop compromettre la validité du signal émis. En
conséquence, les recommandations suivantes s’appliquent:
a) Dans les zones urbaines caractérisées par une faible concentration d’éléments de faible
hauteur (zones climatiques urbaines 6 et 7), on peut, dans certains cas, choisir un site qui
respecte les directives normalisées en matière d’exposition en rase campagne. Pour pouvoir
898 PARTIE II. SYSTÈMES D’OBSERVATION
appliquer la consigne des 10 m en hauteur, les obstacles les plus proches devraient se situer
à une distance de l’anémomètre équivalente à au moins dix fois leur hauteur et ne doivent
pas dépasser 6 m de hauteur en moyenne;
b) Dans les quartiers caractérisés par une plus forte concentration de bâtiments, une densité
et une hauteur homogènes des différents éléments (bâtiments et arbres), les mesures de
vitesse et de direction du vent devraient être réalisées à l’aide d’un anémomètre monté
sur un mât en treillis à une hauteur minimale égale à 1,5 fois la hauteur moyenne de ces
éléments;
c) Dans les zones urbaines caractérisées par une dispersion des bâtiments élevés, les
recommandations au point b) s’appliquent, à condition de bien veiller à éviter la zone de
sillage créée par les structures élevées;
d) Il n’est pas recommandé de mesurer la vitesse et la direction du vent dans les zones à forte
densité de bâti comportant de nombreuses structures de grande hauteur, à moins d’utiliser
une tour très haute.
Les anémomètres installés sur une tour en treillis devraient être montés sur des bras (consoles)
suffisamment longs pour maintenir les capteurs à une distance du mât égale à au moins deux (de
préférence trois) fois le diamètre de la tour (Gill et al., 1967). Les capteurs devraient être montés
dans le sens d’écoulement le moins fréquent à travers la tour. Si cela n’est pas possible, ou si le
treillis de la tour est trop serré, il faudra peut-être prévoir deux ou trois bras portant des capteurs
destinés à doubler les précédents pour éviter les effets de sillage et la stagnation au vent produite
par la tour elle-même.
Si vous devez installer des mâts d’anémomètres sur des bâtiments élevés ou isolés, vous devrez
prendre en compte l’incidence des dimensions de cette structure sur l’écoulement (voir la
section 5.3.3 du chapitre 5 de la partie II). Il faudra probablement procéder à une analyse
réalisée sur des modèles en soufflerie, en canal jaugeur ou des modèles de calcul de dynamique
des fluides spécifiquement conçus pour le bâtiment étudié, prenant en compte le terrain et les
structures environnants.
L’objectif est de s’assurer que toutes les mesures de vent sont réalisées à des altitudes
représentatives de la rugosité de surface en amont à l’échelle locale et qu’elles sont le moins
sensibles possible aux influences combinées des anomalies de surface à microéchelle ou échelle
locale. C’est pourquoi il convient de mettre l’accent sur l’obtention de mesures précises à
n’importe quelle hauteur en vue de réduire le risque d’erreur plutôt que d’effectuer des mesures
à la hauteur standard. Il faudra peut-être dédoubler le site et séparer les anémomètres des
autres systèmes de mesure. Il faudra peut-être également procéder à des observations du vent
à différentes altitudes dans une même localité. Cela nécessitera une extrapolation des valeurs
mesurées pour obtenir une valeur commune si on recherche des différences spatiales ou si les
données sont destinées à alimenter un modèle méso-échelle. On peut facilement réaliser ce type
d’extrapolation en appliquant le profil logarithmique (équation 9.2) à deux hauteurs:
(
u1 uref = ln ( z1 z0 ) ln zref z0 ) (9.4)
où zref est la hauteur de référence choisie; z1 la hauteur à laquelle l’anémomètre est installé sur
le site; et z0 la longueur de rugosité de la zone climatique urbaine. En milieu urbain, il convient
de définir la hauteur de référence de manière à inclure la hauteur de déplacement dans le plan-
origine, notamment z1 et zref prennent la forme (z x – zd), où l’indice x correspond à «1» ou «ref». On
suggère une hauteur de référence de 50 m au-dessus de la hauteur de déplacement.
Les autres corrections liées aux perturbations dues à l’écoulement, à la topographie et aux
effets de rugosité compte tenu de l’exposition, pourront être apportées en se référant aux
recommandations du chapitre 5 de la partie I (voir la section 5.9.4, Correction des effets de
l’exposition). Il se pourrait que les observations du vent s’avèrent impossibles pour un site urbain
donné. Dans ce cas, il est toujours envisageable de calculer le vent à la hauteur de référence à
partir des résultats d’observations réalisées dans une autre station urbaine ou à l’aéroport en
utilisant le modèle de transformation logarithmique de Wieringa (1986):
CHAPITRE 9. OBSERVATIONS URBAINES 899
ln ( zr z0 B ) ⋅ ln ( z A z0 A )
u zA = u zB (9.5)
ln ( z B z0 B ) ⋅ ln ( zr z0 A )
où les indices A et B désignent respectivement le site étudié pour lequel on cherche à mesurer
les vents et le site pour lequel on dispose de mesures standard du vent. La hauteur de mélange
zr devrait soit être égale à 4 zH (section 9.1.1.3), soit se voir attribuer la valeur standard de 60 m,
la méthode n’étant pas très sensible à ce terme. Dans ce cas également, si l’un des deux sites
comporte des éléments de rugosité élevés et denses, l’échelle correspondante de hauteur devrait
prendre en compte zd.
On peut utiliser dans les zones urbaines les instruments destinés à mesurer la vitesse et la
direction du vent, les rafales et autres caractéristiques de l’écoulement dans des milieux non
urbains. En ville, il convient de toujours mesurer la direction du vent, ainsi que sa vitesse, pour
pouvoir corriger l’influence de la tour selon l’azimut. Les anémomètres à coupelles devraient
être fréquemment nettoyés en raison de la pollution atmosphérique, et l’état des paliers et les
traces de corrosion devraient faire l’objet d’une attention toute particulière. Si les mesures sont
réalisées dans la canopée urbaine, les rafales peuvent accentuer le problème de survitesse des
coupelles, et si les anémomètres sont trop protégés, ils risquent de fonctionner en dessous ou au
seuil de vitesse minimum. On peut résoudre ce problème en renforçant leur maintenance et en
faisant appel à des anémomètres à réponse rapide, à hélice ou acoustiques. Les anémomètres à
hélice sont moins exposés au risque de survitesse et les anémomètres acoustiques ne requièrent
pratiquement aucune maintenance n’étant dotés d’aucune pièce mobile. Toutefois, ils sont
d’un coût élevé et nécessitent un système d’enregistrement et de traitement électronique
perfectionné. En outre, certains modèles ne fonctionnement pas par temps pluvieux.
9.3.6 Précipitations
a) L’interception de la précipitation dans sa trajectoire pour atteindre le sol par des surfaces
réceptrices proches telles que des arbres et des bâtiments;
c) La complexité spatiale du champ de vent autour des obstacles dans la canopée urbaine
peut entraîner une concentration très localisée ou l’absence d’écoulement d’air générateur
de pluie ou de neige;
d) Les rafales de vent associées à la présence physique de l’instrument, qui provoquent une
turbulence anormale autour de ce dernier, conduisant à des erreurs de captation et une sur
ou sous-estimation des quantités précipitées.
Pour une exposition standard en rase campagne, la distance aux obstacles devrait être égale à au
moins deux fois leur hauteur. Cette consigne est donc dans une certaine mesure moins restrictive
que pour les mesures de température, d’humidité ou de vent. Toutefois, l’activité turbulente
créée par le flux autour de bâtiments à arêtes vives dans la canopée urbaine est plus intense
qu’autour des obstacles naturels et se prolonge sur de plus grandes distances dans leur sillage.
Soulignons encore une fois qu’en raison des vitesses et directions du vent extrêmement variables
observées sur le toit d’un bâtiment, il est conseillé d’éviter ce type de sites.
900 PARTIE II. SYSTÈMES D’OBSERVATION
Sélectionner un vaste site dégagé en ville, respectant les normes d’exposition, peut
éventuellement constituer une solution acceptable, mais, dans ce cas, l’instrument ne pourra pas
être installé au même endroit que les capteurs de température, d’humidité et de vent. En effet, le
positionnement de ces derniers doit être représentatif de la structure urbaine à l’échelle locale,
du tissu et du métabolisme d’une zone climatique urbaine donnée, alors que ce n’est pas le cas
pour la mesure des précipitations.
Toutefois, l’environnement local de l’instrument joue un rôle important lorsqu’on utilise la station
pour étudier les configurations intra-urbaines du type de précipitations. Ainsi, l’îlot de chaleur
urbain a une incidence sur la survie des différentes formes de précipitations; par exemple, la
neige ou du grésil à la base des nuages peut fondre au contact de l’air plus chaud de la ville et
atteindre le sol sous forme de pluie. On peut donc enregistrer de la neige dans les zones rurales
et suburbaines et de la pluie au centre-ville.
Les pluviomètres installés en milieu urbain devront respecter les recommandations suivantes:
a) Les instruments devraient être déployés sur des sites urbains dégagés respectant les critères
standard d’exposition (par exemple des terrains de sports, des parcs caractérisés par une
faible densité d’arbres, des aéroports urbains);
b) Les instruments devraient être associés à des anémomètres chaque fois qu’il sera possible
de trouver un site représentatif. Dans les sites autres que ceux à faible densité de bâti,
cela impliquera sans doute de monter l’instrument sur un mât au-dessus d’un toit. Le
pluviomètre sera donc exposé à des vitesses de vent supérieures à la normale et l’erreur
d’estimation sera donc plus importante que près de la surface. Il conviendra alors de
corriger les données fournies par l’instrument. Cette correction n’est possible que si
le vent est mesuré sur le même mât. Cela signifie en outre qu’il convient de privilégier
l’enregistrement automatique et de vérifier régulièrement l’état de l’instrument pour
s’assurer qu’il est bien de niveau et que l’orifice est exempt de tous débris;
c) Les instruments ne devraient pas être installés sur les toits des bâtiments, sauf s’ils sont
exposés à une hauteur suffisante pour éviter l’effet de protection du bâtiment au vent;
d) L’épaisseur de la neige devrait être mesurée en terrain découvert, ou, si le site est urbanisé,
il conviendra de rechercher une zone échantillon suffisamment vaste pour pouvoir tenir
compte de l’inévitable accumulation de neige autour des obstacles. Cette zone devrait être
représentative des rues orientées dans différentes directions.
9.3.7 Rayonnement
On enregistre actuellement une pénurie de mesures des flux radiatifs en milieu urbain.
Par exemple, la Banque de données du bilan énergétique de la Terre du Programme
climatologique mondial et l’Atmospheric Radiation Measurement Program (programme de
mesure du rayonnement atmosphérique) du Département de l’énergie des États-Unis n’en font
pratiquement pas état. Les sites de mesure du rayonnement sont souvent situés dans des zones
rurales ou reculées précisément pour éviter que les aérosols et les gaz polluants émis en ville
ne viennent fausser les enregistrements. Même lorsqu’une station porte le nom d’une ville, les
métadonnées révèlent qu’en réalité, ces dernières dépassent généralement largement les limites
de l’agglomération. Si les stations sont déployées dans une zone bâtie, seul le rayonnement
solaire global incident peut être mesuré. En effet, il est impossible de mesurer le rayonnement
incident de grandes longueurs d’onde ou les flux sans composante sortante. La grande majorité
des projets expérimentaux à court terme qui s’intéressent aux effets urbains mesurent à la fois
la réception et la perte du rayonnement dans les villes. Tous les flux de courtes et de grandes
longueurs d’onde sont affectés par les propriétés particulières de l’atmosphère et des surfaces
urbanisées, et c’est également vrai pour le bilan radiatif net toutes ondes dont dépend en réalité
le bilan énergétique urbain (Oke, 1988a).
Tous les instruments, les étalonnages et les corrections à appliquer, et la plupart des méthodes
mises en œuvre dans les mesures de rayonnement en rase campagne et présentées dans le
chapitre 7 de la partie I, peuvent être utilisés dans les zones urbaines. Nous ne mentionneront ci-
après que les différences ou les besoins ou difficultés spécifiques au milieu urbain.
Le rayonnement solaire incident est une variable essentielle du forçage climatique urbain et c’est
pourquoi il devrait faire l’objet d’une priorité élevée lors de la création ou de la modernisation
d’une station. Une bonne connaissance de ce paramètre, associée aux observations standard
de la température, de l’humidité et de la vitesse du vent et à des mesures simples de la structure
du site et du couvert, permet de mettre en œuvre un plan de prétraitement météorologique (à
savoir des méthodes et des algorithmes visant à convertir des champs d’observation standard
en variables destinées à alimenter des modèles, mais sans réaliser de mesures, portant par
exemple sur les flux, la stabilité, la hauteur de mélange, les coefficients de dispersion, etc.), tel
que le modèle hybride de dispersion du panache (Hanna et Chang, 1992) ou le programme
de paramétrisation météorologique urbaine à échelle locale (Grimmond et Oke, 2002) afin de
pouvoir effectuer des calculs infiniment plus complexes dans les domaines suivants: stabilité
atmosphérique, statistiques de turbulence, flux de quantité de mouvement, de chaleur et de
vapeur d’eau. Ces données permettent alors de prévoir la hauteur de mélange et la dispersion
des polluants (COST 710, 1998; COST 715, 2001). En outre, on peut s’appuyer sur le rayonnement
solaire plutôt que sur l’activité diurne des nuages dans nombre d’applications touchant à
l’énergie solaire, au calcul de l’intensité normale de la lumière du jour à l’intérieur des bâtiments,
au confort des piétons, aux droits légaux à l’ensoleillement et bien d’autres domaines. Dans les
stations automatiques, il est relativement simple et peu onéreux de prévoir en plus des mesures
de rayonnement solaire.
Les conditions d’exposition des pyranomètres et autres capteurs de flux incidents sont
relativement facilement réunies en ville. Les capteurs doivent être placés de niveau, ne pas être
exposés aux vibrations, sans aucun obstacle au-dessus du plan horizontal de l’élément sensible,
notamment absence d’éléments fixes (bâtiments, mâts, arbres et collines) ou éphémères (nuages
émis par les conduits d’évacuation ou panaches de polluants). En conséquence, une plate-forme
en hauteur, stable et accessible, par exemple le toit d’un grand immeuble, constitue souvent un
site idéal. Il est parfois difficile d’éviter toute obstruction de courte durée des rayons directs du
soleil qui viennent frapper sur le récepteur d’un radiomètre pointé vers le haut par un mât, une
antenne, une hampe de drapeau ou autre structure similaire. Si tel était le cas, il conviendrait de
décrire avec précision l’emplacement de l’obstacle et la durée type de son impact sur l’élément
sensible (voir la section 9.4). Les méthodes à appliquer pour corriger ce type d’interférence sont
mentionnées dans le chapitre 7 de la partie I. Il est en outre important de veiller à ce qu’il n’y ait
902 PARTIE II. SYSTÈMES D’OBSERVATION
aucune réflexion excessive sur des murs très clairs susceptible de s’étendre au-dessus de l’horizon
local. Il est primordial de nettoyer les coupelles supérieures à intervalles réguliers. Dans des
milieux fortement pollués, cela peut nécessiter une intervention quotidienne.
Il est également souhaitable de prendre en compte les autres flux radiatifs incidents en fonction
du type d’agglomération, des applications potentielles et du coût des capteurs. Ces flux radiatifs
(et les instruments destinés à les mesurer) sont les suivants: rayonnement solaire direct incident
(pyrhéliomètre), rayonnement diffus du ciel (pyranomètre doté d’un écran annulaire ou d’un
disque-écran sur monture équatoriale), rayonnement solaire ultraviolet (capteurs à large bande
et à bande étroite, spectromètres) et rayonnement solaire infrarouge (pyrgéomètre). Tous ces
flux radiatifs ont des applications utiles: rayonnement direct (coefficients d’atténuation de la
pollution), rayonnement diffus (éclairage intérieur en lumière naturelle, panneaux solaires),
rayonnement ultraviolet (absorbé par l’ozone, provoque des dégâts chez les humains, les plantes
et les matériaux), et rayonnement infrarouge (surveillance des nuages nocturnes et renforcement
des flux dus aux polluants et à l’effet d’îlot de chaleur).
La principale difficulté pour mesurer avec exactitude le rayonnement sortant réside dans
l’exposition du radiomètre pointé vers le bas pour visualiser une zone représentative de la
surface urbaine sous-jacente. La source radiative (équation 9.1 et figure 9.2) devrait dans l’idéal
«voir» un échantillon représentatif des principales surfaces contributrices au flux. Dans les cas
standard d’exposition, définis dans certaines sections du chapitre 7 de la partie I, on estime que
la bonne hauteur pour installer un capteur au-dessus d’une surface recouverte d’un gazon court
est de 2 m. À cette hauteur, 90 % du flux prend naissance dans un cercle de 12 m de diamètre
au sol. Il est clair qu’il faut disposer d’une hauteur infiniment plus grande au-dessus d’une zone
urbaine pour pouvoir échantillonner une zone contenant suffisamment de facettes différentes
de la surface pour être représentative de cette zone climatique urbaine. Si l’on prend le cas d’un
radiomètre déployé à une altitude de 20 m (au sommet d’un mât de 10 m installé sur un bâtiment
haut de 10 m), dans un quartier fortement urbanisé, la zone source de 90 % du flux présente un
diamètre de 120 m au niveau de sol. Cela peut sembler suffisant pour «voir» plusieurs bâtiments
et routes, mais il faut également tenir compte du fait que le système est tridimensionnel et
non quasi plat comme une surface herbeuse. Dans l’exemple cité, au niveau des toits, la zone
source possède un diamètre de 60 m seulement, et l’instrument ne peut voir qu’un nombre de
bâtiments relativement restreint.
La question qui se pose est de savoir si le capteur peut «voir» un éventail approprié de surfaces
actives du point de vue climatique. Cela signifie que le capteur ne doit pas voir seulement un
ensemble adéquat de surfaces vues de dessus, mais également échantillonner des portions
bien choisies de toits, de murs et de sol, notamment des parties précises de chacune d’entre
elles exposées au soleil ou à l’ombre. Cette tâche n’est pas facile dans la mesure où elle dépend
de la structure de la surface et de la position à la fois du capteur et du soleil dans l’espace au-
dessus d’un groupe de capteurs. Soux et al. (2004) ont mis au point un modèle pour calculer
ces différentes portions pour des groupes géométriques de type urbain relativement simples.
Toutefois, il est nécessaire de poursuivre les études avant de pouvoir élaborer des directives
CHAPITRE 9. OBSERVATIONS URBAINES 903
spécifiques aux différents types de zones climatiques urbaines. Il semblerait qu’il faille prévoir
une hauteur de déploiement du capteur supérieure à celle utilisée dans les mesures de turbulence.
La mise en œuvre de l’équation 9.1 (voir la figure 9.2) démontre clairement la nature non linéaire
des effets liés à la zone source radiative. Une pondération plus grande des surfaces plus proches
du mât signifie que l’environnement immédiat est le paramètre le plus important à prendre en
compte. Dans l’exemple précédent, dans lequel le radiomètre est déployé à une hauteur de 20 m
sur un bâtiment haut de 10 m, 50 % du signal au niveau du toit provient d’un cercle de seulement
20 m de diamètre (correspondant probablement à un seul bâtiment). Si le toit de ce bâtiment, ou
toute autre surface sur laquelle est monté le mât, possède des propriétés radioactives anormales
(albédo, émissivité ou température), cela a une incidence disproportionnée sur le flux supposé
représentatif d’une zone plus large. En conséquence, il convient d’éviter les toits comportant
d’importantes zones vitrées ou métalliques, ou de couleur inhabituellement sombre ou claire, ou
ceux conçus pour retenir de l’eau stagnante.
Les problèmes liés aux radiomètres pointés vers le bas à grande hauteur sont les suivants: a)
vérification difficile de l’horizontalité de l’élément sensible; b) nécessité de veiller à ce qu’aux
angles zénithaux importants, l’élément sensible ne «voie» pas le rayonnement solaire direct ou le
rayonnement incident de grandes longueurs d’onde émis par le ciel; c) examen de la possibilité
de corriger les résultats afin de prendre en compte la divergence du flux radiatif dans la couche
d’air située entre l’instrument et la surface étudiée. Afin d’éliminer le rayonnement solaire externe
ou de grandes longueurs d’onde proche de l’horizon, il peut s’avérer nécessaire d’installer un
écran annulaire étroit destiné à réduire le champ de vision à quelques degrés de moins que 2 π. Il
faudra pour cela apporter une légère correction aux valeurs lues pour tenir compte de la donnée
manquante relative au rayonnement solaire diffus (annexe 7.E du chapitre 7 de la partie I, en cas
d’emploi d’un écran annulaire) ou du signal supplémentaire de grandes longueurs d’onde émis
par l’anneau.
Si l’orientation des capteurs est inversée, leur dos est exposé à la chaleur du soleil, d’où un risque
d’erreur. Pour éviter ce phénomène, il convient d’utiliser une forme à définir de protection et
d’isolation. L’entretien des coupelles de l’instrument et l’élimination des traces d’eau ou de glace
peuvent également s’avérer plus difficiles. Dans la mesure où on ne peut pas observer la vitesse
et l’efficacité de la ventilation à une certaine hauteur, on veillera à privilégier des instruments
ne nécessitant aucune ventilation. La possibilité d’abaisser le mât pour faciliter le nettoyage,
le remplacement du produit déshydratant ou des coupelles en polyéthylène et le réglage de
l’instrument constituent des avantages.
Il est recommandé:
a) D’installer les radiomètres, récepteur pointé vers le bas, à une altitude au moins égale à
celle du capteur de turbulences (à savoir une hauteur égale à 2 zH) et de préférence plus
haut;
b) De faire en sorte que les propriétés radiatives de l’environnement immédiat du mât soient
représentatives du quartier urbain étudié.
L’atmosphère polluée des villes provoque une réduction du nombre d’heures d’insolation par
rapport aux valeurs de la campagne environnante ou aux valeurs préurbaines (Landsberg, 1981).
Les recommandations relatives aux instruments, aux méthodes et à l’exposition qui sont données
dans le chapitre 8 de la partie I s’appliquent aux stations implantées en milieu urbain.
L’étude de l’impact des zones urbaines sur la visibilité et la portée optique météorologique
(POM) peut s’avérer complexe. En effet, si les polluants tendent à réduire la valeur de ces deux
paramètres dans la mesure où ils ont une incidence sur l’atténuation de la lumière et accentuent
certains effets du brouillard et de la chaleur et de l’humidité urbaines, l’effet d’îlot de chaleur
904 PARTIE II. SYSTÈMES D’OBSERVATION
entraîne souvent une diminution de la fréquence et de l’intensité du brouillard et des nuages bas.
Ces données revêtent un intérêt pratique considérable dans des domaines tels que l’aviation, le
transport routier et fluvial et les communications optiques. Il est donc conseillé de prévoir ce type
d’observations au niveau des stations urbaines.
La visibilité optique est souvent restreinte en ville. S’il est vrai qu’un grand nombre d’objets et
de lumières peuvent servir de cibles d’alignement, il est souvent difficile d’obtenir une visibilité
directe sans obstacle à la hauteur recommandée de 1,5 m. Le recours à une plate-forme
surélevée ou au niveau supérieur d’un bâtiment est considéré comme non standard et n’est
donc pas recommandé. Les observations au niveau des toits peuvent également être affectées
par la scintillation causée par des toits chauffés ou le dégagement de vapeur d’eau sur des toits
mouillés en train de sécher, les émissions de polluants ou les nuages d’eau produits par les
cheminées et autres conduits d’évacuation.
Les instruments destinés à mesurer la portée optique météorologique, tels que les
transmissomètres et les diffusomètres, fonctionnent généralement bien en milieu urbain. Ils
n’ont pas besoin d’une grande portée et donnent de bons résultats si l’optique est maintenue
en bon état de propreté. Naturellement, il convient de déployer les instruments dans un lieu
représentatif de l’atmosphère environnante, mais les exigences ne sont pas plus sévères que
celles relatives aux instruments placés dans la canopée urbaine. Il est parfois utile de connaître,
pour certaines applications, la variation de hauteur de la POM, par exemple la position du
sommet du brouillard ou de la base des nuages.
Il n’existe qu’un très petit nombre de stations de mesure d’évaporation dans les zones
urbaines. On peut le comprendre car il est pratiquement impossible d’interpréter les valeurs
d’évaporation mesurées dans la canopée urbaine à l’aide d’atmomètres, de bacs d’évaporation
ou de lysimètres. Selon les précisions données dans le chapitre 10 de la partie I, ces mesures
doivent être réalisées sur un site représentatif de la zone étudiée, libre de tout obstacle. Si cela
s’avère impossible, le site devra être implanté à une distance équivalente à cinq fois la hauteur de
l’obstacle, ou dix fois la hauteur d’un groupe d’obstacles, et l’instrument ne devra en aucun cas
être installé à l’ombre, sur un socle en béton, une surface asphaltée, ou toute autre surface dure
susceptible de provoquer le rejaillissement de l’eau. En outre, les surfaces de ces instruments
sont supposées agir de la même manière que la végétation ou les surfaces d’eau naturelles.
Ces surfaces ne sont probablement pas représentatives de l’environnement d’un site urbain. En
conséquence, elles sont exposées à un phénomène de microadvection susceptible d’accélérer de
façon anormale l’évaporation.
Prenons le cas d’un bac d’évaporation installé depuis longtemps, initialement sur un site
semi-aride ensuite converti en terres agricoles irriguées, puis en zone suburbaine avant de se
transformer en zone fortement urbanisée. Les premiers enregistrements d’évaporation donnent
des valeurs très élevées, car il s’agit d’une surface d’eau en plein air dans un environnement
chaud et sec. En conséquence, alors que l’évaporation réelle dans cette région est très faible,
le phénomène d’advection augmente les pertes du bac. L’introduction de l’irrigation rend
les conditions plus fraîches et plus humides, les valeurs relevées dans le bac chutent, mais
l’évaporation réelle est élevée. Alors que l’urbanisation inverse fortement les effets des
changements environnementaux et réduit la vitesse du vent près du sol, les pertes du bac
augmentent alors que l’évaporation réelle a toute les chances de diminuer. En conséquence,
tout au long de ce processus, l’évaporation du bac et l’évaporation réelle sont probablement
en opposition de phase. À l’époque agricole, on a peut-être appliqué un coefficient de
bac pour convertir les données relevées dans le bac en données types sur herbe courte ou
cultures. En revanche, il n’existe pas de coefficient approprié pour convertir l’évaporation du
CHAPITRE 9. OBSERVATIONS URBAINES 905
bac en évaporation urbaine, même si ces données ne sont pas faussées par la complexité de
l’environnement dans la canopée urbaine. En résumé, il n’est pas recommandé de faire appel à
des instruments classiques pour mesurer l’évaporation dans la canopée urbaine.
Les dimensions et l’hétérogénéité des zones urbaines rendent irréalisable l’emploi de lysimètres
en grandeur réelle (par exemple, à au moins 100‑150 m d’un changement d’environnement). Les
microlysimètres peuvent mesurer l’évaporation de surfaces particulières, mais ils sont toujours
adaptés à leur environnement. Ces instruments doivent faire l’objet d’une grande attention- il
convient notamment de procéder au renouvellement du bloc monolithique de sol pour éviter
toute déshydratation- et ne sont pas adaptés aux observations de routine sur le long terme.
On peut obtenir des données relatives à l’évaporation et autres flux turbulents (quantité de
mouvement, chaleur sensible, dioxyde de carbone) moyennées spatialement à partir des
observations réalisées au-dessus de la sous-couche de rugosité. Plusieurs de ces flux présentent
un intérêt pratique bien plus grand dans les zones urbaines que dans nombre de zones rurales.
Par exemple, on a besoin du flux vertical de quantité de mouvement horizontale, ainsi que de
statistiques complètes et de spectres de vent, pour déterminer la charge exercée par le vent
sur les structures et la dispersion des polluants atmosphériques. Le flux de chaleur sensible est
une donnée essentielle pour calculer la stabilité atmosphérique (par exemple, le nombre de
Richardson de flux et la longueur d’Obukhov) et l’épaisseur de la couche urbaine de mélange. Il
est recommandé d’appliquer les méthodes de mesure des flux turbulents avec réponse rapide
ou de calcul de l’écart type, plutôt que les méthodes de mesure des gradients longitudinaux. Les
instruments adaptés à ce type de mesure sont: les anémomètres acoustiques, les hygromètres
infrarouges, les analyseurs de gaz et les scintillomètres. Les capteurs devraient être exposés
de la même manière que les capteurs de vent: au-dessus de la sous-couche de rugosité, mais
en dessous de la couche limite interne de la zone climatique urbaine étudiée. Ces mesures, ici
encore, s’appuient sur une «empreinte» de flux suffisamment large pour être représentative de la
zone locale considérée.
Si vous ne disposez pas de moyens financiers et techniques suffisants pour procéder à de telles
mesures de flux, vous pouvez faire appel à un programme de prétraitement météorologique, par
exemple la méthode de limitation de l’ozone, la méthode hybride de dispersion du panache ou le
programme de paramétrisation météorologique urbaine à l’échelle locale (voir la section 9.3.7)
pour obtenir des valeurs atmosphériques représentatives de l’évaporation urbaine et du
flux de chaleur. Ces programmes exigent uniquement de réaliser des observations spatiales
représentatives du rayonnement solaire incident, de la température et de l’humidité de l’air,
de la vitesse du vent, une estimation générale des propriétés moyennes des surfaces telles que
l’albédo, l’émissivité, la longueur de rugosité, ainsi qu’une évaluation des parcelles de terrain
végétalisées, bâties ou irriguées d’un quartier urbain. Les observations liées à la vitesse du vent
doivent bien évidemment satisfaire les recommandations énoncées dans la section 9.3.5. Dans
l’idéal, il faudrait mesurer la température et l’humidité de l’air au-dessus de la sous-couche de
rugosité. Toutefois, on peut généralement admettre que les valeurs relatives à la canopée urbaine
puissent suffire car ces programmes sont peu sensibles à ces variables.
Une bonne connaissance de la teneur en humidité du sol constitue une donnée intéressante
pour les jardiniers ou dans les calculs d’évaporation par exemple. Les différentes configurations
nettement marquées, observées sur les images thermiques obtenues par télédétection
démontrent l’importance que revêt ce paramètre d’un point de vue thermique dans les paysages
urbains. De jour, chaque parcelle végétalisée ou terrain irrigué est notablement plus fraîche
qu’un terrain bâti, un sol asphalté ou un sol nu. Toutefois, l’échantillonnage permettant d’obtenir
des valeurs représentatives de l’humidité du sol constitue une tâche ardue.
Certaines des difficultés évoquées ici s’expliquent par le fait que de vastes surfaces en milieu
urbain sont rendues totalement imperméables en raison des éléments asphaltés et bâtis qui les
recouvrent, et que la plus grande partie du sol exposé a été fortement perturbée par le passé
par des activités de construction ou suite à l’abandon des terrains. Le «sol» est alors souvent
constitué de débris d’anciens bâtiments ou de matériaux routiers, ou a été importé de sites
906 PARTIE II. SYSTÈMES D’OBSERVATION
éloignés pour remplacer le sol existant ou servir de matériau de remblayage. En outre, les fuites
d’eau localisées dues à une rupture de canalisation d’eau ou d’égout qui s’infiltrent dans le sol,
ou l’irrigation peuvent avoir une incidence sur l’humidité du sol. On obtient alors un champ
d’humidité du sol urbain très hétérogène, avec des parcelles totalement sèches voisinant avec
des pelouses trop arrosées. En conséquence, alors qu’on peut se faire une certaine idée de
l’humidité du sol à l’échelle locale dans des zones peu urbanisées, ou dans les endroits où un
paysage semi-naturel a pu être conservé, il est pratiquement impossible de décrire ce paramètre
dans la plupart des quartiers urbains. Dans ce cas, mieux vaut parfois s’appuyer sur les valeurs
relevées à la campagne, lesquelles représentent une valeur régionale générale, plutôt que de
n’avoir aucune estimation du tout de l’humidité du sol.
Si des observateurs sont présents dans les stations ou si celles-ci sont équipées d’instruments
classiques, l’observation de phénomènes météorologiques en cours (givre, glaces de surface,
brouillard, tempêtes de poussière ou de sable, trombes, tonnerre, éclairs) peut présenter un
intérêt, surtout si cela a une incidence concrète sur l’efficacité ou la sécurité d’activités urbaines,
comme les transports par exemple. Les éventuelles archives d’images enregistrées par webcam
constituent des éléments d’appréciation utiles pour étudier les nuages, l’évolution à court terme
des nuages accompagnant les fronts atmosphériques, les fluctuations des bancs de brouillard,
l’élévation et l’abaissement de la base des nuages ainsi que l’arrivée de fronts de tempête de
poussière ou de sable.
9.3.13 Nuages
Il est rare d’observer la couverture nuageuse dans les grandes agglomérations, pourtant cette
information peut s’avérer très utile. Toutes les recommandations relatives aux méthodes et
instruments présentées dans le chapitre 15 de la partie I peuvent s’appliquer aux zones urbaines.
Le grand nombre et l’intensité des sources lumineuses en ville, associés à une atmosphère
brumeuse, parfois polluée, rendent plus difficiles les observations visuelles. Dans la mesure du
possible, le site d’observation devrait être éloigné des zones particulièrement éclairées.
L’influence des villes s’étendant dans toute la couche limite planétaire (figure 9.1), il convient de
faire appel à des tours et des mâts pour pouvoir réaliser des observations au-dessus de la sous-
couche de rugosité. On s’intéressera plus particulièrement aux effets sur un champ de vent et la
structure verticale de la température, notamment sur l’épaisseur de la couche de mélange, et au
rôle que ces paramètres cumulés jouent dans la dispersion des polluants.
Toutes les techniques spéciales d’obtention de profils décrites dans le chapitre 5 de la partie II
s’appliquent aux zones urbaines. Les sondeurs acoustiques (sodars) peuvent se révéler d’une
grande utilité, toutefois, il faut bien reconnaître que ceux-ci souffrent de deux inconvénients
majeurs: premièrement, les signaux qu’ils émettent sont souvent perturbés par diverses
sources urbaines de bruit (trafic terrestre et aérien, chantiers et même tondeuses à gazon) et
deuxièmement, leur exploitation peut être interdite s’il est démontré qu’ils constituent une gêne
pour le voisinage. Les radars profileurs de vent, les systèmes de sondage radio-acoustiques, les
radiomètres à hyperfréquences, les profileurs de température à hyperfréquences, les radars
à laser (lidars) et les célomètres modifiés sont tous des systèmes adaptés à la surveillance de
CHAPITRE 9. OBSERVATIONS URBAINES 907
l’atmosphère urbaine à condition de pouvoir éviter les perturbations liées aux échos produits
par le sol. De même, on peut utiliser des ballons de poursuite des vents, des radiosondes dans
la couche limite (minisondes) et des ballons captifs transportant des instruments avec des taux
de réussite satisfaisants tant que les autorités du trafic aérien en autorisent l’utilisation. Les tours
et mâts instrumentés peuvent constituer un excellent support pour installer des capteurs au-
dessus des toits et dans la sous-couche d’inertie. Des structures de très grande hauteur peuvent
permettre de réaliser des mesures dans la couche de mélange. Toutefois, il convient de réaffirmer
les précautions à prendre, qui sont énoncées dans la section 5.3.3 du chapitre 5 de la partie II
et concernent l’éventuelle perturbation des propriétés atmosphériques causée par la structure
porteuse. Les bâtiments élevés peuvent sembler un moyen adapté pour atteindre la couche limite
urbaine, encore faut-il bien évaluer les effets liés aux perturbations qu’ils peuvent provoquer et
mettre en œuvre les mesures qui s’imposent pour les éviter, au risque sinon de rendre inutile le
déploiement des capteurs et d’obtenir probablement des résultats de nature à induire en erreur.
La télédétection par satellite avec une bonne résolution dans l’infrarouge peut présenter un
intérêt pour observer des zones urbaines étendues. Les techniques correspondantes sont décrites
dans la partie III et leur utilisation est passée en revue dans l’étude des climats urbains réalisée
par Voogt et Oke (2003).
9.4 MÉTADONNÉES
Il est absolument indispensable que les stations puissent disposer d’une documentation précise
et complète regroupant toutes les métadonnées enregistrées par la station (voir le chapitre 1 de
la partie I) afin que l’utilisateur final puisse n’avoir aucun doute sur les conditions dans lesquelles
les données ont été enregistrées, recueillies et transmises, et qu’il puisse en tirer des conclusions
précises (OMM, 2003). On peut affirmer que cela est encore plus essentiel pour une station
urbaine, les sites urbains présentant des structures exceptionnellement complexes avec une
plus forte propension à évoluer. Cette complexité rend chaque site véritablement unique, alors
que des sites bien choisis en rase campagne sont relativement conformes au modèle standard.
Toute évolution implique que les observations réalisées par les sites soient dynamiques et les
documents fréquemment actualisés. Dans la figure 9.6, on suppose que les recommandations
minimales sur les métadonnées énoncées dans OMM (2003) sont toutes satisfaites et que, de
préférence, un certain nombre des meilleures pratiques recommandées sont mises en œuvre. Les
auteurs mettent ici l’accent sur les caractéristiques particulières du milieu urbain à inclure dans
les métadonnées, en particulier celles mentionnées dans les sections «environnement local» et
«événements historiques» ci-dessous.
Ainsi que l’explique la section 9.1.1, les instruments des stations urbaines doivent être installés
au-dessus comme à l’intérieur de la canopée urbaine. En conséquence, la description de
l’environnement immédiat doit prendre en compte à la fois la microéchelle et l’échelle locale.
Conformément aux directives de l’OMM (OMM, 2003), lesquelles seront adaptées afin de
prendre en compte les caractéristiques du milieu urbain, il est recommandé aux stations de
consigner les données descriptives suivantes:
a) Une carte à échelle locale et méso-échelle (~1:50 000) comme illustrée sur la figure 9.6 a),
éventuellement mise à jour pour décrire les grands changements intervenus dans
le paysage urbain (par exemple, conversion d’un espace libre en zone résidentielle,
construction d’un centre commercial ou d’un aéroport, construction de nouvelles tours,
destruction d’une parcelle boisée, assèchement d’un lac, création d’un bassin de rétention).
Idéalement, il faudrait également fournir une photographie aérienne de la zone et un
croquis simple (au 1:500 000 ou 1:1 000 000) destiné à indiquer le positionnement de la
station par rapport au reste de la zone urbanisée (figures 9.6 b) et c)), et les principales
908 PARTIE II. SYSTÈMES D’OBSERVATION
a) b)
c)
Figure 9.6. Informations minimales nécessaires pour décrire l’environnement à l’échelle locale
d’une station en milieu urbain. Ces informations comprennent: a) un modèle permettant de
documenter l’environnement local; b) un croquis permettant de situer la station dans une
zone urbaine plus large; et c) une photographie aérienne.
caractéristiques géographiques, telles que les grandes étendues d’eau, les montagnes et les
vallées, ou un changement d’écosystème (désert, marécage, forêt). Un cliché aérien oblique
peut s’avérer particulièrement éclairant car il permet d’apprécier la hauteur des bâtiments
et des arbres. Les images infrarouges aériennes ou satellites, s’il est possible d’en disposer,
peuvent être très instructives dans le cadre de la surveillance du microclimat. Par exemple,
des surfaces relativement froides le jour sont généralement un indicateur d’humidité ou
de présence de matériaux présentant une émissivité de surface anormale. Des zones plus
chaudes que la normale peuvent être très sèches, avoir un albédo faible ou bénéficier d’une
excellente isolation. La nuit, une relative froideur témoigne d’une bonne isolation, alors
qu’une chaleur relative témoigne du contraire, ou alors indique la présence d’un matériau
à forte admittance thermique qui restitue la chaleur emmagasinée pendant la journée ou
d’une source anormale de chaleur d’origine anthropique. Les zones climatiques urbaines et
les classes de rugosité de Davenport peuvent être évaluées à l’aide des tableaux 9.1 ou 9.2.
b) Un croquis à microéchelle (~1:5 000), selon les directives relatives aux métadonnées, mis à
jour chaque année (figure 9.7 a));
a)
b)
c)
Figure 9.7. Informations nécessaires pour décrire l’environnement à très petite échelle d’une
station climatologique en milieu urbain. Ces informations comprennent: a) un modèle de
fichier contenant des métadonnées ; b) un exemple de photographie d’une «rue canyon»
prise avec un objectif «œil-de-poisson» pour illustrer l’obstruction de l’horizon ; et c) un
réflecteur hémisphérique fourni par le Service météorologique national du Royaume-Uni et
placé sur un pluviomètre.
d) Des photographies prises aux quatre points cardinaux par rapport à l’abri des instruments,
et à l’emplacement des tours supportant les autres instruments;
e) Un croquis à microéchelle de l’abri contenant les instruments, mis à jour chaque fois que les
instruments sont déplacés ou à l’occasion de tout autre changement important;
f) Si certaines mesures (vent, rayonnement) sont réalisées à une certaine distance de l’abri de
la station (sur des mâts, au sommet des toits, sites plus dégagés) répétez les opérations b) à
d) ci-dessus pour chaque site.
L’étude du temps et du climat en milieu urbain offre un point de vue presque unique. Les
populations s’intéressent au rôle que jouent les êtres humains dans l’évolution de l’atmosphère
urbaine. En conséquence, contrairement aux autres milieux étudiés, pour lesquels on se contente
d’étudier l’atmosphère pour elle-même, on cherche à connaître les effets de l’urbanisation
sur l’atmosphère des villes. Cela implique d’évaluer les éventuels changements de variables
météorologiques à mesure qu’une zone urbaine se développe, par rapport à ce qui se serait
produit si les bâtiments n’avaient pas été construits. Il est fondamentalement impossible de
répondre à cette question une fois que l’espace a été bâti, et même si aucune construction n’avait
été réalisée, le paysage aurait parfaitement pu évoluer par rapport à ce qui existait auparavant
(par exemple, en raison d’activités humaines telles que l’agriculture ou la sylviculture).
L’évaluation des effets urbains se heurte donc à des problèmes de méthodologie et la «vérité»
n’existe pas. On doit se contenter d’approximations. Que la station soit implantée de manière
isolée ou fasse partie d’un réseau, il est recommandé de se reporter à l’analyse réalisée par Lowry
(1977), et Lowry et Lowry (2001) pour évaluer les effets du milieu urbain sur le temps et le climat.
Les directives relatives aux stations climatologiques sont plutôt strictes et sont donc inadaptées
aux conditions urbaines d’implantation. Mieux vaut donc s’appuyer sur des principes directeurs
plutôt que sur des règles strictes et adopter une démarche souple. Cela signifie que diverses
solutions peuvent être mises en œuvre pour observer les différentes propriétés atmosphériques
et que toutes les mesures de terrain ne sont pas nécessairement réalisées au même endroit.
L’une des premières étapes importantes dans la sélection des sites d’implantation de stations
urbaines consiste à évaluer la nature physique de la surface urbaine en s’appuyant sur une
classification des zones climatiques, et ce afin de pouvoir repérer les zones d’homogénéité.
Les différents types de surfaces urbaines constituent une zone urbaine. Il faut disposer de
multiples stations pour pouvoir se faire une bonne idée du climat d’une ville. Il convient de
sélectionner des sites donnant de bonnes chances d’échantillonner l’air d’une surface urbaine
relativement homogène et qui seront donc représentatifs d’une zone climatique donnée. Il
faudra veiller à ce que les effets microclimatiques ne viennent pas fausser le résultat des mesures
du climat à l’échelle locale.
CHAPITRE 9. OBSERVATIONS URBAINES 911
9.6.3 Mesures
b) Les mesures de vent et de flux turbulent devraient être réalisées au-dessus de la sous-
couche de rugosité, mais à l’intérieur de la couche limite interne de la zone climatique
urbaine sélectionnée. Ces mesures doivent établir que «l’empreinte» de la surface prise en
compte dans les observations est représentative de la zone climatique. En ce qui concerne
le vent, il est possible de lier l’écoulement enregistré à ce niveau à celui enregistré dans la
canopée;
c) Les observations des précipitations peuvent être effectuées soit près du sol sur un site
dégagé, soit au-dessus de la sous-couche de rugosité, et corrigées en fonction des mesures
de vent réalisées en parallèle;
d) À l’exception des mesures du rayonnement solaire incident, il convient d’éviter d’installer les
instruments sur les toits, à moins de le faire sur un grand mât;
e) Les mesures des flux de rayonnement résultant et ascendant doivent être réalisées à des
altitudes permettant d’échantillonner correctement les différents types de surfaces et
orientations caractéristiques de la zone considérée.
RÉFÉRENCES ET AUTRES LECTURES
10.1 GÉNÉRALITÉS
10.1.1 Définition
Les mesures de météorologie routière présentent un intérêt particulier dans les pays où la
viabilité hivernale des infrastructures de transport a une incidence importante sur l’économie
nationale. Par ailleurs, certains pays sont exposés à des risques routiers d’un autre type, liés par
exemple aux tempêtes de poussière ou aux éruptions volcaniques. Certaines conditions peuvent
avoir un impact négatif sur la sécurité et l’efficacité du transport routier et une incidence sur
la vitesse, les distances de sécurité, l’adhérence des pneumatiques et l’efficacité du freinage,
à savoir: mauvaise visibilité (fortes précipitations, brouillard, fumée, tempête de sable), vents
violents, inondations de la chaussée, affaissement du sol, neige, précipitations verglaçantes et
glace.
10.1.2 Objectif
Les gestionnaires de réseaux routiers ont pour mission de garantir des conditions de circulation
optimales, fluides et sûres sur les différents axes routiers. Les décisions opérationnelles relatives
à la diffusion d’informations météorologiques routières et aux opérations de déneigement et
de lutte contre le verglas dépendent des observations de météorologie routière de plus en plus
souvent réalisées par des stations automatiques spécialisées. Ces stations devraient, dans la
mesure du possible, respecter les normes d’exposition des capteurs et de mesure en vigueur
pour les stations automatiques classiques (voir le chapitre 1 de la présente partie). Pourtant,
elles possèdent des caractéristiques spécifiques en termes d’exigences de fonctionnement,
d’implantation et de mesures.
Les besoins des gestionnaires des réseaux routiers tournent autour de quatre grands domaines
(OMM, 1997, 2003):
a) Observation de météorologie routière en temps réel: d’une part, l’objectif concret est d’informer
les usagers de la route des risques (prévus ou réels) auxquels ils sont susceptibles d’être
confrontés sur certains itinéraires, et d’autre part, de lancer une série d’interventions visant
à améliorer la sécurité routière, par exemple le déneigement ou le traitement aux fondants;
916 PARTIE II. SYSTÈMES D’OBSERVATION
b) Amélioration des prévisions de température du revêtement: les mesures réalisées par les stations
automatiques constituent des données importantes destinées à alimenter les programmes
de prévision de la température et de l’état des chaussées susceptibles d’être exploités par
les SMHN, lesquels ont la faculté d’assurer la continuité et la rapidité de transmission des
données d’observation et de prévision. Dans la pratique, les prévisionnistes disposent de
deux outils. Le premier est un modèle de calcul permettant de transposer une prévision
météorologique des conditions atmosphériques en une prévision de température du
revêtement, en prenant en compte les caractéristiques physiques de chaque station. Le
second consiste à mettre en œuvre un algorithme basé sur une étude climatologique
spécifique du revêtement;
c) Base de données climatologiques routières: il est important d’établir une base de données
climatologiques routières car, dans nombre de situations, une évaluation des événements
en cours sur un site correctement instrumenté permet aux gestionnaires des réseaux
routiers ayant une certaine expérience de transposer les données obtenues à l’aide du
modèle climatique à d’autres sites connus. Dans certains cas, il convient de prendre les
empreintes thermiques pour pouvoir modéliser cette relation spatiale. L’enregistrement
des données météorologiques routières permettra d’analyser les perturbations hivernales
antérieures et de réaliser des études climatologiques spécialisées dans le domaine routier.
Les SMHN peuvent combler les lacunes en matière de données, effectuer des comparaisons
et assurer un contrôle qualité des mesures issues de différentes sources;
d) Fiabilité des données: les gestionnaires des routes n’ont pas besoin de données excessivement
précises (à l’exception de la température du revêtement). Ils ont juste besoin de disposer
des données les plus fiables possible. Pour cette raison, les données doivent être le reflet
d’une situation réelle et les instruments de mesure doivent être robustes. La continuité des
communications et de l’alimentation électrique est souvent de la plus haute importance.
Le site d’une station météorologique est sélectionné de manière à correctement représenter une
région géographique particulière. L’implantation d’une station de météorologie routière devra
donc être représentative du réseau routier ou d’un tronçon de route important réputé dangereux
pour des raisons météorologiques ou autres. La station doit donc être installée en bordure de
route afin de pouvoir installer des capteurs au niveau du revêtement et ainsi tendre vers un
compromis d’implantation et d’exposition «idéales». Les capteurs sont exposés de manière à
assurer la meilleure représentation possible, dans l’espace et le temps, de la variable à mesurer,
sans risque important d’interférence avec d’autres paramètres secondaires. D’une manière
générale, le site immédiatement adjacent à la chaussée devrait être plan et recouvert d’une herbe
courte et il ne devrait pas être sous l’ombrage de bâtiments ou d’arbres.
CHAPITRE 10. MESURES DE MÉTÉOROLOGIE ROUTIÈRE 917
Dans tous les cas, il est important de consigner toutes les données relatives à l’emplacement et
aux caractéristiques du site et aux spécifications du matériel et des capteurs utilisés, notamment
les plans et les photographies du site. Ces métadonnées (chapitre 1 de la partie I et chapitre 1 de
la partie IV) constituent des informations précieuses pour bien gérer la station et comparer les
mesures enregistrées avec celles des autres sites.
Les mesures considérées comme importantes dans le cadre de prévisions relatives à l’état
des routes réalisées par les stations de météorologie routière sont les suivantes: température
et humidité de l’air, vitesse et direction du vent, quantité et type de précipitations, visibilité,
rayonnement global et de grandes longueurs d’onde, température et état du revêtement.
Certains de ces paramètres, tels que la température et l’humidité, entrent dans les prévisions
destinées aux usagers de la route, d’autres (vent et visibilité) peuvent indiquer les risques en
cours ou à venir; d’autres encore (types de rayonnement, température et état du revêtement)
servent uniquement à prévoir le comportement de la chaussée.
Le choix des capteurs est déterminé par des critères d’exactitude, de stabilité, de facilité
d’entretien et d’étalonnage, lesquels capteurs devront en outre être dotés de sorties électriques
adaptées pour être connectées au système d’acquisition automatique des données. La sélection
et l’exposition des capteurs devraient satisfaire aux recommandations et bonnes pratiques
standard préconisées par l’OMM (voir les chapitres correspondants de la partie I du présent
guide), à l’exception des points incompatibles avec les exigences particulières de météorologie
routière. L’exactitude des mesures devrait généralement respecter les valeurs indiquées dans
l’annexe 1.E du chapitre 1 de la partie I. Reportez‑vous également aux recommandations portant
sur les mesures dans les stations météorologiques automatiques, au chapitre 1 de la présente
partie.
Points à prendre en compte: Le capteur et l’écran ne devraient pas être installés au‑dessus d’une
surface bétonnée ou asphaltée au risque sinon d’obtenir une valeur excessive de la température
mesurée. Il faudrait en outre veiller à ce que l’écran ne soit pas exposé aux projections d’eau
produites par les roues des véhicules, susceptibles de provoquer d’importantes erreurs de
détection.
Points à prendre en compte: Même risque de projections d’eau que pour le capteur de
température. Les performances du capteur d’humidité sont affectées par la contamination liée à
la pollution atmosphérique et automobile. Il conviendra de réaliser des contrôles fonctionnels à
intervalles réguliers dans le cadre du contrôle qualité de l’acquisition de données, et de vérifier
l’étalonnage au moins tous les six mois, en particulier avant l’hiver. Un capteur qui ne répond pas
correctement doit être immédiatement remplacé.
On mesure généralement ce type de variables à l’aide soit d’un anémomètre à coupes associé à
un anémomètre girouette, soit d’un anémomètre à hélice (chapitre 5 de la partie I) produisant
des impulsions ou une fréquence. Les capteurs doivent être installés à la hauteur standard de
10 m au‑dessus du sol dans une zone dégagée représentative pour éviter que les mesures ne
soient influencées par des perturbations de la masse d’air circulant dues à la circulation et à des
obstacles locaux.
Points à prendre en compte: Le gel des pièces mobiles, les infiltrations d’eau, la corrosion et la
foudre constituent des risques potentiels.
10.3.1.4 Précipitations
Points à prendre en compte: Le pluviomètre doit être placé de niveau, l’entonnoir et les augets
devant être propres et exempts de toute obstruction. Ce type d’instrument n’est pas adapté
pour indiquer le début d’une pluie de très faible intensité ou de longues périodes de gel.
Les totaux enregistrés seront inférieurs aux valeurs réelles en raison des effets du vent
autour de l’orifice de l’entonnoir, de l’évaporation au niveau des augets entre les averses ou
des pertes entre les basculements des augets par fortes pluies.
a) Rayonnement global: Il convient de mesurer le rayonnement solaire (direct et diffus) reçu par
une surface horizontale à partir d’un angle solide de 2 π sr à l’aide d’un pyranomètre doté
CHAPITRE 10. MESURES DE MÉTÉOROLOGIE ROUTIÈRE 919
Points à prendre en compte: Horizon du capteur obstrué, capteur qui n’est pas de niveau,
surface sale, neige ou givre obscurcissant la coupelle en verre ou la surface sensible,
condensation à l’intérieur de la coupelle en verre;
10.3.1.6 Visibilité
Points à prendre en compte: Les gestionnaires des routes s’intéressent à une visibilité inférieure
à 200 m (seuil de danger). Il est important de maintenir propres les fenêtres et les hublots
des capteurs. Certains systèmes prévoient une correction à partir d’un certain degré de
contamination de la fenêtre. Une procédure d’étalonnage appropriée devrait être mise en place
pendant la maintenance de routine.
Il existe des capteurs actifs dotés d’une résistance de platine de 100 ohms et destinés à
transmettre des signaux numériques en série. Ils peuvent être enfouis dans le revêtement.
Il convient de respecter les consignes fournies par les fabricants pour leur installation, leur
câblage et leur fixation à la route. Ils doivent être placés en dehors de la zone de contact avec
les pneumatiques afin d’éliminer tout risque de salissure à leur surface et toute erreur de mesure
suite à un échauffement dû au frottement. Ils doivent être déployés dans le même plan que le
revêtement en évitant de former un creux dans lequel l’eau risquerait de s’accumuler et ainsi
d’affecter la mesure. Leur position doit être régulièrement vérifiée.
Points à prendre en compte: Le temps de réponse thermique (constante de temps) des capteurs
et du matériau enfoui devrait correspondre à celui des composants du revêtement. Le fini de
surface des capteurs devrait permettre une faible capacité d’absorption dans l’infrarouge afin de
minimiser les erreurs liées au rayonnement. Si vous utilisez des longueurs de câbles supérieures à
20 m, il est recommandé de prévoir une compensation de résistance du câble.
920 PARTIE II. SYSTÈMES D’OBSERVATION
On mesure la température en noyant des capteurs correctement gainés, dotés d’une résistance
électrique, dans la chaussée à 5, 10 et 20 cm de profondeur et en faisant appel à une résine
adaptée.
Ce capteur sert à évaluer l’état du revêtement (sec, mouillé, givré ou verglacé), et la température
de congélation de l’eau résiduelle en surface. Le circuit de commande du capteur réchauffe ce
dernier avant de le refroidir par effet Peltier. La vitesse de refroidissement est fonction de l’état
de surface et du temps de gel. Reportez‑vous également au chapitre 6 de la partie I pour de plus
amples informations sur les chaussées verglacées. Le signal de sortie du capteur devrait fournir
aux gestionnaires des routes une indication sur la rémanence des fondants en un lieu précis et
leur permettre d’optimiser les opérations d’épandage.
Points à prendre en compte: Le capteur doit être exempt de tout corps étranger et ne pas être
recouvert lors des opérations de rechargement de la chaussée. Il doit être nettoyé à intervalles
réguliers. Il est difficile d’obtenir une réponse du capteur représentative de l’état réel du
revêtement en raison de la faible taille de l’échantillon, de son positionnement sur la chaussée
et des diverses pratiques d’enchâssement. Les mesures dépendent de la densité du trafic et ne
sont pas très stables dans le temps. Il est souvent difficile de se procurer ce type de capteur car
il n’existe qu’un faible nombre de marques sur le marché. La télédétection de la température
du revêtement à l’aide de capteurs thermiques infrarouges n’est souvent pas réalisable en
raison des perturbations créées par le jaillissement de l’eau sous les roues des véhicules. On
peut perfectionner l’évaluation des risques de gel du revêtement en améliorant les mesures de
température, d’humidité et de température de l’air à la surface et à l’intérieur du revêtement,
et notamment en améliorant l’exposition des capteurs et en limitant les risques d’erreurs
systématiques et aléatoires.
10.3.1.10 Vidéosurveillance
La vidéosurveillance est l’une des composantes de ce qu’il est convenu d’appeler les systèmes
de transport intelligents. Ces systèmes sont essentiellement destinés à détecter les incidents
routiers, mais ils fournissent aussi des indications météorologiques utiles aux gestionnaires des
transports. Des algorithmes de traitement de l’image permettent d’établir une distinction entre
les différentes conditions météorologiques.
Le chapitre 1 de la présente partie fournit des informations susceptibles d’être mises en œuvre
dans les applications de mesures de météorologie routière. Les paragraphes ci‑après mettent
l’accent sur les problèmes spécifiques soulevés par les gestionnaires de réseaux routiers à partir
de leur expérience, et en particulier sur la nécessité d’obtenir des prévisions de grande qualité
dès lors que la sécurité publique est en jeu.
Une station de météorologie routière est soumise à de fortes contraintes liées à la proximité de la
chaussée: vibrations, perturbations liées au système d’allumage des véhicules, pollution due aux
gaz d’échappement, corrosion provoquée par les opérations de salage, et actes de malveillance.
À certains égards, on peut estimer qu’elle fonctionne dans un environnement industriel, avec
tout ce que cela implique en termes de robustesse de conception et d’intégrité des données.
CHAPITRE 10. MESURES DE MÉTÉOROLOGIE ROUTIÈRE 921
Les problèmes fréquemment rencontrés sont les suivants: absence de protection contre les
surtensions sur les circuits d’interface avec les capteurs, mauvais isolement électrique entre les
capteurs, les câbles de ces derniers et l’unité d’acquisition des données, variation de la résistance
de contact du connecteur entraînant une dérive de l’instrument par rapport à l’étalonnage,
échec de la mesure et besoin accru de maintenance.
Le traitement des données enregistrées par la station peut notamment couvrir les opérations
suivantes: commande du cycle de mesures (lancement, fréquence, heure et date); gestion
complexe des capteurs (mise sous/hors tension, mode d’échantillonnage); traitement des
signaux du capteur (filtrage, conversion en unités scientifiques, algorithmes); contrôle de
la qualité des données; génération d’alarmes (variables en dehors des limites prédéfinies,
défaillance partielle du système, perte d’intégrité de la station); stockage des données (à court
terme et archivage); génération de messages de sortie (forme symbolique des codes, protocole
de communications); gestion des communications et maintenance de la station (alimentation
électrique, vérification des capteurs, communications).
Si vous devez mettre en place un réseau distinct ou totalement nouveau, nous vous
recommandons de suivre les consignes ci‑après pour sélectionner le matériel d’acquisition
des données et le système de communication. Plutôt que de mettre au point des logiciels
922 PARTIE II. SYSTÈMES D’OBSERVATION
et un matériel nouveaux pour réaliser des mesures de météorologie routière, il serait plus
judicieux de faire appel à des systèmes existants, commercialisés par des fabricants et des
distributeurs réputés et qui ont déjà fait leurs preuves, et de les adapter aux applications
routières. Il conviendrait en outre de s’appuyer sur l’expérience et les conseils des autres
gestionnaires de réseaux routiers. Le matériel et les logiciels associés devraient être de type
modulaire afin de pouvoir rajouter ultérieurement des capteurs et tenir compte des éventuelles
modifications techniques apportées aux capteurs. Et pour faciliter toute extension du réseau
au bout de quelques années, il peut s’avérer intéressant de choisir un matériel normalisé et de
s’approvisionner auprès d’un fabricant sérieux, capable de garantir une compatibilité technique
avec les versions antérieures.
Les modules de traitement des données devraient être de type ISA (Industry Standard Architecture)
et dotés d’un système d’exploitation standard robuste avec une bonne gestion du processus
de mise à niveau. Les logiciels d’application devraient être écrits dans un langage standard et
accompagnés de la documentation correspondante. Afin d’obtenir la fiabilité requise, on pourra
sélectionner des composants et des modules fabriqués spécialement. Une alternative moins
onéreuse consisterait à adopter du matériel standard du commerce doté de systèmes redondants
ou de secours pour garantir la fiabilité du système. Il conviendra de porter une attention
particulière à la conception de l’alimentation électrique de l’unité isolée. Il est recommandé
de prévoir une alimentation sans coupure, mais il faut bien admettre que les systèmes de
communication sont également tributaires du bon fonctionnement du réseau électrique local.
Quelle que soit la conception du système adoptée, le fait de placer l’électronique dans un
coffret solide, anticorrosion, sûr, avec une température interne constante, exempt de tout
risque d’exposition à l’humidité et à la poussière, constitue un plus en termes de fiabilité. Les
connecteurs de sortie des capteurs devraient être de haute qualité industrielle ou militaire et
correctement protégés contre la déformation des câbles, les infiltrations d’eau et la corrosion. Les
câbles des capteurs devraient être dotés d’un blindage avec mise à la terre et d’une gaine isolante
étanche, et placés dans un tube.
Il faudrait en particulier s’efforcer d’éviter les effets liés au bruit électrique ou aux perturbations
introduites dans le système d’acquisition des données via les câbles des capteurs, les lignes
d’alimentation électrique ou de communication. Ces signaux parasites peuvent engendrer
des erreurs de signaux de mesure transmis par les capteurs et entraîner une corruption des
données et une défaillance de l’électronique, en particulier au niveau des circuits d’interface
sensibles. Une grande attention devra être portée aux points suivants: conception de l’isolement
du capteur et de la ligne de communication, protection contre les surtensions, notamment
protection adaptée contre l’électricité atmosphérique, mise à la terre ou au neutre appropriée
des capteurs, de l’alimentation électrique, des modems de communication et des armoires, et
blindage de toutes les pièces de la chaîne de mesures relié à la terre, en évitant les boucles de
masse susceptibles de provoquer des erreurs de mesure.
10.5.1 Fonctions
Le message transmis par une station isolée de météorologie routière comporte le numéro
d’identification de la station, la date et l’heure du message, les données relatives à la voie du
capteur, notamment l’identification de la voie, et certaines données de maintenance pouvant
CHAPITRE 10. MESURES DE MÉTÉOROLOGIE ROUTIÈRE 923
Les fonctions du ou des ordinateurs centraux ont déjà été évoquées: gérer le réseau en contrôlant
les communications (voir ci‑dessous), recevoir des rapports (messages de météorologie routière,
messages de maintenance des stations automatiques et informations relatives à la qualité), traiter
les données de mesures routières destinées à fournir aux gestionnaires des réseaux routiers les
informations opérationnelles et les outils d’aide à la décision dont ils ont besoin. L’architecture du
réseau pourra être conçue de façon que l’ordinateur central serve d’Intranet ou de serveur Web
afin que les gestionnaires régionaux et autres utilisateurs de données météorologiques puissent
accéder rapidement à ces informations.
10.7 COMMUNICATIONS
Il est indispensable de pouvoir disposer d’un service de télécommunications fiable qui garantisse
une gestion efficace du réseau de stations et fournisse toutes les données voulues en temps et
en heure. Étant donné que la plus grande part des coûts annuels d’exploitation encourus seront
liés aux frais de communications, il est important de bien étudier les différentes options afin
d’optimiser le coût par message en fonction du niveau de service requis. L’analyse détaillée des
différentes solutions de télécommunications en termes de collecte des données et de gestion des
stations automatiques de météorologie routière n’entre pas dans le cadre du présent chapitre
(voir le chapitre 1 de la présente partie pour de plus amples informations sur la transmission des
données). Le choix du système de communication dépendra des objectifs de gestion du réseau
de mesures relatives à la météorologie routière et des services offerts par les prestataires de
services de télécommunications du pays et des tarifs pratiqués.
924 PARTIE II. SYSTÈMES D’OBSERVATION
Les signaux de données brutes émis par les capteurs doivent être traités ou filtrés pour donner
des valeurs moyennes représentatives. Cette opération peut être effectuée soit par certains
capteurs actifs, à l’interface des capteurs avec l’unité d’acquisition des données, soit dans l’unité
de traitement des données de plus haut niveau de la station. L’annexe 1.E du chapitre 1 de la
partie I précise les caractéristiques techniques qui permettront de calculer la valeur moyenne des
signaux de sortie des capteurs.
Les algorithmes appliqués aux données de sortie des capteurs (ou groupes de signaux de sortie)
soit au niveau de la station isolée, soit au niveau de l’ordinateur central, devraient provenir de
sources fiables, avoir été soigneusement testés et avoir de préférence fait l’objet de publications
librement accessibles. Les algorithmes développés en interne et adoptés par les gestionnaires de
réseaux routiers devraient être correctement définis et enregistrés dans les métadonnées de la
station ou les manuels du réseau.
Lorsque les valeurs excèdent les limites prédéfinies, des indications d’alarme peuvent être
générées à partir des signaux de sortie des capteurs pour que la station automatique envoie
des messages d’alarme. Le choix des alarmes et des tests aux limites est fonction des pratiques
nationales ou régionales. Nous présentons ci‑après quelques exemples d’alarmes transmises
par une station automatique. Notez l’emploi des combinaisons logiques «ET» et «OU» dans les
algorithmes:
Exemples d’alarmes:
a On extrapole la température du revêtement en appliquant un algorithme qui prend en compte les dernières
mesures et créé une équation du deuxième degré. Il sert à estimer la température sur les trois heures suivantes.
On peut également définir des alarmes en cas de défaut sur les capteurs, les formats de
messages, l’alimentation électrique ou les communications.
La qualité des décisions en matière de gestion des routes dépend de la fiabilité des mesures
réalisées. C’est pourquoi, lorsqu’un défaut est détecté au niveau des capteurs, de leur câblage
ou de l’interface avec la station automatique, l’unité défectueuse doit être identifiée et réparée
dans les plus brefs délais. Il est très difficile à un gestionnaire des routes de repérer des valeurs
de mesure erronées. Il convient de se reporter aux instructions relatives au contrôle qualité
données dans le chapitre 1 de la présente partie, ainsi que dans le chapitre 1 de la partie IV.
Les défaillances brutes des capteurs peuvent être détectées par le logiciel système de la station
automatique, qui devrait alors générer une situation d’alarme.
Les mesures situées en dehors de la plage attendue de fonctionnement du capteur peuvent être
rejetées en déterminant les limites pour chaque variable. Par exemple, les directions du vent
peuvent être limitées à 0° à 359°. Lorsqu’on enregistre un signal de sortie zéro erroné, une dérive
rapide ou un changement de pas dans la réponse d’un capteur, les mesures incorrectes peuvent
être rejetées par le logiciel qui réalise l’analyse statistique des mesures dans le temps, soit au
niveau de la station automatique si elle est dotée de la puissance de traitement nécessaire, soit au
niveau de l’ordinateur central d’acquisition des données. Dans certains des exemples ci‑dessous,
on compare l’écart type des dernières valeurs de n avec une valeur de seuil paramétrée.
a) Test portant sur toutes les températures: accepter les données uniquement si l’écart type des
30 dernières valeurs est ≥ 0,2 °C;
b) Test portant sur la vitesse du vent: accepter les données uniquement si l’écart type des
20 dernières valeurs est ≥ 1 km h–1;
c) Test portant sur la direction du vent: accepter les données uniquement si l’écart type des
30 dernières valeurs est ≥ 10°;
d) Test portant sur les précipitations liquides: vérifier la cohérence des valeurs relevées par rapport
à celles du jour précédent;
e) Test portant sur les précipitations de neige: vérifier les données si t(air) > 4 °C;
f) Test portant sur le rayonnement atmosphérique de grandes longueurs d’onde (RA) (couverture
nuageuse): refuser les données si RA > 130 W m–2, si l’humidité relative > 97 % et
RA > 10 W m–2, et si l’humidité relative ≥ 90 % et RA > 10 W m–2, pendant quatre heures
consécutives.
926 PARTIE II. SYSTÈMES D’OBSERVATION
Les gestionnaires des réseaux routiers devraient élaborer leur propre manuel de maintenance des
stations de météorologie routière dont ils ont la charge en se fondant sur les recommandations
fournies par les fabricants, les informations données dans le présent guide et leur expérience
personnelle. Tout bon manuel doit contenir les listes de contrôle destinées à faciliter les
opérations d’inspection et de maintenance. Un gestionnaire peut décider de sous‑traiter les
travaux d’inspection et de maintenance au SMHN local, lequel devrait bien connaître le type
d’instrumentation utilisée.
Chaque station devrait être soumise à un programme complet de maintenance deux fois par an:
entretien du site (coupe de l’herbe et de la végétation susceptibles d’affecter l’exposition des
capteurs); vérification des coffrets à la recherche d’éventuelles infiltrations d’eau et remplacement
des déshydratants; traitement et peinture des coffrets, écrans et supports détériorés par les
intempéries et la corrosion; vérification de l’intégrité des câbles et des connecteurs; nettoyage
et mise à niveau des capteurs (tenir compte des problèmes de mesures évoqués plus haut);
et étalonnage ou remplacement des capteurs et de la chaîne de mesures de la station
météorologique automatique.
Les gestionnaires des routes devraient mettre en place un programme d’inspection matérielle
destiné à contrôler l’intégrité et le bon fonctionnement des stations dont ils ont la charge une fois
par mois en hiver, et tous les deux mois en été. En cas de travaux au niveau du revêtement, les
ouvriers devront installer les panneaux d’avertissement réglementaires et porter des vêtements
de sécurité homologués.
10.11 FORMATION
Association mondiale de la route, 2002: Actes du XIe Congrès international de la viabilité hivernale (Sapporo,
Japon).
Organisation météorologique mondiale, 1997: Road Meteorological Observations (R.E.W. Pettifer et
J. Terpstra). Instruments and Observing Methods Report No. 61 (WMO/TD‑No. 842), Genève.
———, 2003: Road Managers and Meteorologists over Road Meteorological Observations: The Result of
Questionnaires (J.M. Terpstra et T. Ledent). Instruments and Observing Methods Report No. 77
(WMO/TD‑No. 1159), Genève.
———, 2010: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
———, 2011a: Règlement technique (OMM‑N° 49), Volume I, Genève.
———, 2011b: Manuel des codes (OMM‑N° 306), Volumes I.1 et I.2, Genève.
PARTIE III. OBSERVATIONS SPATIALES
TABLE DES MATIÈRES DE LA PARTIE
Page
D'abord utilisées presque exclusivement pour la prévision immédiate, les données satellitaires
ont commencé, avec le lancement du satellite Nimbus‑3, le 13 avril 1969, à servir à la prévision
numérique du temps: établissement de profils verticaux de la température et de l'humidité
atmosphériques à partir de données recueillies à l'aide d'instruments expérimentaux, et
mesure du déplacement des nuages à partir de données de vent transmises par des satellites
géostationnaires.
L'exploration des océans a débuté avec le lancement du satellite SeaSat, le 27 juin 1978. Le SeaSat
a ouvert la voie à la détection hyperfréquence, passive ou active, dans toutes les conditions
météorologiques. Presque simultanément, le 24 octobre 1978, le satellite Nimbus‑7 commençait
à produire des données de détection hyperfréquence passive et de surveillance de la couleur
océanique. Après les missions d'altimétrie, de diffusiométrie et de radars interférométriques à
synthèse d'ouverture SeaSat, aucune mission de télédétection active n'a été conduite jusqu'au
lancement du satellite européen de télédétection (ERS‑1), le 17 juillet 1991. Plusieurs missions
Nimbus ont d'abord permis de recueillir des informations sur le rayonnement atmosphérique
et la chimie de l'atmosphère. Le lancement du satellite de mesure du bilan radiatif de la Terre
(ERBS), le 5 octobre 1984, a permis de franchir un grand pas dans l'étude du bilan radiatif
de la Terre. Enfin, le lancement du satellite de recherche en haute atmosphère (UARS), le
12 septembre 1991, a constitué un jalon pour l'observation de la chimie de l'atmosphère.
la prévision numérique du temps à l'échelle mondiale. Dans les zones continentales, les réseaux
d'observation mettent l'accent sur les zones peuplées, alors que la grande majorité des surfaces
terrestres sont relativement peu peuplées, et donc sous‑échantillonnées. De plus, certaines
observations locales recueillies en surface (par exemple sur les types de nuages) sont difficiles à
intégrer dans l'espace.
Un des aspects importants qui distingue les observations par satellite des mesures en surface
est leur intégration dans l'espace et dans le temps. Les mesures par satellite intègrent le signal
d'entrée sur un champ de visée instantanée déterminé par la nécessité de recueillir suffisamment
d'énergie rayonnante pour obtenir le rapport signal‑bruit requis. Les mesures en surface sont
d'ordinaire liées à un point particulier dans l'espace, bien que, selon la variable observée,
elles puissent correspondre à des superficies plus ou moins grandes. Dans la dimension
temporelle, en revanche, la situation est inversée: les observations par satellite peuvent être
presque instantanées en fonction du mouvement du satellite ou du temps nécessaire pour
acquérir un élément d'image (pixel) lors du balayage d'une image; les mesures en surface sont
habituellement intégrées sur un certain intervalle de temps afin d'établir une moyenne des
fluctuations instantanées. Ces différences rendent plus difficiles la comparaison et la combinaison
des observations par satellite et des mesures en surface.
Il est reconnu que les satellites ne peuvent pas réaliser toutes les observations nécessaires avec
la qualité requise. Pour certaines variables géophysiques, aucun principe de télédétection n'a
encore été établi. Pour d'autres, il n'est possible d'obtenir des mesures de la qualité requise qu'en
recourant à des informations accessoires obtenues à partir de systèmes fiables d'observation en
surface. Par ailleurs, comme les mesures effectuées par satellite sont souvent indirectes par nature
(le rayonnement constituant la grandeur primaire observée), les mesures effectuées en surface
jouent un rôle majeur dans la validation des produits satellitaires.
Il existe encore des situations où les systèmes limités aux observations en surface peuvent fournir
des mesures de qualité acceptable. Cependant, même dans ces cas, les satellites peuvent servir
à l'extension spatiale des mesures locales et éparses effectuées en surface. En particulier, la
pratique de l'assimilation permet le transfert des informations ayant trait à diverses variables
géophysiques obtenues à l'aide de techniques différentes. Ainsi, les observations satellitaires
pourraient contribuer à notre connaissance des variables géophysiques même lorsque ces
dernières ne sont pas directement observées par satellite, à condition que l'on puisse s'appuyer
sur un rapport physique solide entre ces variables. L'utilisation synergique des observations
effectuées depuis l'espace et en surface est fondamentale pour le Système mondial intégré des
systèmes d'observations de l'OMM (WIGOS).
Note: On trouvera dans la base de données en ligne de l'OMM sur les capacités d'observation depuis l'espace (www.
wmo.int/oscar) des descriptions détaillées des programmes et instruments satellitaires.
TABLE DES MATIÈRES DU CHAPITRE
Page
Le présent chapitre donne un aperçu des activités d'observation de la Terre depuis l'espace, y
compris de leurs avantages possibles et de leurs limites. Il décrit les concepts de base des orbites
et les caractéristiques de l'observation de la Terre depuis l'espace, et énonce les principes de la
télédétection.
On peut observer la Terre depuis l'espace à partir d'orbites différentes et sous diverses conditions
d'observation. La présente section aborde les aspects que voici:
Les observations de la Terre faites à partir d'une plate-forme satellitaire ont sur les observations
effectuées à partir du sol ou d'un ballon l'avantage principal d'offrir un large champ de vision
(field of view – FOV). L'altitude minimale des plates-formes satellitaires est habituellement de
400 km, mais elle est souvent beaucoup plus élevée, parfois jusqu’à 35 786 km dans le cas des
orbites géostationnaires. Le champ de vision dépend de l'altitude orbitale, de la configuration
des instruments et de l'utilisation prévue, qui peuvent influer sur la gamme des angles zénithaux
d'observation possibles (ζ). Le champ de vision peut se définir comme la distance maximale de la
surface terrestre observable à partir du satellite sous un angle zénithal donné, comme l'indique la
formule suivante (voir la figure 2.1):
R
FOV = 2 R δ π 180 sin (ζ − δ ) = sin ζ (2.1)
H +R
où R désigne le rayon moyen de la terre (6 371 km), H l'altitude orbitale en kilomètres, et δ l'angle
géocentrique en degrés.
H
ζ
R δ
ζ = 90°
4 401 km 19,79° 5 326 km 23,95° 6 076 km 27,32° 18 082 km 81,31°
(horizon/horizon)
ζ = 85° (télé-
3 423 km 15,39° 4 322 km 19,43° 5 057 km 22,74° 16 978 km 76,34°
communications)
ζ = 70°
(utilisation 1 746 km 7,85° 2 405 km 10,82° 2 980 km 13,40° 13 752 km 61,84°
qualitative)
ζ = 60°
(utilisation 1 207 km 5,43° 1 707 km 7,68° 2 157 km 9,70° 11 671 km 52,48°
quantitative)
Le tableau 2.1 présente les valeurs du champ de vision d'un satellite (en kilomètres) en fonction
de l'altitude orbitale pour des valeurs typiques de l'angle zénithal ζ. Il indique également les
valeurs correspondantes de l'angle géocentrique δ.
Il peut arriver que le champ de vision potentiel ne soit pas entièrement couvert par un seul
instrument. Le principe de télédétection ou les caractéristiques technologiques de l'instrument
peuvent en effet définir une limite supérieure de la valeur de son champ de vision. Par exemple,
les altimètres radars ne peuvent fonctionner qu'en géométrie nadir et ne possèdent donc pas
de véritable champ de vision, si ce n'est de l'élargissement du faisceau dû à la diffraction. Les
imageurs à résolution très élevée présentent habituellement un champ de vision de l'ordre de
plusieurs dizaines de kilomètres, comme les radars à synthèse d'ouverture (RSO).
L'altitude correspondant à un jour sidéral (23 h 56 min 04 s) est de 35 786 km. Un satellite en
orbite à cette altitude est appelé «géosynchrone». L'orbite est qualifiée de «géostationnaire» si
elle se trouve dans le plan équatorial de la Terre et si le satellite se déplace vers l'est: la position
du satellite par rapport à la surface terrestre paraît fixe, au nadir du point sous-satellite sur
l'équateur.
Si l'orbite est inclinée par rapport au plan équatorial, le satellite traversera l'équateur à une
certaine longitude. Après T minutes, on assistera à un autre passage au-dessus de l'équateur
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 937
Largeur de fauchée
Décalage
Figure 2.2. Décalage entre deux orbites successives et largeur de fauchée de l'instrument.
Si la largeur de fauchée est au moins équivalente au décalage, la couverture offerte par deux
orbites contiguës sera continue. Ainsi, le temps requis pour obtenir une couverture mondiale
(cycle d’observation) dépendra du rapport entre la largeur de fauchée de l'instrument et le
décalage.
Le tableau 2.2 présente les valeurs de la période et du décalage correspondant pour les
exemples d'altitude orbitale dont il est question au tableau 2.1. Il indique en outre les durées
de cycles d’observation correspondant à diverses largeurs de fauchée. Ces largeurs de fauchée
sont associées à des utilisations qualitative et quantitative, à savoir avec des angles zénithaux
respectifs de 70° et de 60°. Le temps d'observation est divisé par deux pour les instruments
capables de fonctionner le jour et la nuit. Le décalage et le cycle d’observation ne sont pas
indiqués pour H = 35 786 km (altitude géostationnaire).
Tableau 2.2. Période, décalage et cycle d’observation pour les orbites décrites au tableau 2.1.
Dans le cas des satellites géostationnaires, dont la position par rapport à la surface de la Terre est
fixe, la durée du cycle d’observation dépend uniquement des caractéristiques de l'instrument
et peut être de quelques minutes ou moins selon la surface balayée. À l'intérieur de leur zone de
couverture, les observations géostationnaires sont parfaitement adaptées au contrôle continu
requis. Par exemple, un tel contrôle est nécessaire pour la détection d'événements instantanés
comme les éclairs, ou pour l'échantillonnage temporel à haute fréquence de phénomènes
938 PARTIE III. OBSERVATIONS SPATIALES
évoluant rapidement comme la convection active. Cependant, la couverture exclut les très hautes
latitudes et toutes les zones situées trop loin du point sous-satellite. Le tableau 2.1 montre que
δ = 81,31° est l'angle géocentrique maximal.
L'orbite des satellites non géostationnaires affichera ce qu'on appelle un cycle de répétition si
le satellite repasse par la même trajectoire après un certain nombre de révolutions. Pendant
la durée du cycle de répétition, la trajectoire du satellite peut varier de jour en jour en laissant
constater certaines périodicités appelées sous-cycles. Certains de ces sous-cycles peuvent
présenter un intérêt en conduisant à la couverture de certaines zones relativement proches l'une
de l'autre à intervalles rapprochés dans le temps, ou à la couverture de zones adjacentes.
Si l'orbite est héliosynchrone (voir la section 2.1.3), l'existence d'un cycle de répétition signifie
que le satellite peut accomplir un nombre donné de révolutions dans un nombre donné exact
de jours. La période orbitale détermine le nombre de révolutions N accomplies par le satellite
en 24 heures. D'ordinaire, ce n'est pas un nombre entier. Pour obtenir un cycle de répétition de
m jours, on ajuste la période orbitale pour faire en sorte que le produit de «N multiplié par m»
soit un nombre entier. On peut ainsi exprimer N sous la forme suivante, où n et ℓ représentent
respectivement le quotient et le reste de la division entière de «N ∙ m» par m:
N =n+ m (2.3)
où n, ℓ et m sont des nombres entiers (ℓ < m).
L'équation 2.3 s'applique également aux orbites non héliosynchrones, mais dans ce cas, le cycle
de répétition m n'est plus exprimé en jours solaires de 24 heures et doit prendre en compte une
légère correction due à la dérive de l'orbite. Le tableau 2.3 présente des exemples de cycles de
répétition et de leurs sous-cycles principaux correspondant à certaines orbites particulières.
Une orbite à cycle de répétition est nécessaire lorsque une zone d'intérêt doit être balayée à
intervalles fixes dans des conditions identiques. C'est le cas pour les mesures altimétriques
réalisées aux fins d'applications géodésiques, ou pour l'imagerie terrestre haute résolution
effectuée pour la détection de variations locales.
Les cycles de répétition peuvent être utiles lorsque la fauchée est beaucoup moins large que le
décalage et qu'il n'est pas possible d'obtenir une couverture mondiale en un seul jour. On peut
dans ce cas organiser la séquence des couvertures quotidiennes successives selon une certaine
logique — par exemple, pour obtenir une progression régulière ou pour éviter les erreurs
systématiques dues à un échantillonnage inadéquat.
Orbites non
Orbites héliosynchrones
héliosynchrones
909 km 705 km
832 km 791 km 820 km
(p.ex., (p.ex., 1 336 km
Altitude orbitale (p.ex., (p.ex., (p.ex.,
Landsat Landsat (p.ex. JASON)
SPOT) Envisat) Metop)
1-3) 4-8)
Période 103,2 min 98,9 min 101,5 min 100,6 min 101,3 min 112,4 min
Cycle 18 j 16 j 26 j 35 j 29 j 10 ja
Sous-cycle(s) 1j 7 j, 2 j 5j 16 j, 3 j 5j 3 ja
principal(aux)
Note:
a. Dans le cas du réseau conjoint d’océanographie et d’altimétrie par satellite (JASON), qui n'est pas héliosynchrone,
les chiffres correspondent à la durée d'un jour de 23 h 48 min, c'est-à-dire 0,99156 de la durée d'un jour solaire.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 939
Décalage
Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée
19 18 17 16 15 14 13 12 11 10 09 08 07 06 05 04 03 02 01
Orbite Orbite Jour
02 01 01
Orbite Jour
15 02
Sous-cycle d'une journée
Orbite Jour
29 03
Orbite Jour
43 04
Orbite Jour
57 05
Orbite Jour
71 06
Orbite Jour
85 07
Orbite Jour
99 08
Orbite Jour
113 09
Orbite Jour
127 10
Orbite Jour
141 11
Orbite Jour
155 12
Orbite Jour
169 13
Orbite Jour
183 14
Orbite Jour
197 15
Orbite Jour
211 16
Orbite Jour
225 17
Orbite Jour
239 18
Orbite Orbite Jour
253 252 19
Figure 2.3. Évolution schématique de la trajectoire orbitale d'un satellite Landsat de type
ancien pendant la durée d'un cycle de répétition (N = 13 + 17/18, cycle de répétition: 18 jours,
251 révolutions/cycle)
La figure 2.3 illustre l'évolution de la trajectoire orbitale avec une orbite présentant un sous-
cycle d'une journée (comme les satellites Landsat de type ancien par exemple). On constate que
la fauchée balayée chaque jour est adjacente à celle balayée le jour précédent. La largeur de la
fauchée peut être ajustée afin d'assurer une couverture complète de la surface terrestre. Cette
méthode présente cependant l'inconvénient qu'il n'y aura qu'une seule séquence de jours de
passage au-dessus ou à proximité de la zone d'intérêt par cycle de répétition.
Avec les satellites Landsat actuels, l'évolution temporelle des trajectoires orbitales pendant
le cycle de répétition (16 jours) engendre deux sous-cycles principaux, comme l'indique la
figure 2.4. Le sous-cycle de deux jours donne une lacune temporelle plus courte, mais le sous-
cycle de sept jours donne une meilleure correspondance géographique.
Bien que le concept d'un recours aux cycles et sous-cycles de répétition découle des exigences
créées par l'exploitation d'instruments à fauchée étroite, y compris ceux limités à une visée au
nadir, les orbites à sous-cycles peuvent également s'avérer utiles dans le cas des instruments à
largeur de fauchée relativement grande. Par exemple, certains instruments de sondage peuvent
couvrir une fauchée de plusieurs milliers de kilomètres de largeur (plus de 2 200 km dans le
cas du sondeur amélioré à hyperfréquences (AMSU) et de l’interféromètre atmosphérique
de sondage dans l'infrarouge (IASI)). Cependant, la qualité des informations recueillies est
plus élevée à proximité des points nadir, et il est donc utile de faire en sorte que la couverture
fournisse un mélange adéquat de données de qualité élevée et de qualité moindre. Les orbites
des satellites de l’Administration américaine pour les océans et l'atmosphère (NOAA) et des
satellites météorologiques opérationnels (Metop) ont un sous-cycle de cinq jours, comme
l'indique la figure 2.5 concernant les satellites Metop.
940 PARTIE III. OBSERVATIONS SPATIALES
Décalage
Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée Fauchée
17 16 15 14 13 12 11 10 09 08 07 06 05 04 03 02 01
Orbite Jour
31 03
Orbite Jour
45 04
Orbite Jour
60 05
Orbite Jour
74 06
Orbite Jour
Sous-cycle de 7 jours 89 07
Orbite Jour
103 08
Orbite Jour
118 09
Orbite Jour
133 10
Orbite Jour
147 11
Orbite Sous-cycle de 9 jours Jour
162 12
Orbite Jour
176 13
Orbite Jour
191 14
Orbite Jour
205 15
Orbite Jour
220 16
Figure 2.4. Évolution schématique de la trajectoire orbitale d'un satellite Landsat moderne
pendant la durée d'un cycle de répétition (N = 14 + 9/16, cycle de répétition: 16 jours, 233
révolutions/cycle). Trois sous-cycles sont illustrés: sept jours (direction ouest), le principal,
fournissant les informations les plus proches dans l'espace; deux jours (direction est),
fournissant les informations les plus proches dans le temps; et neuf jours (direction est), de
peu d'intérêt, constitué par la somme des deux premiers
Le cycle de répétition et les sous-cycles de répétition présentent plusieurs avantages, mais ils ont
aussi certains inconvénients dont il convient de prendre note:
En conséquence, si tous les instruments embarqués offrent une fauchée de largeur suffisante, il
sera généralement jugé inutile d'exploiter un cycle ou un sous-cycle de répétition.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 941
Décalage
30 29 28 27 26 25 24 23 22 21 20 19 18 17 16 15 14 13 12 11 10 09 08 07 06 05 04 03 02 01
02 01
02 16 02
03 30 03
04 44 04
05 58 05
06 73 06
07 87 07
08 101 08
09 115 09
10 129 10
11 144 11
12 158 12
13 172 13
Sous-cycle de 5 jours
14 186 14
15 Sous-cycle de 4 jours 200 15
16 215 16
17 229 17
18 243 18
19 257 19
20 271 20
21 286 21
22 300 22
23 314 23
24 328 24
25 342 25
26 357 26
27 351 27
28 385 28
29 399 29
414 413
Le plan orbital peut correspondre exactement au plan équatorial de la Terre, ou être incliné de
ε degrés par rapport à ce dernier (voir la figure 2.6).
Lorsque ε = 90°, le satellite suit une trajectoire méridienne et son orbite est polaire. Ce type
d'orbite est très pratique pour l'observation de la surface terrestre d'un pôle à l'autre.
Pôle Nord
Plan
équatorial
Plan orbital
Altitude
Hiver Hiver
18/06 LST 18/06 LST
Orbite polaire Orbite héliosynchrone
Figure 2.7. À gauche: Orbite polaire rigoureuse, avec variation de l'heure solaire locale (LST)
au fil des saisons. À droite: Orbite héliosynchrone avec heure solaire locale fixe.
L'inclinaison de l'orbite ε peut être réglée de telle sorte que le taux de précession soit directement
en phase avec la rotation annuelle de la Terre autour du Soleil. Si on impose la valeur α = 360/365
(degré/jour) dans l'équation 2.4, on observe que l'inclinaison ε 0 doit satisfaire à la relation
suivante:
7
H 2
cos ε 0 = −0, 0988 (1 + ) (2.5)
R
L'orbite qui satisfait à cette condition est héliosynchrone. La valeur négative de ε 0 indique que
l'orbite est rétrograde par rapport à la rotation de la Terre. L'heure solaire locale des zones
survolées par le satellite à une latitude donnée reste la même toute l'année (voir la partie droite
de la figure 2.7). Le tableau 2.4 énumère les valeurs ε 0 d'une gamme d'orbites héliosynchrones
en fonction de l'altitude orbitale.
Il convient de noter que la déviation par rapport à l'axe polaire augmente avec l'altitude orbitale,
ce qui présente un inconvénient pour les orbites héliosynchrones hautes: les pôles risquent de
ne pas être observables, à moins que la largeur de fauchée des instruments ne soit suffisante.
Cependant, pour les orbites relativement basses, le plan orbital est quasi polaire.
des marées astronomiques sur le niveau de la mer) sont exposés à une erreur systématique
d'échantillonnage lorsqu'ils sont observés à partir d'un satellite héliosynchrone (c'est-à-dire à
une heure solaire locale fixe).
Les observations ci-dessus s'appliquent aux orbites circulaires, qui sont de loin les plus
couramment utilisées pour l'observation terrestre — notamment les orbites héliosynchrones
et les orbites géostationnaires. Cependant, les orbites basses (LEO) quasi polaires et les orbites
géostationnaires (GEO) présentent plusieurs lacunes.
Le satellite LEO sur orbite quasi polaire procure une couverture mondiale, mais peu fréquente.
Même si la fauchée de l'instrument est aussi large que le décalage et permet donc une
couverture continue grâce à la contiguïté des orbites consécutives, un satellite ne peut
couvrir la surface entière du globe qu'au plus deux fois par jour (ou même une seule fois si la
télédétection ne peut être effectuée que sous des conditions diurnes ou nocturnes). Pour obtenir
une couverture mondiale plus fréquente, il faut avoir recours à plus de satellites en orbites
complémentaires (voir le tableau 2.5).
Tableau 2.5. Nombre de satellites LEO requis pour accomplir un cycle d'observation donné
(altitude présumée: H = 800 km)
Il ressort clairement du tableau 2.5 que tout cycle d'observation plus court que 3 heures par
exemple serait extrêmement coûteux à réaliser puisqu'il exigerait une constellation de satellites
LEO en orbites coordonnées. La couverture s'améliore sensiblement aux hautes latitudes (voir
la figure 2.2), atteignant par exemple une fréquence deux fois plus élevée à 60° de latitude
qu'à l'équateur. Dans les régions polaires, la fréquence de couverture s'approche de la période
orbitale T (c'est-à-dire ~100 min) ou peut même devenir infra-horaire lorsqu'on utilise plus de
satellites.
Un cycle d'observation plus court peut être obtenu en délaissant l'héliosynchronisme pour
adopter une inclinaison plus basse, mais il devient alors impossible d'obtenir une couverture
mondiale. Les orbites à faible inclinaison servent à l'observation des zones intertropicales.
La fréquence des observations réalisables à partir d'une orbite GEO est limitée uniquement par
les instruments utilisés. Cependant, il faut une constellation d'environ six satellites disposés
autour de l'équateur pour couvrir tous les secteurs longitudinaux jusqu'à une latitude d'au moins
55°, et les latitudes les plus élevées ne peuvent être couvertes.
Certaines de ces faiblesses peuvent être atténuées en utilisant une orbite elliptique. La vitesse
d'un satellite en orbite elliptique est variable: elle est minimale à l'apogée, ce qui donne plus de
temps pour la prise des mesures sur la zone survolée. Les orbites elliptiques sont habituellement
944 PARTIE III. OBSERVATIONS SPATIALES
optimisées pour répondre à des besoins particuliers, notamment en spatiologie: par exemple,
prise de mesures in situ jusqu'à de très hautes altitudes en traversant l'ionosphère et la
plasmasphère.
Un des problèmes des orbites elliptiques est que, puisque l'argument du périgée est influencé
par la perturbation séculaire, l'apogée est atteint à des latitudes qui varient avec le temps. La
perturbation séculaire peut être compensée si l'inclinaison orbitale ε = sin–1 (4/5)1/2 ≈ 63,4°. Dans
ce cas, la région de l'apogée, où le satellite se trouve la plupart du temps, reste stable. À partir de
cette position, les mesures peuvent être prises à une très grande fréquence, dans des conditions
quasi géostationnaires.
Deux orbites de ce type ont été utilisées pour des satellites de télécommunication auxquels on
compte avoir recours pour l'observation de la terre: Molniya (voir la figure 2.8), qui présente
une période de 12 heures et un apogée de 39 800 km, et Tundra, qui présente une période de
24 heures et un apogée de 48 300 km. L'orbite Molniya est quasi géostationnaire pendant 8 des
12 heures de sa période; l’orbite Tundra l'est pendant environ 16 des 24 heures de sa période.
Les orbites Molniya et Tundra ne servent à couvrir qu'un seul hémisphère. De plus,
la zone d'observation visée pendant la portion de 8 ou de 12 heures passée en orbite
quasi géostationnaire est centrée sur une heure solaire locale particulière. Si toutes les latitudes
supérieures à 60° devaient être couvertes 24 heures par jour, trois satellites Molniya ou deux
satellites Tundra seraient nécessaires. L’orbite TAP (orbite à trois apogées), qui présente une
période de 16 heures et une apogée de 43 500 km, constitue une variante intéressante. Le
tableau 2.6 présente les caractéristiques principales des orbites Molniya et Tundra. Il convient
de noter qu'à leur position en apogée, utile pour les échantillonnages fréquents, l'altitude des
satellites dépasse celle des satellites géostationnaires.
Tableau 2.6. Principales caractéristiques des orbites Molniya et Tundra (les altitudes à
l'apogée et au périgée peuvent être légèrement adaptées aux besoins)
Nombre de satellites
Type
Inclinaison Période Apogée Périgée Couverture (un satellite) requis pour couvrir
d'orbite
l'hémisphère
Visible à partir de deux
Molniya 63,4° 12 h ~39 800 km ~1 000 km positions pendant 3
~8 h
Les satellites sont injectés en orbite par un lanceur, qui doit remplir les fonctions suivantes:
a) Abriter le satellite dans sa coiffe afin d'en protéger les fonctions vitales. Le satellite est arrimé
dans la coiffe sous une forme compacte pour occuper le moins d'espace possible et pour
mieux résister aux effets de l'accélération.
b) Mettre le satellite en orbite. Pour limiter la masse totale à transporter à haute altitude, le
lanceur compte en général plusieurs étages. Le premier étage — le plus lourd puisqu'il
doit produire la poussée maximale nécessaire au décollage — est le premier à être largué.
La coiffe est libérée à une altitude appropriée. Un ou deux autres étages sont mis à feu et
largués selon un ordre établi à l'avance.
c) Libérer le satellite. Pour injecter un satellite sur orbite LEO circulaire, le lanceur le libère
directement sur son orbite définitive. Pour injecter un satellite sur orbite elliptique, le
lanceur le libère au périgée en lui donnant l'accélération supplémentaire requise pour
l'orbite souhaitée.
Une fois en orbite, le satellite déploie ses panneaux solaires et commence à fonctionner de façon
autonome. Une des opérations consiste à atteindre l'orbite définitive en activant le système de
propulsion. Si l'orbite souhaitée est géostationnaire, le satellite est libéré au périgée d'une orbite
elliptique dont l'apogée se situe à 35 786 km, et est muni d'un moteur d'apogée. Le moteur
d'apogée à ergols solides, hybrides ou, plus souvent, liquides est mis à feu à l'apogée et donne
au satellite l'accélération nécessaire pour circulariser l'orbite (voir la figure 2.9).
Le lancement d'un satellite est une opération complexe et coûteuse. Pour des motifs de
rentabilité, plusieurs satellites partagent souvent le même lanceur. Dans un tel cas, le dernier
étage du lanceur sert à libérer les divers satellites à des moments différents sur leurs orbites
respectives. Les systèmes de propulsion des satellites servent ensuite au transfert de ces derniers
sur leur orbite définitive.
Les constellations de minisatellites, dont le lancement à la pièce serait extrêmement peu rentable,
constituent un bon exemple de l’utilité de tels lancements groupés. La configuration «Walker
Delta» constitue une stratégie efficace de mise en orbite de telles constellations. Tous les satellites
doivent avoir la même inclinaison orbitale ε. Ils peuvent être libérés à leurs altitudes respectives
directement par le lanceur, ou y arriver en utilisant leur propre système de propulsion. Ainsi,
chaque orbite présente son propre taux de précession, défini par l'équation 2.4, et les phases
orbitales se différencient au fil du temps. Une fois les orbites de tous les satellites correctement
espacées, les systèmes de propulsion les placent chacun à l'altitude souhaitée H. L'équation 2.4
Apogée
Orbite
terrestre
basse
Orbite de
transfert
Terre
Périgée
montre qu'en pratique, cette stratégie donne de bons résultats pour des inclinaisons et des
altitudes relativement faibles. Sinon, le temps requis pour déployer la constellation devient trop
long. Par exemple, le déploiement du Système d’observation par une constellation de satellites
pour l’étude du temps, du climat et de l’ionosphère (COSMIC) (six satellites, H = 800 km, ε = 71°)
a demandé un an.
f) La télédétection active.
Le tableau 2.7 définit les subdivisions du spectre qui sont généralement utilisées, bien qu'elles ne
soient pas normalisées. La longueur d'onde λ et la fréquence ν, communément utilisées, ainsi que
le nombre d'ondes ν*, surtout utilisé en spectroscopie, sont également indiqués.
Le tableau 2.8 présente une subdivision plus fine des domaines des hyperfréquences et de
l'infrarouge lointain utilisés pour les radars et, par extension, pour la radiométrie passive.
Transmittance
Longueur d’onde
Le spectre global illustré à la figure 2.10 comprend cinq domaines distincts aux caractéristiques
passablement différentes.
Dans le domaine UV, l'absorption atmosphérique est importante et est principalement due
aux éléments constituants de l'air (azote (N2) et oxygène (O2)) et aux gaz à l'état de traces (le
plus important étant l'ozone (O3)). Il n'est pas possible d'observer la surface terrestre dans
ce domaine du spectre. La source de rayonnement utilisée aux fins de la télédétection est le
rayonnement solaire réfléchi.
Les domaines VIS, NIR et SWIR, de 0,4 à 3 µm et jusqu'à 4 µm dans certains cas, peuvent être
détectés à l'aide du rayonnement solaire réfléchi. On y trouve plusieurs régions transparentes
(fenêtres) et plusieurs bandes d'absorption (voir la figure 2.11).
Dans les domaines MWIR et TIR, de 4 à 15 µm, la source de rayonnement est constituée des
émissions thermiques de la surface de la Terre et de l'atmosphère, régies principalement par
l'absorption et les émissions de vapeur d'eau et de dioxyde de carbone, responsables dans une
large mesure de l'effet de serre. Combinées à la principale fenêtre atmosphérique, ces émissions
thermiques permettent de maintenir l'équilibre thermique de la planète dans une zone de
valeurs confortables (voir la figure 2.12).
Tableau 2.8. Bandes utilisées en technologie radar (selon l'American Society for
Photogrammetry and Remote Sensing)
L 1 – 2 GHz 15 – 30 cm
S 2 – 4 GHz 7,5 – 15 cm
Dans le domaine MW, de 1 à 300 GHz, la source de rayonnement est constituée des émissions
thermiques de la surface de la Terre et de l'atmosphère. La figure 2.13 illustre le spectre
atmosphérique qui s'étale de 2 GHz jusqu'aux fréquences sous-millimétriques atteignant
1 000 GHz.
CO2 CO O2 CH4 H2O – bande H2O – continuum N2 Continuum moléculaire O3 Gaz total
1
0,8
Transmittance
0,6
0,4
0,2
0
0,4 0,5 0,6 0,7 0,8 0,9 1 1,5 2 2,5 3 3,5 4
Longueur d’onde (µm)
Figure 2.11. Spectre atmosphérique dans la gamme de longueurs d'onde de 0,4 à 4,0 µm
comportant plusieurs fenêtres ainsi que des bandes d'absorption du monoxyde de carbone
(CO, vers 2,3 µm), du dioxyde de carbone (CO2, vers 1,6, 2,1 et 2,8 µm), du méthane (CH4, vers
2,3 et 3,4 µm), plusieurs bandes d'absorption de l'oxygène (O2, essentiellement vers 0,77 µm),
quelques bandes d'absorption de l'azote (N2) et de l'ozone (O3), et plusieurs bandes
importantes d'absorption de la vapeur d'eau (H2O, essentiellement à 0,94, 1,13, 1,37, 1,8 et
2,7 µm). Le graphique indique aussi le continuum moléculaire qui empêche le recours aux UV
pour l'observation de la surface terrestre et de la basse atmosphère depuis l'espace.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 949
300 CO 300
N2O
240 O3 240
220 220
CO2
600 800 1 000 1 200 1 400 1 600 1 800 2 000 2 200 2 400 2 600 2 800 3 000
Nombre d'ondes (cm–1)
Figure 2.12. Spectre atmosphérique dans la gamme de 3,33 à 16,67 µm. Les principales
fenêtres atmosphériques se situent dans les gammes de 3,7 à 4,0 µm et de 10 à 12 µm; ce sont
de larges bandes d'absorption liées à la vapeur d'eau (H2O) et au dioxyde de carbone (CO2).
Les autres espèces observées sont l'ozone (O3, vers 9,7 µm), le méthane (CH4, vers 7,7 µm), le
monoxyde de carbone (CO, vers 4,6 µm) et l’oxyde nitreux (N2O, vers 4,5 et 7,7 µm).
Dans la portion du domaine des hyperfréquences où l'atmosphère est plus transparente (c'est-
à-dire aux fréquences inférieures à 100 GHz par exemple), les longueurs d'onde dépassent
les 3 mm et sont donc beaucoup plus grandes que les gouttelettes des nuages, sauf en cas de
précipitations. Ainsi, le domaine des hyperfréquences peut servir à l'observation de la surface
terrestre ou des propriétés atmosphériques dans presque toutes les conditions météorologiques.
La télédétection active est conditionnée par la technologie et, dans le domaine des
hyperfréquences, par les règles régissant le spectre radioélectrique. Les radars utilisent les
hyperfréquences tandis que les lidars utilisent les longueurs d'onde optiques lorsque des sources
appropriées (cristaux) sont disponibles. Le tableau 2.9 présente quelques-unes des fréquences
radar et des longueurs d'onde lidar communément utilisées. À des fins comparatives, le tableau
récapitule également les fréquences utilisées pour le Système mondial de navigation par satellite
(GNSS) et les opérations connexes de mesures de l'atmosphère par occultation radio (voir la
section 3.2.7 du chapitre 3 de la partie III).
Un corps qui n'est pas réfléchi et qui est totalement opaque à tout rayonnement, peu en importe
la longueur d'onde (où ρ = τ = 0, et en conséquence ε = 1), est appelé «corps noir». Il rayonne à
toutes les températures T et sur la totalité du spectre λ ou ν, conformément à la loi de Planck:
950 PARTIE III. OBSERVATIONS SPATIALES
A) Estivale – basses latitudes D) Annuelle – latitudes moyennes (air sec) avec ozone
B) Annuelle – latitudes moyennes E) Annuelle – latitudes moyennes: azote seulement
C) Hivernale – hautes latitudes F) Annuelle – latitudes moyennes: oxygène seulement
106
W W
W
104 W
W
W W
W
W W
Opacité zénithale (dB)
O W W A)
W W W
O B)
102
C)
D)
W
100
O
O O
O O
O F)
E)
10–2
O: résonance de l'oxygène
W: résonance de la vapeur d'eau
(2) 100 200 300 400 500 600 700 800 900 1 000
Fréquence (GHz)
2π hc 2 1 2πν 3 h
B (λ , T ) = hc
ou B (ν , T ) = hν
(2.7)
λ 5
c 2
e λ kT −1 e kT −1
où:
h = 6,6256⋅10 -34 J s (constante de Planck);
c = 2,99793⋅10 8 m s-1 (vitesse de la lumière dans le vide);
k = 1,38044⋅10 -23 J K-1 (constante de Boltzmann).
B(λ,T) (ou B(ν,T)) est la puissance radiative par unité de surface dans la totalité de l'hémisphère
et par unité de longueur d'onde (ou de fréquence). B/π désigne la puissance radiative par unité
d'angle solide. Le graphique de la figure 2.14 illustre la fonction de Planck pour les températures
de 6 000 K et de 273,16 K, représentatives respectivement de la surface du Soleil et de la Terre.
Tableau 2.9. Utilisation du spectre par les instruments de télédétection active (radars et
lidars) et par l'occultation radio
Topographie
Altimètre Bande C (~5,3 GHz) + bande Ku (~13,6 GHz)
des océans
Radar Radar de
Nuages et détection des Bande Ku (~13,6 GHz) et/ou bande K a (~35,5 GHz) ou
précipitations pluies ou des bande W (~94 GHz)
nuages
Turbulence en
Lidar Doppler Lidar UV (355 nm)
air clair
Aérosols,
Lidar à
sommet des Lidar UV (355 nm), lidar VNIR (532 + 1 064 nm)
Lidar rétrodiffusion
nuages
Topographie
de la nappe Altimètre Lidar VNIR (532 + 1 064 nm)
glaciaire
Occultation Réfraction GNSS + récepteur Bande L: ~1 580 + ~1 250 + ~1 180 GHz (GPS,
radio atmosphérique en orbite basse GLONASS et Galileo)
Les deux courbes de la figure 2.14 montrent que les valeurs de la puissance radiative à la surface
du Soleil et de la Terre sont très différentes. Toutefois, en appliquant en guise de facteur de
réduction d'échelle de la courbe correspondant au Soleil le carré de la distance Terre – Soleil, on
obtient des surfaces intégrées comparables, ce qui reflète le bilan radiatif de la Terre. La mise à
l'échelle de la courbe supérieure du graphique permet de constater que le rayonnement solaire
X
10
8 V
UV
B (λ,T) (10 X W m–2 sr –1 cm–1)
à la surface de la Terre est très faible pour λ > 4 µm, tandis que le rayonnement terrestre est
négligeable pour λ < 3 µm. Le rayonnement solaire et le rayonnement terrestre présentent tous
deux une intensité non négligeable dans l'intervalle étroit entre 3 et 4 µm.
Une différence importante observée entre les deux courbes de la figure 2.14, après mise à
l'échelle, est la longueur d'onde λmax où l'émission atteint sa valeur maximale. Cette valeur est
donnée par:
b
λmax = où b = 0, 0028981 m K Loi de Wien (2.9)
T
L'échelle bilogarithmique de la figure 2.14 a pour effet de masquer le degré d'accentuation de la
pente de la courbe de la fonction de Planck près de la valeur λmax. Dans le cas du rayonnement
solaire (T = 6 000 K), le pic d'émission survient aux alentours de λmax = 0,5 µm, et la puissance
est émise principalement dans la gamme de 0,2 à 3,0 µm. Dans le cas du rayonnement terrestre
(T = 273,16 K, c'est-à-dire T = 0 °C) le pic survient aux alentours de λmax = 10 µm, et la puissance
est émise dans la gamme de 3 à 50 µm.
2π k ν 2
B(ν , T ) = T Loi de Rayleigh-Jeans (2.10)
c2
En raison de ce rapport, les mesures du rayonnement dans la gamme MW peuvent être
assimilées à des mesures de la température et peuvent être exprimées sous la forme de
température de brillance (T B), en unités de température. Bien que la puissance radiative totale
varie avec la température proportionnellement à T 4 conformément à la loi de Stefan-Boltzmann
(équation 2.8), elle varie d'une manière linéaire dans le domaine MW du spectre. Inversement, à
mesure qu'on se déplace vers les longueurs d'onde plus courtes, on observe une augmentation
de l'influence de la température sur la fonction de Planck. Le rayonnement terrestre varie
approximativement avec T 5 dans la principale fenêtre TIR, aux environs de 11 µm et avec T 12 aux
environs de 3,7 µm. Cette caractéristique présente un intérêt pour la télédétection puisqu'elle
signifie que la sensibilité aux hautes températures est plus élevée à 3,7 µm. À l'inverse, ces
longueurs d'onde plus courtes sont moins sensibles aux basses températures.
Par exemple:
a) Pour un corps à 220 K (par exemple, sommet des nuages dans la haute troposphère),
le rayonnement à 11 µm est environ 1 200 fois plus puissant qu'à 3,7 µm, mais à 300 K
(surface), il n'est qu'environ 130 fois plus puissant;
b) La sensibilité aux variations de température (c'est-à-dire (∂B/∂T)/B) est trois fois plus élevée
à 3,7 µm qu'à 11 µm.
En conséquence, la valeur 3,7 µm convient bien aux observations en surface; elle est optimale
pour la détection des incendies, mais moins utile pour l'observation des nuages de l'étage
supérieur.
Les rapports illustrés par les équations 2.7 à 2.10 ne sont valides que pour un corps noir (ε = 1).
Pour un corps ordinaire, on peut établir la relation à l'aide de l'expérience conceptuelle ci-après.
Si un certain nombre de corps placés dans un système isolé n'échangent des rayonnements
qu'entre eux, on peut supposer qu'au bout d'un court moment, chacun d'eux atteindra un
équilibre thermodynamique en vertu duquel le rayonnement absorbé compte tenu de son
coefficient d'absorption ε(λ,T) sera égal au rayonnement émis P(λ,T). Ainsi, P(λ,T)/ε(λ,T) est une
constante. Si on suppose qu'un de ces corps est un corps noir parfait, on obtient:
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 953
Ainsi, le coefficient d'absorption introduit dans l'équation 2.5 contrôle également les propriétés
d'émission du corps, d'où le terme d'émissivité. De l'équation 2.11 découlent deux conséquences
importantes:
b) Un corps ne peut émettre de rayonnements qu'aux longueurs d'onde qu'il est capable
d'absorber.
L'émissivité ε est fonction de la longueur d'onde et, dans une moindre mesure, de la
température. Pour certains corps, elle peut être constante sur de larges portions du spectre.
Lorsqu'elle est constante sur l'ensemble du spectre, le corps est qualifié de «gris». La forme de
la puissance rayonnée P(λ,T) correspond donc exactement à B(λ,T), même si elle est atténuée
par un facteur ε. La loi de Wien (équation 2.9) s'applique intégralement, et la loi de Stefan-
Boltzmann devient W(T) = ε · σ · T 4.
Le principe de Kirchhoff s'applique également aux matières gazeuses. En conséquence, les raies
spectrales des gaz atmosphériques sont généralement (mais pas toujours) pertinentes à la fois
pour l'absorption et pour l'émission.
Les fenêtres atmosphériques sont des régions spectrales où l'atmosphère est presque
transparente. Aucune région de l'atmosphère n'est entièrement transparente. Dans toutes les
régions, il existe un certain degré de perturbation résiduelle causée par des espèces qui forment
un continuum, la plus commune étant la vapeur d'eau dans les domaines IR et MW et, dans une
certaine mesure, dans le domaine SW. Un autre facteur, en particulier dans le domaine SW, est
la diffusion provoquée par les molécules d'air sec (principalement N2 et O2) et les aérosols. Les
fenêtres les plus transparentes sont les suivantes:
c) Dans le domaine MW (figure 2.13): 80-100 GHz, 25-50 GHz et < 20 GHz.
Pour simplifier l'analyse, nous supposons un angle de vue vertical à partir du satellite
(figure 2.15), des surfaces planes et un rayonnement vers le zénith (éclairement énergétique).
Une des composantes, τ(λ,T) · Iτ(λ), est le rayonnement transmis à travers le corps. On la
remarque lorsque ce dernier n'est pas entièrement opaque et qu’une source de rayonnement se
trouve en dessous, dans l'hémisphère opposé par rapport au satellite.
La composante ε(λ,T) · B(λ,T) est le rayonnement émis défini par le principe de Kirchhoff
(équation 2.11). Elle est toujours présente sauf si le corps se trouve au zéro thermique absolu. Elle
n'est pas présente dans les domaines du spectre où le corps n'absorbe pas.
La composante ρ(λ,T) · Iρ(λ,θ) est le rayonnement réfléchi. Elle est présente lorsqu’il existe
une source de rayonnement dans l'hémisphère où se trouve le satellite. La figure 2.15 indique
le Soleil, mais dans le domaine MW, où le rayonnement solaire est pratiquement nul, la voûte
954 PARTIE III. OBSERVATIONS SPATIALES
τ ( λ, T ) · I (λ) Ɛ ( λ, T ) · B ( λ, T ) ρ ( λ, T ) · I (λ)
τ ρ
I (λ, ϴ)
ρ
I (λ)
τ
Compte tenu de toutes ces composantes, le rayonnement capté par l'instrument du satellite peut
être exprimé sous la forme:
I ( λ , T ) = τ ( λ , T ) ⋅ Iτ ( λ ) + ε ( λ , T ) ⋅ B ( λ , T ) + ρ ( λ , T ) ⋅ I ρ ( λ , θ ) (2.12)
2.2.3.2 Mesures dans les bandes visibles, proche infrarouges et infrarouges à ondes
courtes
Comme le spectre solaire et la géométrie des observations sont connus, les informations
fournies par une mesure dans un canal SW sont exclusivement liées à la réflectivité de la surface.
On peut estimer plusieurs variables géophysiques (paramètres de la végétation, couleur
de l'océan, texture de la surface terrestre) en mesurant la réflectivité à diverses longueurs
d'onde. Cependant, les nuages sont les objets les plus évidents observés dans le domaine
SW. L'équation 2.13 n'est pas strictement correcte pour une surface nuageuse puisque le
rayonnement en provenance de la surface sous-jacente peut la traverser. Cependant, cet effet a
une incidence limité étant donné:
c) La source de rayonnement d'origine (le Soleil), plus puissante que toute surface située sous
les nuages;
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 955
d) La faible réflectivité de la surface sous-jacente (sauf dans le cas du sable d'un désert, de la
neige ou de la glace);
e) La réflectivité des nuages ρ, généralement plus élevée que celle de toute autre surface
terrestre.
En conséquence, l'équation 2.13 constitue une approximation applicable à la plupart des nuages,
exception faite des nuages minces comme les cirrus, en particulier sur un fond lumineux comme
le sable d'un désert, la glace ou la neige.
L'utilisation du rayonnement SW réfléchi à des fins quantitatives n'est pas aisée, puisque la
réflectivité est généralement anisotrope. Le cas le plus simple s'observe lorsque le corps, peu
importe la direction du rayonnement incident et l’angle d'azimut, redistribue le rayonnement
réfléchi conformément à la loi du cosinus à partir du zénith et d'une manière homogène. C'est
ce qu'on appelle la réflexion lambertienne. Heureusement, la plupart des surfaces terrestres
observées depuis l'espace à une échelle relativement grande paraissent plutôt planes et
rugueuses, de sorte que la diffusion lambertienne peut être considérée comme une bonne
approximation. Dans beaucoup de cas, cependant, le corps présente une fonction de distribution
de la réflectance bidirectionnelle qui devrait être mesurée a priori par des observations effectuées
depuis diverses directions de visée et pour diverses directions du rayonnement incident. Le calcul
final de l'éclairement énergétique vers l'espace nécessite une intégration hémisphérique.
Le recours aux ondes courtes pour l'observation de la Terre à travers les fenêtres atmosphériques
requiert un échantillonnage à diverses longueurs d'ondes (canaux) puisqu'à n'importe quelle
longueur d'onde, des corps différents peuvent afficher des signatures qui leur sont propres, et
qu'un corps particulier peut afficher des signatures différentes à plusieurs longueurs d'onde. Il
convient donc de recourir à des instruments de mesure multicanaux pour faire les distinctions
requises et mesurer simultanément les propriétés différentes de corps différents. Par exemple, les
nuages et la neige présentent la même valeur de réflectance dans le domaine VIS à 0,65 µm, mais
des valeurs très différentes à 1,6 µm. De plus, les largeurs de bande utilisées doivent être propices
à l'objectif poursuivi. Les conditions les plus contraignantes sont celles de la mesure de la couleur
de l'océan (Δλ ≈ 10 nm) et de la végétation (Δλ ≈ 20 nm), tandis que pour les autres types de
surfaces et pour les nuages, des largeurs de bande de plusieurs dizaines de nanomètres suffiront.
2.2.3.3 Mesures dans les bandes infrarouges à ondes moyennes et infrarouges thermiques
Dans la gamme de 4 à 15 µm, le rayonnement solaire est quasiment nul. Sur la surface terrestre
(terres émergées et océans), le rayonnement transmis est aussi nul. Par ailleurs, compte tenu du
fait que l'émissivité est pratiquement indépendante de la température du corps, l'équation 2.12
se réduit à:
I IR ( λ , T ) = ε ( λ ) ⋅ B ( λ , T ) (2.14)
L'équation 2.14 est aussi approximativement valide pour les nuages puisque la transmissivité des
nuages en IR est plutôt faible (exception faite des cirrus minces).
La plupart des surfaces terrestres, et certainement les océans, présentent une émissivité proche
de 1 avec une petite variance. En conséquence, les informations recueillies à l'aide d'une mesure
dans un canal IR sont étroitement liées à la fonction de Planck (équation 2.7), ou, pour une
longueur d'onde donnée, à la température du corps.
956 PARTIE III. OBSERVATIONS SPATIALES
À une longueur d'onde précise λ ou pour un étroit canal Δλ autour de λ, la fonction de Planck
(équation 2.7) peut être facilement inversée pour fournir la température T:
hc
T (λ ) = (2.15)
2π hc 2
λ k ln 1 + 5
λ B(λ )
Cependant, T ne représentera pas la température véritable du corps à moins que ε = 1. Si
l'émissivité du corps est connue, et que la largeur de bande Δλ est assez étroite pour permettre
de considérer ε comme une constante, une correction de l'émissivité peut être appliquée à
la quantité mesurée (par inversion de B(λ,T) = IIR(λ,T)/ε(λ)) et la température du corps peut
être mesurée. Sinon, l'inversion de la quantité mesurée B(λ,T) = IIR(λ,T) permet d'obtenir une
température T BB (température équivalente du corps noir), inférieure à la température réelle du
corps.
À cause de ces effets, l'équation 2.15 trahit une influence de la longueur d'onde sur la
température mesurée (laquelle ne devrait pas exister puisqu'il n'y a qu'une température
possible). L'étendue des valeurs en fonction de la longueur d'onde laisse deviner comment
certains éléments pourraient être expliqués. Par exemple, en comparant les valeurs de T BB
mesurées à 3,7 µm et à 11 µm, il est possible d'expliquer la différence observée d'émissivité, ou le
degré différent de contamination des mesures due aux nuages.
Il est important de noter que la fenêtre de 3,7 µm se comporte très différemment le jour et la
nuit. Le jour, elle est fortement contaminée par le rayonnement solaire réfléchi qu'il faut donc
soustraire avant d'utiliser le canal pour les estimations quantitatives des émissions thermiques.
Il convient aussi de rappeler que la fenêtre de 3,7 µm est beaucoup plus sensible que celle de
11 µm aux hautes températures, et qu'elle n'est toutefois que de peu d'utilité pour les basses
températures qui règnent par exemple au sommet des nuages dans la haute troposphère. Les
différences de température observées entre les fenêtres de 3,7µm et de 11 µm peuvent aussi
servir à détecter le brouillard pendant la nuit.
En ce qui a trait aux nuages, l'équation 2.14 est toujours approximativement valide, mais
l'émissivité est très inférieure à l'unité, sauf en cas de couverture nuageuse très épaisse (cumulus,
nimbus-stratus). La température équivalente du corps noir sous-estime sensiblement la
température réelle, et un facteur de correction doit être appliqué pour tenir compte de la faible
émissivité. La méthode habituelle consiste à coupler le canal fenêtre à un canal très sensible à
la vapeur d'eau. La différence entre les deux valeurs de T BB obtenues fournira une indication de
l'émissivité des nuages (plus la différence sera grande, plus l'émissivité sera faible).
La pénétration du rayonnement infrarouge dans les nuages est très faible. La température
mesurée est celle du sommet des nuages, et les informations portant sur l'intérieur des nuages
sont de piètre qualité, en particulier lorsque la densité de ceux-ci est élevée. Toutefois, la
température du sommet des nuages, qui est en équilibre avec celle de l'air à la même altitude,
revêt une grande importance puisqu'elle indique l'altitude du nuage dans la troposphère et, du
même coup, le type de nuages.
Les informations sur le sommet des nuages dérivées de la température des corps noirs sont
souvent inexactes. Lorsque le nuage est mince (par exemple, un cirrus mince), la surface de
fond est beaucoup plus chaude que l'air au niveau du nuage. Par conséquent, le rayonnement
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 957
Clair V
i Stratocumulus Cirrus
s
i
b Terrain aride Stratus
l
e Neige
Terrain cultivé
Cirrostratus
Cumulus
Océan
Infrarouge
Terrain boisé
Obscur
Chaud Froid
en surface transmis à travers le nuage s'ajoute au rayonnement émis par ce dernier, qui paraît
donc plus chaud, et la température attribuée est sous-estimée. Inversement, les cirrus épais à
émissivité élevée paraissent très froids et peuvent être confondus avec des cumulonimbus.
Pour résoudre ces ambiguïtés, il est utile d'établir un histogramme bidimensionnel de la brillance
VIS par rapport à la température IR (figure 2.16). Si on n'utilisait qu'une seule bande (projection
de la configuration 2D sur un axe), plusieurs agrégats passeraient inaperçus. En revanche,
l'analyse multibande permet de distinguer dans cet exemple dix objets différents. Il s'agit d'un
exemple simple avec seulement deux canaux — VIS et IR — d'un instrument ancien (radiomètre
à très haute résolution (VHRR)). Les techniques d'analyses multibandes actuelles permettent
d’utiliser un nombre beaucoup plus grand de canaux.
Dans la gamme MW, le rayonnement solaire est quasiment nul, mais la voûte céleste fait office
de source diffuse de rayonnement incident. En ce qui concerne la surface terrestre, y compris
les terres émergées et les océans, la luminance transmise est nulle. On n'observe que deux
contributions — l'émission thermique et le rayonnement réfléchi — contrôlées par les coefficients
d'émissivité et de réflectivité qui, étant donné que τ = 0, sont liés par la condition ε + ρ = 1
(c'est-à-dire ρ = 1 – ε). En exprimant la puissance du rayonnement en unités de température
conformément à la loi de Rayleigh-Jeans (équation 2.10), on obtient la température de brillance
T B:
958 PARTIE III. OBSERVATIONS SPATIALES
L'impact de Tsky(ν) dépend fortement de l'émissivité ε, laquelle varie sensiblement entre les
océans et les terres émergées.
L'émissivité de la surface océanique dans le domaine MW est très faible: ε ≈ 0,5, et les deux
composantes de l'équation 2.16 ont donc le même poids. En l'absence de nuages précipitants,
la valeur de Tsky est faible et connue, et la mesure peut donc être associée à la température de
la surface de la mer. La fréquence optimale pour cette température se situe aux environs de
5 GHz (voir la figure 2.17), où Tsky est beaucoup plus faible qu'à 40 GHz. La mesure est assez
précise et applicable à toutes les conditions du temps puisque la longueur d'onde (λ = 6 cm)
est beaucoup plus longue que n'importe quelle gouttelette de pluie. L'intensité du signal de
la surface de la mer, à 5 GHz, est représentative de la température d'une couche d'eau de
quelques millimètres de profondeur (sous-pelliculaire), comparativement à quelques dizaines de
micromètres dans le cas de l'infrarouge (température pelliculaire). Aux fréquences plus élevées,
Tsky augmente fortement, en particulier en présence de fortes précipitations. Avec la valeur élevée
de la réflectivité (1 – ε), l'observation devient principalement une mesure de l'intensité des
précipitations.
À terre, l'émissivité est voisine de un; la deuxième composante de l'équation 2.16 est donc
inefficace, et les précipitations sont mal détectées. À des fréquences plus élevées, (~90 GHz
(λ = 3 mm)), le rayonnement ascendant de la surface est diffusé par les grosses gouttelettes, et
plus encore par les cristaux de glace, dans les nuages, et le rayonnement atteignant le satellite
s'en trouve donc diminué.
L'observation sous diverses polarisations peut aussi être utile peu importe l'objectif des mesures
des précipitations. La polarisation différentielle est sensible à la rugosité de la surface, un effet
dont il convient de tenir compte dans les mesures de la température de surface de la mer et qui
peut servir à déduire la vitesse du vent sur l'océan, comme indiqué à la figure 2.17.
Nuages liquides
+
Δ TB Vapeur d'eau
0
Δ Pi 10 20 30 40
Fréquence (GHz)
– Température de
la surface de la mer
Figure 2.17. Sensibilité (∆TB/∆Pi) des hyperfréquences à diverses variables géophysiques (P)
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 959
La figure 2.17 montre également que le rayonnement hyperfréquences est sensible à la salinité
de l'océan, mais uniquement aux fréquences très basses oscillant d'ordinaire aux environs de
1,4 GHz (bande L). Elle indique également que pour mesurer la salinité de l'eau, il est nécessaire
de prendre en compte la température de surface et la vitesse du vent (ou la rugosité). De même
que pour la salinité, il existe une bande d'absorption par la vapeur d'eau qui contamine les
mesures de la température, du vent et des nuages liquides (précipitations), mais qui peut par
ailleurs être utilisée pour déduire la colonne totale de vapeur d'eau (eau précipitable) au-dessus
de la mer. Pour résumer, dans le domaine des hyperfréquences comme dans le champ optique,
des variables différentes peuvent avoir des signatures différentes dans divers canaux, et il
convient donc de recourir à l'analyse multicanal.
Étant donné les valeurs totalement différentes de l'émissivité sur les océans et sur les terres
émergées, la caractéristique la plus évidente d'une image hyperfréquences est la limite
terre-mer. Comme l'émissivité de la glace est proche de l'unité, la glace de mer devient
également un phénomène observable dans toutes les conditions météorologiques. Les
images hyperfréquences sont particulièrement utiles dans les régions géographiques souvent
ennuagées. Dans les cas où l'émissivité est proche de l'unité sur les terres émergées, une baisse
de cette émissivité trahit la présence d'eau à la surface. Cela s'explique par le fait que l'émissivité
d'un corps dépend de sa constante diélectrique: l'eau sur les terres émergées est une solution
saline, dont la conductivité est accrue et dont l'émissivité est donc réduite. Cet effet peut être
exploité pour mesurer l'humidité du sol et les propriétés de la neige à la surface.
Les mesures de l'humidité du sol peuvent s'avérer assez précises sur les sols nus, mais cette
précision peut diminuer à mesure que la densité de la végétation augmente. Pour pénétrer le
couvert végétal et mesurer l'humidité du sol dans la rhizosphère, il faut recourir à de très basses
fréquences, dans la bande L ou la bande P. Aux fréquences plus élevées (supérieures à 10 GHz), la
sensibilité à l'humidité du sol n'est significative que si l'interférence du couvert végétal est prise
en compte.
Km
Km 48
43
32
39
27 36
32
7
23
27
20 6
7 6
5 23
16 20
4
16 5
13 3
2 4
13
7 3
1 7 2
4
4 1
0 0
0 0,2 0,4 0,6 0,8 1
(λ, Z ) κ ( λ, Z )
La figure 2.18 montre que la transmittance (équation 2.17) tend vers 1 avec l'augmentation de
la hauteur z (c'est-à-dire avec la diminution de l'épaisseur de la couche atmosphérique entre
la hauteur z et l'altitude du satellite H). Ce phénomène s’accompagne d’une diminution de
l'émissivité ε et de la concentration N du gaz absorbant. La fonction de pondération présente
des valeurs maximales correspondant au point d'inflexion de la fonction de transmittance.
Plus simplement dit, l'équation 2.20 signifie que chaque couche atmosphérique d'épaisseur dz
contribue au rayonnement atteignant le satellite en fonction de sa température (en vertu de la
fonction de Planck) et de son efficacité quantifiée par la fonction de pondération. La fonction de
pondération dépend de la concentration du gaz absorbant et de la force d'absorption/émission
(ε). La forme de l'équation indique que les couches de la basse atmosphère sont pénalisées
à cause de l'absorption par les couches supérieures, et que les couches supérieures sont
pénalisées à cause de leur faible teneur en gaz absorbant. La couche atmosphérique qui affiche le
changement de transmittance le plus marqué est habituellement celle dont la contribution est la
plus élevée.
L'inversion de l'équation 2.20 n'est pas chose simple. Il s'agit d'une équation de Fredholm
de seconde espèce pour laquelle l'existence ou l'unicité de la solution ne sont pas
mathématiquement garanties. Dans le cas qui nous occupe, l'existence d'une solution est
concédée par nature. Pour assurer l'unicité de la solution, il est nécessaire d'y ajouter des
contraintes puisque le problème est mal conditionné. Plusieurs méthodes ont été élaborées
depuis le début du sondage de profils depuis l'espace. Certaines sont statistiques et linéaires,
d'autres sont physiques et non linéaires, et d'autres enfin combinent les deux approches.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 961
L'objectif principal consiste à inverser l'équation 2.20 pour récupérer le profil de la température
atmosphérique. Cela n'est possible que si la fonction de transmittance est connue à l'avance, ce
qui nécessite de travailler dans les bandes d'absorption d'un gaz dont le profil de concentration
est connu et stable. Dans le domaine IR, tel est le cas pour le CO2 dans les bandes aux environs de
4,3 et 15 μm (voir la figure 2.12). Comme mentionné ci-dessus, la bande 4,3 μm est plus sensible
aux hautes températures, et donc représentative de la basse troposphère. Cependant, elle risque
d'être contaminée par le rayonnement d'autres espèces, et, en période diurne, l'extrémité de la
courbe du corps noir solaire (> 4 μm) ne saurait être négligée. La bande 15 μm est spectralement
plus pure, mais elle est plus ou moins contaminée par le continuum de la vapeur d'eau, ce
qui exige de corriger les valeurs de transmittance soit a priori en recourant à des informations
externes, soit a posteriori, par itération après récupération du profil de la vapeur d'eau.
L'étape suivante consiste à récupérer le profil de la vapeur d'eau. Une fois récupéré le profil de la
température au moyen des canaux de la bande d'absorption du CO2, d'autres canaux sont utilisés
dans les bandes d'absorption de l'eau, dont la principale est centrée aux alentours de 6,3 μm
et réagit bien aux hautes températures (c'est-à-dire dans les basse et moyenne troposphères).
Pour les besoins de la surveillance du climat, il est important de mesurer la vapeur d'eau dans la
haute troposphère, mais il faut pour cela utiliser une bande de 18 μm, opération difficile au plan
technologique en raison du manque de détecteurs efficaces dans le domaine FIR.
Il n’est pas facile de récupérer un profil de la vapeur d'eau ou, plus généralement, le profil de
concentration d'un gaz absorbant. Les fonctions de pondération des gaz absorbants culminent à
différentes altitudes dans l'atmosphère selon la concentration et la fréquence des sondages. De
plus, la récupération est intrinsèquement inexacte étant donné que la fonction de transmittance
à inverser (équation 2.17) définit la concentration dans une couche mince à l'altitude z comme
la différence entre les concentrations dans deux couches très épaisses: H à z et H à (z – Δz). En
d’autres termes cela revient à calculer un petit nombre comme la différence entre deux grands
nombres.
La présence de nuages vient ajouter aux difficultés. Si le champ de vision instantané (IFOV) est
entièrement occupé par un nuage aux caractéristiques uniformes, le profil pourra toujours être
récupéré par la même méthode, mais sera toutefois limité à l'atmosphère au-dessus du nuage.
Si l'IFOV n'est rempli que partiellement par une fraction η avec un nuage d'émissivité εcloud,
l'équation du transfert deviendra:
I (λ ) = (1 − ε cloud ⋅η ) I clear (λ ) + ε cloud ⋅η ·I cloud (λ ) (2.21)
où εcloud · η représente la couverture effective.
Plusieurs méthodes peuvent servir à gérer les effets des nuages. L'une d'elles consiste à démarrer
la récupération en utilisant des canaux dont les fonctions de pondération culminent au-dessus
du sommet des nuages afin d'établir une première approximation, et de procéder ensuite
par itérations en modifiant les valeurs de la couverture effective jusqu'à obtenir la meilleure
correspondance des mesures dans tous les autres canaux. Une autre méthode consiste à
comparer un certain nombre d'IFOV voisins en supposant que les signaux ne diffèrent qu'en
raison d'une différence de la proportion de nébulosité η, pour ensuite extrapoler à η = 0.
Il est en tout cas admis que lorsque la nébulosité dans l'IFOV dépasse environ 20 %, il faudrait
renoncer à récupérer les profils en IR. L'IFOV des instruments de sondage, qui s'étendait autrefois
sur plusieurs dizaines de kilomètres, est heureusement aujourd'hui de l'ordre de 10 km, ce qui
augmente considérablement les chances de trouver un nombre important d'IFOV exempts de
nuages.
Le problème des nuages est très largement réduit dans la gamme des hyperfréquences, où les
sondages sont réalisables dans toutes les conditions atmosphériques sauf en cas de fortes pluies.
L'espèce de concentration constante et bien connue utilisée pour la récupération du profil de
la température est l'oxygène, O2, avec des bandes d'absorption situées dans la gamme de 50
à 70 GHz et aux alentours de 118 GHz (utilisation non encore effectuée par les satellites). Pour
la vapeur d'eau, la bande 183 GHz peut être utilisée efficacement. La bande 22 GHz donne un
signal faible qui peut fournir une valeur de la colonne totale intégrée au-dessus de l'océan. Il
962 PARTIE III. OBSERVATIONS SPATIALES
existe d'autres bandes d'absorption pour la température et la vapeur d'eau aux fréquences
plus élevées, mais l'effet radiatif du continuum de la vapeur d'eau empêche l'observation de la
troposphère à l'aide de ces bandes spectrales.
Pourquoi n'utilise-t-on pas exclusivement les hyperfréquences MW aux fins des sondages
radiométriques de la température et de l’humidité puisqu'elles fonctionnent dans presque
toutes les conditions météorologiques? La raison en est que la résolution verticale exige une
haute sensibilité aux variations de la température (avec la hauteur). Elle est maximale dans
la bande 4,3 μm, où la fonction de Planck varie approximativement en fonction de T 12. La
sensibilité est moindre dans la bande 15 μm puisque la fonction de Planck varie en fonction
de T 5. Dans la gamme MW, comme B est une fonction linéaire de T (voir l'équation 2.10),
la sensibilité (∂B/∂T)/B varie en fonction de T –1 (elle diminue à mesure que la température
augmente). Les diverses bandes présentent une caractéristique intéressante: alors que la
bande 4,3 μm convient pour la basse troposphère et que la bande 15 μm convient pour les
moyenne et haute troposphères, la bande MW à 57 GHz convient mieux pour la stratosphère.
En ce qui concerne l'utilisation des hyperfréquences, les instruments actuels ont déjà atteint
leur pouvoir de résolution verticale maximal, lequel ne peut être supérieur à ~1,5 km dans la
troposphère moyenne et sera même moins bon dans la basse troposphère à cause de la forte
contamination due au sol.
Dans la gamme des ondes courtes (UV, VIS, NIR, SWIR), les mesures dans les bandes
d'absorption sont principalement utilisées aux fins des analyses de la chimie de l'atmosphère
par les méthodes spectroscopiques. L'équation du transfert radiatif est plus complexe que
l'équation 2.20. Le rayonnement thermique décrit par la loi de Planck est remplacé par la
diffusion, un processus plus complexe. La récupération des variables géophysiques dépend de
la modélisation plutôt que d'équations explicites. En plus de servir à la chimie de l'atmosphère,
l'analyse des bandes d'absorption peut servir à d'autres fins (se référer au spectre de la
figure 2.11):
b) La mesure de la hauteur du sommet des nuages: elle est dérivée d’un déficit de la colonne
totale d'oxygène découlant du masquage par les nuages de la portion inférieure de la
colonne. Cette méthode est en principe plus exacte que celle du calcul de la hauteur du
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 963
Plate-forme
Ligne de mire
1
..
.
15
16
17
Couches
atmosphériques
Terre
c) La mesure des éclairs: on utilise un canal à bande très étroite à 0,774 μm, où la forte
absorption par l'oxygène obscurcit la surface de la Terre et permet la détection des éclairs
même pendant le jour. L'intensité et le nombre d'éclairs au cours d'une période donnée
et sur une superficie donnée sont représentatifs de la convection, et constituent donc un
indicateur indirect des précipitations. De plus, l'activité des éclairs produit du NOx dans
l'atmosphère et reflète donc le champ électrique terrestre;
d) La mesure de la colonne totale de vapeur d'eau: on compare le signal dans une ou plusieurs
des bandes de la vapeur d'eau (aux environs de 0,94 μm ou de 1,37 μm) avec un signal
d'une fenêtre voisine. Cette méthode peut être plus précise que le profilage IR ou MW.
En balayage transversal, la résolution verticale est déterminée par la définition des fonctions de
pondération, laquelle dépend de la résolution spectrale. En mode limbe, la résolution verticale
est déterminée par balayage mécanique, c'est-à-dire par l'IFOV de l'instrument à travers les
couches atmosphériques en vue transversale, dans la région du limbe (figure 2.19). La résolution
verticale dépend du taux de variation d'échelon, lequel est réglé en fonction de l'ouverture de
l'instrument et de l'intensité du rayonnement disponible. Elle est généralement de 1 à 3 km. La
résolution horizontale est relativement imprécise puisque la mesure est intégrée sur un large
chemin optique, comme indiqué à la figure 2.19. Le chemin optique total peut atteindre des
milliers de kilomètres, mais le chemin effectif, après pondération pour tenir compte de la densité
atmosphérique, s'étend à quelque 300‑500 km autour du point de tangence.
Dans la gamme des ondes courtes (UV, VIS, NIR, SWIR), l'atmosphère peut être balayée en
visant directement le Soleil à son coucher ou à son lever (occultation). Il s'agit de mesurer
l'amortissement des raies du spectre solaire. La méthode de l'occultation présente l'énorme
avantage d’éviter tout déplacement mécanique du télescope de l'instrument et tout étalonnage
puisque les spectres mesurés pendant l'occultation sont comparés au spectre solaire mesuré
peu avant (ou après) l'occultation dans les mêmes conditions. Cependant, un inconvénient de la
méthode est que, au moins dans le cas des satellites à défilement, la couverture est limitée aux
hautes latitudes lorsque un satellite est exposé au lever (ou au coucher) du Soleil au moment
d'entrer dans l'arc nocturne de son orbite (ou d'en sortir). On peut obtenir une couverture plus
large en recourant à l'occultation de la Lune et il est possible de couvrir l'ensemble des latitudes
en recourant à l'occultation des étoiles. Dans ces cas cependant, le rayonnement disponible est
réduit.
Les méthodes de télédétection décrites ci-dessus supposent que les sources à détecter sont le
rayonnement solaire réfléchi et le rayonnement thermique émis par la Terre (auxquels s'ajoutent
d'autres sources de moindre importance comme le rayonnement diffus du ciel en MW, et la
Lune ou les étoiles en occultation). Ces sources naturelles permettent une télédétection passive
aux fins de laquelle les longueurs d'onde d'observation sont largement déterminées par les
cibles naturelles. En télédétection active, la source est artificielle et la longueur d'onde utilisée
ne dépend pas exclusivement des propriétés physiques de la cible; elle peut être choisie en
tenant compte de la production du signal et des contraintes de propagation. Les principes de la
télédétection active qui suivent seront examinés:
L'occultation radio compte parmi les techniques de sondage au limbe. Son approche est
totalement différente des techniques de radiométrie passive. Une source artificielle (dans le cas
présent, un signal émis par un système de navigation par satellite: GPS, GLONASS, Galileo ou
Compass) est suivie par un récepteur installé sur un satellite sur orbite basse (figure 2.20).
Le déplacement de phase est en fin de compte une mesure du temps, l'une des mesures les plus
précises de la physique. L'autre mesure est celle de la distance qui sépare les satellites. Comme le
temps et la distance sont des quantités métriques fondamentales, l'occultation radio fournit des
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 965
mesures absolues (ne nécessitant pas d'étalonnage), ce qui la rend très utile pour la surveillance
du climat. En fait, les observations à long terme de l'occultation radio sont considérées comme
des points de référence parmi les méthodes de détection des changements climatiques.
Les données d'occultation radio sont difficiles à traiter pour deux raisons: d'abord à cause du
déplacement du point de tangence (voir l’image de droite de la figure 2.20) pendant la mesure
du profil, et ensuite à cause du fait que la pression, la température et l'humidité ne sont pas
mesurées indépendamment. Il est donc nécessaire de recourir à l'assimilation 4D dans un
modèle de prévision numérique du temps. La difficulté est moindre en ce qui a trait aux mesures
de la température dans la haute troposphère et la stratosphère, où la teneur en vapeur d'eau est
très faible, et dans la basse troposphère, où la vapeur d'eau est responsable de la plus grande
partie de la variance.
La résolution verticale des profils d'occultation radio dans la haute troposphère et la stratosphère
(0,5 à 1,0 km environ) ne peut être égalée par les mesures IR ou MW en balayage transversal
(1,5 à 2 km). De plus, les fréquences utilisées (bande L, voir le tableau 2.9) sont insensibles aux
nuages, même précipitants. Par conséquent, les mesures, bien qu'elles soient essentiellement
effectuées en mode limbe, peuvent donc être étendues jusqu'à la surface terrestre, par
exemple pour observer les discontinuités atmosphériques telles que le sommet de la couche
limite planétaire. Enfin, grâce à la corrélation entre la hauteur de la tropopause et la pression
atmosphérique au sol, l'occultation radio est une des rares méthodes permettant de déduire la
pression en surface.
Afin de prendre en compte la rotation du signal induite par l'ionosphère, les transmissions à
partir des satellites de navigation utilisent au moins deux fréquences proches. Le processus de
correction fournit donc par ricochet des informations utiles en météorologie de l'espace telles
que le contenu total d'électrons et le profil de densité des électrons.
2.2.5.2 Radar
Le radar (détection et localisation par ondes radio) transmet des signaux pulsés à l'objet à
observer, et récupère le signal rétrodiffusé. Il mesure essentiellement la distance (ou portée) et
la puissance rétrodiffusée du fait de la réflectivité radar ou de la surface équivalente radar de
l'objet.
LEO
𝛼
GPS
a r
a LEO
Terre
600–1 000 km
a = un paramètre d’impact
r = distance du centre de la courbure au point de tangence
Figure 2.20. Principe de la télédétection par occultation radio. Au moment où le satellite GPS
émetteur semble descendre sous l'horizon ou s'élever au-dessus de l'horizon du point de vue
du satellite LEO, la réfraction induite par l'atmosphère change la direction de propagation
d'un angle de courbure α.
966 PARTIE III. OBSERVATIONS SPATIALES
L'équation radar peut prendre diverses formes. La plus facile à comprendre est la suivante:
Pt ⋅ G 1
Ps = ⋅σ ⋅ ⋅ Aeff (2.23)
4π ⋅ r 2
4π ⋅ r 2
où Ps désigne la puissance du signal rétrodiffusé à l'antenne, P t la puissance du signal transmis
par l'antenne, G le gain de l'antenne, Aeff la superficie effective de l'antenne réceptrice du radar, r
la distance et σ la surface équivalente radar. Par conséquent:
Le gain de l'antenne peut prendre la forme G = 4π · Aeff/λ2 (un rapport dérivé directement de la
loi de diffraction). En exprimant la superficie effective de l'antenne réceptrice du radar Aeff et en
l’intégrant dans l'équation 2.23, on obtient:
Pt ⋅ G 2 ⋅ λ 2
Ps = ⋅σ (2.24)
64π 3 ⋅ r 4
Différents types de radars mettent l'accent soit sur la précision des mesures de la distance
(par exemple, les altimètres), soit sur la réflectivité/surface équivalente (par exemple, les
diffusomètres). Les radars servant à l'observation des nuages et des précipitations mettent
l'accent à la fois sur la distance (profil vertical) et sur la réflectivité. Une caractéristique digne de
mention est la résolution de l'image par radar à synthèse d'ouverture (RSO).
Altimétrie radar
a) Poursuite laser du satellite par des stations au sol avec miroirs réfléchissants installés sur le
satellite;
L'altimétrie radar présente l'inconvénient de limiter l'observation au nadir puisque les échos
provenant des zones environnantes interfèrent avec l'analyse temporelle. Le cycle d'observation
est donc très long. Le signal doit être corrigé pour tenir compte de la rotation de l'ionosphère
(les deux fréquences utilisées sont ~13,6 GHz (fréquence principale) et ~5,3 GHz (fréquence
d'appoint)) et de la vapeur d'eau (on utilise à cette fin un radiomètre hyperfréquences coaligné
avec un canal principal à ~23 GHz et des canaux d'appoint à ~35 GHz et/ou ~19 GHz).
a) Hauteur significative des vagues: à partir de l'analyse de l'étendue des échos captés dans le
temps;
b) Niveau de la mer: après filtrage des fluctuations dues aux vagues et prise en compte de
l'altitude instantanée du satellite par rapport au géoïde;
d) Meilleure connaissance du géoïde: grâce aux statistiques à long terme du niveau observé
de la mer;
Diffusiométrie radar
Contrairement à l'altimétrie radar, qui met l'accent sur la mesure des distances, la diffusiométrie
radar optimise la précision de la mesure de la surface équivalente radar σ (voir l’équation 2.24),
souvent normalisée et appelée σ 0 (sigma-zéro). Il peut même arriver que l'instrument soit
dépourvu d'un sous-système de mesure de la distance, mais l'étalonnage doit être extrêmement
précis.
La surface équivalente radar est une fonction des propriétés diélectriques de la cible, de la
géométrie de visualisation et du rayonnement incident (longueur d'onde, polarisation). Le
diffusomètre sert principalement à mesurer le vent à la surface de l'océan. Il prend pour cibles les
ondes capillaires qui sont étroitement liées au stress éolien. La valeur de σ 0 varie en fonction de
la vitesse du vent, de sa direction relative et de la ligne de mire. En mesurant ce paramètre sous
différents angles d'azimut, on peut déterminer à la fois la vitesse et la direction du vent.
Le rapport entre σ 0 et le vent est plutôt complexe: la solution pratique est empirique ou semi-
empirique. De plus, elle n'est pas unique en termes de direction: plusieurs ambiguïtés demeurent
avec deux angles de vision (il y en a moins avec trois). Un modèle de prévision numérique
prenant en compte l'interaction des vagues et de l'atmosphère et dans lequel sont directement
assimilées les valeurs de σ 0 permet de résoudre les ambiguïtés.
Les différences entre les mesures du vent réalisées par le diffusomètre et par le radiomètre
hyperfréquences passif peuvent se résumer comme suit: i) le radiomètre hyperfréquences
passif ne fournit en règle générale que des informations sur la vitesse du vent; pour obtenir des
informations sur la direction du vent, il faut pouvoir compter sur plusieurs canaux radiométriques
dotés des capacités de polarisation voulues; ii) le diffusomètre fournit généralement des
informations de meilleure qualité, en particulier lorsque la vitesse du vent est faible (moins
de 3 m/s environ); toutefois, lorsque la vitesse du vent est élevée (plus de 20 m/s environ), le
radiomètre passif permet d’obtenir de meilleurs résultats.
Conçus principalement pour mesurer la vitesse du vent à la surface de la mer, les diffusomètres
permettent de réaliser divers types d'observations:
a) Vitesse du vent à la surface de la mer dans toutes les conditions météorologiques (bande C)
ou dans presque toutes les conditions (bande Ku);
c) Humidité du sol dans les zones à végétation clairsemée (avec la bande C, et, dans une
moindre mesure, avec la bande Ku);
d) Indice de surface foliaire ou biomasse totale dans les zones à végétation dense (forêts);
Alors que l'altimètre radar met l'accent sur la mesure des distances et que le diffusomètre radar
sert principalement à optimiser la précision de la mesure de la surface équivalente radar, le
968 PARTIE III. OBSERVATIONS SPATIALES
radar de mesure de la nébulosité et des précipitations combine les deux opérations. La mesure
des distances sert à établir le profil vertical des particules des nuages, et celle de la valeur σ à
déduire la concentration et la taille des particules réfléchissantes. Cependant, l'exactitude que
doivent présenter les mesures de la distance pour les besoins de l'établissement des profils de
précipitation est de l'ordre de 100 m, au lieu de 1 cm dans le cas de l'altimétrie.
Dans le cas des gouttelettes de pluie, à condition que leur diamètre D soit inférieur à λ/10 (c'est-
à-dire qu'elles répondent aux critères de diffusion de Rayleigh), la surface équivalente radar
s'établit à:
π5
σ= ⋅ K 2 ⋅ D6 où K représente la constante diélectrique (2.25)
λ4
Le rayonnement rétrodiffusé total reçu par le radar est la somme de tous les réflecteurs de tous
les diamètres dans l'IFOV. Si l'on suppose que les valeurs du diamètre des particules affichent une
distribution de Marshall-Palmer (N0 · e–ΛD), la réflectivité totale peut être exprimée sous la forme:
Dmax
π5
Z = ⋅ ∫ K 2 ⋅ N 0 ⋅ e − Λ D ⋅ D 6 ⋅ dD (valide pour D λ ) (2.26)
λ 4
0
Les équations 2.25 et 2.26 sont généralement applicables aux radars météorologiques au sol qui
exploitent la bande S (~10 cm) ou la bande C (~5 cm), aux fins de comparaison avec D ~ 0,5 cm
(typique des nuages précipitants). Ces fréquences ne sont pas utilisées depuis l'espace puisque
l'IFOV correspondant au sol, avec une antenne de taille raisonnable, est trop grossier. En raison
de la réglementation concernant l'utilisation des fréquences, les fréquences disponibles pour
l'exploitation d'un radar spatioporté sont ~14 GHz (~2 cm), ~35 GHz (~0,9 cm) et ~94 GHz
(~0,3 cm). Les équations 2.25 et 2.26 ne sont donc pas entièrement applicables et doivent être
corrigées par des méthodes complexes pour tenir compte des conditions de diffusion de Mie.
Une fois mesurée la réflectivité Z, il y a plusieurs façons de convertir cette valeur en taux de
précipitation R. Tout d’abord, il est nécessaire de déduire le taux de précipitation à la surface,
lequel ne peut être directement mesuré depuis l'espace, mais doit au contraire être dérivé à partir
des propriétés mesurées dans la colonne verticale et liées au profil de précipitation.
Le radar de mesure de la nébulosité et des précipitations est le seul outil capable de fournir
des mesures de la hauteur de la base des nuages, une variable importante de la météorologie
aéronautique et de la climatologie. L'exactitude et la fiabilité des mesures dépendent de la
fréquence radar. Le radar doit être en mesure de pénétrer les nuages dans toute leur épaisseur.
D'un point de vue opérationnel, les radars de mesure de la nébulosité et des précipitations
présentent plusieurs inconvénients, notamment une largeur de fauchée limitée, qui empêche
les cycles d'observation fréquents. Ainsi, même si l'imagerie hyperfréquences passive demeure
la technique de base pour obtenir de fréquentes observations des précipitations, l'exactitude
des données obtenues à l'aide de cette méthode doit encore être améliorée. Il est nécessaire de
pouvoir compter sur la présence dans l'espace d'au moins un radar afin d'assurer l'«étalonnage»
du système de radiométrie hyperfréquences passive en s'inspirant, par exemple, des missions de
mesure des précipitations à l'échelle du globe.
Dans le domaine MW, la résolution spatiale est limitée par la diffraction. Pour un radar à visée
latérale dont l'angle de décalage par rapport au nadir est de θ°, à une hauteur orbitale H et muni
d'une antenne de diamètre L, en supposant une surface plane, l'IFOV s'établit comme suit:
H ⋅c
IFOV = 1, 24 ⋅ (2.27)
cos θ ⋅ L ⋅ν
Le tableau 2.10 présente les valeurs de l'IFOV et de la relation L pour des radars exploitant
diverses bandes, en supposant que θ = 23° et que H = 700 km (paramètres du radar à antenne
synthétique sur SeaSat, figure 2.21). Il montre que l'exigence d'un IFOV égal à 1 kilomètre serait
très difficile à respecter, et qu'il serait impossible d'obtenir un IFOV de 100 m ou moins avec un
radar à ouverture réelle.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 969
Trajectoire du satellite
7 450 m/sec
DAT DAT
DR δ AT ≥
2
Angle du cône 6° Trace au sol, dans le sens
(angle d'azimut 1°) C
de la trajectoire (AT), δR≥
ou direction de l'azimut 2ß
Antenne du RSO
800 km Rf
23°
Rn
Élément de résolution
Nadir
δR δ AT
Ouverture
d'antenne ψ
Perpendiculaire de la trajectoire,
ou direction de la portée (R)
Empreinte du radar
Fauchée de Rf – Rn 𝜆R
100 km (Wg) Wg = =
cos ψ DR sin ψ
L'antenne du radar à synthèse d'ouverture (figure 2.21) est orientée dans le sens du déplacement
du satellite. Sa largeur détermine la fauchée, qui est parallèle à la projection au sol de la
trajectoire du satellite. Sa longueur détermine la zone d'analyse des signaux. L'empreinte du
radar correspond à celle d'un radar à ouverture réelle, tandis que les éléments de résolution dans
le champ (pixels) présentent des situations différentes. Les pixels répartis à travers la fauchée se
trouvent à des distances différentes du satellite. Le satellite peut les localiser grâce à sa capacité
de distinguer de petites variations de la distance. Les échos des pixels en avant de la ligne
perpendiculaire à la trajectoire sous-satellite subissent un décalage Doppler positif (fréquence
plus élevée que celle transmise); ceux en arrière de cette transversale subissent un décalage
Doppler négatif. La détermination du moment de l'inversion du décalage permet de répartir les
pixels dans le sens du déplacement du satellite.
970 PARTIE III. OBSERVATIONS SPATIALES
Le radar à synthèse d'ouverture peut être utilisé dans différents modes d'exploitation, en
fonction du compromis à établir entre la résolution et la fauchée, et de la combinaison des
polarisations transmises et reçues. Un mode d'exploitation sert à l'établissement des spectres
d'ondes. Une petite portion de l'image (vignette) est échantillonnée à intervalles réguliers. Pour
Envisat, par exemple, la vignette est de 5 x 5 km à la meilleure résolution spatiale, 30 m, à tous
les 100 km le long de la trajectoire. Les échos sont analysés afin d'établir le spectre de puissance
à partir duquel il est possible de déterminer la direction de la vague dominante, sa longueur/
période et sa puissance, par rapport à sa hauteur significative.
La liste des applications du RSO est longue, bien que toutes les bandes ne soient pas propices à
toutes les applications:
d) Couverture de glace sur les terres émergées (glaciers) (toutes les bandes);
En utilisant l'interférométrie entre les passages successifs d'un satellite donné sur une orbite
à cycle répété, il est possible de mesurer des changements tels que la dérive des icebergs, les
variations de la surface des glaciers et des lacs, les variations de la topographie de la surface des
volcans et du bradyséisme, l'érosion des côtes et l'urbanisation.
2.2.5.3 Lidar
Le principe du lidar (détection et localisation par la lumière) est le même que celui du radar, mais
la gamme du spectre électromagnétique est différente: hyperfréquences pour le radar, ondes
courtes pour le lidar. La plupart des lidars utilisent des longueurs d'onde dans le spectre UV
(par exemple, 355 nm), VIS (par exemple, 532 nm), NIR (par exemple, 1 064 nm) ou SWIR (par
exemple, 1 550 nm); mais des longueurs d'onde plus longues (par exemple, 10,6 μm) peuvent
également être utilisées. La source, un laser (amplification de lumière par une émission stimulée
de rayonnements), est extrêmement directionnelle, mais comme la distance qui sépare les
satellites de la Terre est très grande, la puissance électrique requise est élevée et la récupération
du signal rétrodiffusé exige de grands télescopes. Ainsi, l'utilisation du lidar dans l'espace exige
des ressources considérables, et même si en principe le lidar pourrait être utilisé pour balayer une
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 971
superficie donnée aux fins d'imagerie, les systèmes lidar dans l'espace n'ont jusqu'à ce jour été
utilisés qu'en pointage nadir ou en mode monodirectionnel. Les missions que voici sont basées
sur le lidar:
Lidar de rétrodiffusion
Le lidar de rétrodiffusion a pour principal objet d'observer les aérosols. Il utilise à cette fin
des longueurs d'onde de taille similaire à des aérosols très fins (~1 μm). Pour élucider un plus
grand nombre de propriétés des aérosols (taille, phase, ratio d'absorption/diffusion et type), de
nouveaux concepts ont été élaborés, dont certains se fondent sur l'utilisation de deux longueurs
d'onde, et d'autres sur le laser à haute résolution spectrale pour distinguer les composantes
de la diffusion de Mie de celles de la diffusion de Rayleigh. En tout état de cause, le lidar de
rétrodiffusion est un très gros instrument (le télescope peut être doté d'une ouverture d'un
mètre). Son empreinte peut n'être que de quelques dizaines de mètres, mais le nombre d'échos
décorrélés utilisés pour établir des moyennes est plus élevé de manière à accroître le rapport
signal-bruit, et la résolution finale correspond donc à une fourchette de quelques centaines
de mètres. La résolution verticale, déterminée par le système de télémétrie du lidar, est fixée à
quelques centaines de mètres.
Conçu principalement pour l'observation des aérosols (la mission la plus exigeante), le lidar de
rétrodiffusion fournit différents types d'informations, y compris:
b) Hauteur du sommet des nuages (beaucoup plus précise que celle mesurée à l'aide des
méthodes NIR et IR passives);
c) Épaisseur optique des nuages minces (cirrus) et hauteur de la base des nuages
semi-transparents;
Lidar Doppler
Le lidar Doppler sert principalement à l'observation des profils de vent, une variable de première
importance pour les prévisions météorologiques.
L'observation du mouvement des champs nuageux est la seule technique disponible pour les
zones nuageuses, tandis que le lidar Doppler permet de réaliser des observations en air clair.
Les remous de l'atmosphère turbulente, des aérosols et de la diffusion moléculaire font office de
traceurs dans ces cas.
L'exploitation du décalage Doppler dû au vent nécessite une prise de vue oblique. La fréquence
de répétition des impulsions laser est telle que l'IFOV correspondant peut être inférieur à 100 m.
Cependant, comme c'est le cas avec tout radar ou lidar, il faut établir la moyenne d'un certain
nombre d'échos décorrélés pour améliorer le rapport signal-bruit: la résolution finale est un
IFOV pouvant atteindre plusieurs dizaines de kilomètres. À cause des limites de l'alimentation
électrique, l'instrument présente un cycle de service limité, par exemple, il peut échantillonner
à intervalles de 200 km sur une ligne parallèle à la projection au sol de la trajectoire du
satellite. La résolution verticale des données récupérées sur les vents dépend de la fréquence
d'échantillonnage des échos de retour en fonction du temps. Les mesures sont corrigées pour
une résolution verticale d'environ 1 km dans la troposphère moyenne, moins d’1 km dans la
couche limite planétaire, et plus d’1 km dans la stratosphère. Aucune technique fondée sur le
suivi du mouvement des champs de nuages ou de vapeur d'eau à l'aide de satellites GEO ne
peut offrir ce niveau de performance. L'exactitude anticipée de la mesure de la composante
horizontale du vent est de moins de 2 m/s.
Le lidar Doppler est un très gros instrument (le télescope peut présenter une ouverture de 1,5 m)
et requiert un satellite spécial sur une orbite plus basse que celles habituellement utilisées pour
les satellites météorologiques.
La couverture du lidar anémométrique est très limitée. Comme un instrument ne couvre qu'une
ligne parallèle à la projection au sol de la trajectoire du satellite, il faut pouvoir compter sur une
constellation de satellites pour obtenir une couverture fréquente. Tant que la viabilité d'une telle
constellation ne pourra être assurée, le système de base de l'établissement des profils de vent
continuera de dépendre de l'imagerie et du sondage hyperspectral assurés à partir des satellites
GEO, et le rôle du lidar Doppler restera confiné à l'appui aux opérations d'étalonnage du système
global.
Le lidar anémométrique présente en outre l'inconvénient de ne pouvoir fournir des données que
dans le sens de la ligne de visée (1D). La récupération de la composante horizontale 2D requiert
l'assimilation dans un modèle de prévision numérique du temps.
Conçu principalement pour l'observation du vent (la mission la plus exigeante), le lidar Doppler
fournit différents types d'observations, y compris les profils de vent en air clair ou en présence de
cirrus minces, les profils d'aérosol (à partir de l'intensité de l'écho) et la hauteur du sommet des
nuages.
Altimètre lidar
L'altimètre radar peut fournir des mesures d'un degré de précision pouvant atteindre quelques
centimètres. Toutefois, au-delà de 20 km, sa résolution horizontale est plutôt grossière. Grâce
au traitement RSO des signaux recueillis dans le sens de la trace au sol, la résolution peut être
portée à ~300 m, ce qui ne suffit toujours pas pour obtenir une détection exacte des frontières.
L'altimètre radar ne permet pas non plus d'observer les surfaces à émissivité élevée (et donc à
faible réflectivité) dans la gamme hyperfréquence, comme par exemple, les terres émergées et la
glace.
Le lidar ne présente pas ces limitations. La résolution horizontale peut atteindre quelques
dizaines de mètres, et la résolution verticale est de moins de 10 cm. Cette résolution fine permet
de distinguer la frontière entre l'eau de mer et la glace polaire, et de déterminer (après plusieurs
passages successifs) le profil de la hauteur dans le sens de la trace au sol, ce qui permet de
cartographier l'épaisseur de la glace.
Pour fonctionner au-dessus de la mer en dépit de la très faible réflectance dans le domaine VNIR,
l'altimètre lidar doit être muni d'un grand télescope (ouverture ~1 m). Ainsi, pour améliorer le
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 973
rapport coût/efficacité, un capteur utilisant une deuxième longueur d'onde pour l'observation de
l'atmosphère est habituellement ajouté (par exemple, 1 064 nm pour la surface et 532 nm pour
l'atmosphère), ce qui permet d'utiliser l'instrument comme un radar de rétrodiffusion normal.
Comme tous les altimètres, l'altimètre lidar exige une détermination d'orbite extrêmement
précise puisque la mesure de l'altitude correspond à la distance qui sépare l'objet du satellite
en orbite. Cette détermination est réalisée à l'aide d'un récepteur GPS et de la télémétrie laser à
partir d'un réseau de stations terrestres munies de rétroréflecteurs.
d) La topographie de la surface des terres émergées, y compris les glaciers et les lacs;
f) La mesure de la hauteur du sommet des nuages, de l'épaisseur optique des nuages minces
et de la hauteur de la base des nuages semi-transparents;
L'absorption différentielle est basée sur des observations complémentaires d'une espèce cible
réalisées à la crête d'absorption et dans une fenêtre atmosphérique voisine. Le recours au lidar à
cette fin constitue le seul moyen d'obtenir des profils à haute résolution verticale dans la couche
limite planétaire, là où cette résolution verticale est la plus importante. (Le profil est observé aussi
dans les couches plus hautes, y compris la stratosphère.)
Diverses conditions doivent être respectées pour l'utilisation du lidar à absorption différentielle:
l'espèce cible doit être relativement abondante; la ligne d'absorption doit être nette et se trouver
dans une région «propre» au sens spectroscopique; une fenêtre atmosphérique «propre» doit se
trouver à proximité. Voici quelques exemples d'applications possibles:
a) Mesure du CO2 par l'exploitation des raies à 1,57 μm, dans la gamme de 1,6 à 1,7 μm, ou à
2,05 μm, dans la gamme de 2,0 à 2,3 μm;
b) Mesure de l'eau (H2O) par l'exploitation des raies à 935 nm, avec des fenêtres de part et
d'autre;
c) Mesure de l'ozone (O3) par l'exploitation des raies et des fenêtres dans la gamme de 305 à
320 nm.
Les missions exploitant le lidar à absorption différentielle n'en sont encore qu'au stade de projet
ou d'étude de faisabilité. Comme la largeur de bande spectrale (et donc, l'énergie disponible
pour l'observation) est très étroite, et que le réflecteur (un gaz) est très faible, l'instrument doit
être très gros, ce qui présente un défi technologique.
974 PARTIE III. OBSERVATIONS SPATIALES
L'observation de la Terre depuis l'espace exige un système complexe composé i) d'un segment
spatial pour les observations et ii) d'un segment terrien pour la gestion du segment spatial et le
traitement des données d'observation.
a) La plate-forme;
c) Les outils de communication qui reçoivent les commandes et transmettent les données
d'observation au sol.
La taille et la masse des satellites d'observation de la Terre peuvent varier sur deux ordres de
grandeur:
d) Contrôle thermique pour maintenir les instruments dans les conditions d'exploitation
prescrites;
h) Capacité de traitement pour la gestion des données et la préparation des flux de données à
transmettre;
a) Rétroréflecteurs laser;
b) Récepteurs GNSS;
c) Systèmes de radiopositionnement;
d) Suiveurs stellaires.
Rétroréflecteurs laser
Il s’agit de miroirs, construits le plus souvent en forme de pyramides. Ils servent à réfléchir
les rayons laser envoyés au satellite par les sites laser au sol, pendant les opérations de
positionnement. Ces rétroréflecteurs sont utilisés sur beaucoup de satellites pour la
détermination précise a posteriori de l'orbite du satellite par post-traitement de quelques
mesures pendant la nuit et par temps clair uniquement. L'analyse met à contribution un réseau
complet de stations coordonnées au sol. Les résultats sont sporadiques et sont transmis à
retardement, mais ils sont précis au point de pouvoir servir aux applications de géodésie spatiale.
Systèmes de radiopositionnement
Il s’agit de systèmes conçus spécialement pour appuyer les missions d'altimétrie. Ils exploitent
des liaisons radio entre le satellite et les stations de transmission et/ou de réception au sol. Le
positionnement est effectué en temps quasi réel, avec une précision améliorée après le post-
traitement. En voici deux exemples:
b) PRARE (Équipement de mesure précise de la distance et de la vitesse radiale), qui mesure les
signaux différentiels transmis à partir d'un réseau de stations au sol.
Récepteurs GNSS
Ces systèmes exploitent la différence de phase des signaux de plusieurs satellites du GNSS. Le
GNSS est composé des constellations de satellites de navigation des États-Unis (GPS), de la
Fédération de Russie (GLONASS), de l'Union européenne (Galileo) et de la Chine (Compass,
appelé Beidou en chinois). Beaucoup de satellites utilisent actuellement des récepteurs GNSS à
des fins de navigation. Le positionnement est effectué en temps réel.
976 PARTIE III. OBSERVATIONS SPATIALES
Suiveurs stellaires
Les suiveurs stellaires sont des dispositifs à couplage de charge, qui peuvent suivre les étoiles
brillantes, en reconnaître la cartographie et transmettre ces informations à un système de
commande d'attitude du satellite. Ils veillent au suivi en continu de l'orientation du satellite d'une
manière beaucoup plus précise que les systèmes basés sur la détection d'horizon. Ces systèmes
sont nécessaires pour les instruments qui requièrent des informations exactes sur leur orientation
(par exemple, les limbosondeurs), tant pour la commande active de l'attitude pendant le vol que
pour le traitement subséquent des données produites par les instruments. Les suiveurs stellaires
équipent désormais un nombre croissant de satellites.
Les systèmes d'orientation et de stabilisation sont des dispositifs essentiels de la plate-forme qui
déterminent les capacités de pointage des instruments.
Le côté de la plate-forme où se trouvent les capteurs devrait idéalement rester tourné vers la
surface de la Terre, à moins que la mission n'ait un objectif différent (par exemple, surveillance
du Soleil). Comme la plate-forme a tendance à maintenir la même orientation par rapport aux
étoiles pendant sa course orbitale, l'intervention d'un mécanisme de stabilisation est nécessaire.
Le mécanisme de stabilisation de la rotation est très simple car il est passif et inertiel. L'axe de
rotation a tendance à maintenir une orientation constante par rapport aux étoiles, et ne répond
donc pas aux exigences d'orientation par rapport à la Terre. Si l'axe de rotation des satellites GEO
est orienté parallèlement à l'axe de rotation de la Terre, la surface terrestre est balayée pendant
une fraction (environ 5 %) du temps que prend le satellite pour décrire un tour complet sur lui-
même. L'axe de rotation des satellites sur orbite basse peut être fixé précisément pour permettre
aux instruments de viser la surface de la Terre pendant une fraction de la durée de rotation. Quoi
qu'il en soit, la stabilisation de la rotation n'est utile que lorsque le budget radiométrique d’un
instrument est suffisant pour effectuer les mesures pour lesquelles l’instrument a été conçu en
dépit de la petite fraction de temps d'observation utile. De plus, la stabilisation de la rotation ne
peut être utilisée que pour un seul instrument ou un très petit nombre d'instruments embarqués
sur une plate-forme donnée.
La stabilisation sur trois axes convient beaucoup plus au maintien d’une orientation constante
par rapport à la Terre et elle répond aux besoins d'un plus grand nombre d'instruments sur une
plate-forme. Elle permet un contrôle actif de l'attitude du satellite en ce qui a trait à la rotation
autour de l'axe perpendiculaire au plan orbital (tangage), de l'axe tangent au déplacement
instantané en orbite (roulis) et de la direction du nadir (lacet).
Le contrôle actif est essentiel puisqu'il laisse supposer un contrôle précis de l'attitude (par
exemple, par le biais de la détection d'horizon, des suiveurs stellaires ou des récepteurs GNSS)
et le recours à des dispositifs de commande efficaces (comme les dispositifs de micropropulsion,
les gyroscopes, les détecteurs très précis de la variation angulaire et les dispositifs de commande
électroniques efficaces). Les défaillances à ce chapitre comptent parmi les causes principales des
échecs des missions. Le contrôle actif risque d'influer sur la qualité des données à cause d'une
exactitude limitée, en particulier dans le cas des instruments haute résolution et des satellites
en orbite géostationnaire haute, et de la perturbation mécanique du système de pointage
d'instruments due à la mise en marche des dispositifs de commande.
Outre les principaux systèmes d'orientation et de stabilisation (par rotation et contrôle triaxial),
on utilise également des systèmes intelligents de commande d'attitude, en particulier pour les
petits satellites. Par exemple, le système de stabilisation par gradient de pesanteur utilise un long
bras qui s'oriente dans la direction du nadir et maintient ainsi un côté de la plate-forme tourné
vers la surface de la Terre.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 977
Le partage entre les tâches à exécuter à bord des satellites et celles qui peuvent être réalisées au
sol, à condition de disposer d'informations suffisantes sur les caractéristiques des instruments
embarqués, compte parmi les arbitrages à faire dans la conception des satellites. Le matériel
embarqué peut être coûteux; il est exposé à des pannes irréparables et sa performance est
limitée. En conséquence, il est conseillé d'en limiter l'utilisation aux cas où cela est absolument
nécessaire et relativement sûr. Le système de maintenance procure par ailleurs toutes les
informations accessoires requises pour le traitement précis des données au sol.
Quelle que soit l'importance d'un bon système de maintenance, il existe des limites à la précision
des tâches qui peuvent être accomplies par ce genre de logiciels de traitement. Les erreurs
résiduelles de correction ou de reconstruction de logiciel risquent de dépasser les limites
prescrites pour l'application. En conséquence, certaines des corrections doivent dépendre du
matériel de bord.
La plate-forme doit transmettre au sol les résultats des observations effectuées à l'aide des
divers instruments. Quelle que soit l'altitude du satellite, les transmissions radio en direction
de la Terre devront traverser l'ionosphère et la plasmasphère, qui bloquent la propagation des
ondes électromagnétiques dont la fréquence est inférieure à la fréquence de plasma critique
(~25 MHz). Il est nécessaire d'assurer une visibilité directe entre les émetteurs et les récepteurs
installés à bord du satellite et dans la station au sol.
La transmission directe en temps réel est la méthode la plus simple de collecte des données
d'observation par satellite. Dans le cas d'un satellite en orbite basse, une station au sol récupère
toutes les données transmises lors du passage du satellite dans la zone d'acquisition. La taille de
cette zone est la même que celle du champ de vision du satellite pour une distance zénithale ζ de
90° (en principe), ou de 85° (risque réduit d'interférences de sources au sol ou d'occlusion due
à l'orographie du terrain). Le tableau 2.1 permet de constater, par exemple, que pour un satellite
en orbite à une altitude de 800 km, la zone d'acquisition est un cercle de 5 000 km de diamètre
(pour ζ = 85° ou une élévation de 5°).
Lorsque la vitesse du satellite se situe aux alentours de 400 km/min et que le satellite passe au-
dessus de la station d'acquisition, la session d'acquisition dure au plus 15 minutes, et elle est
réduite à quelques minutes lorsque le satellite passe en périphérie de la zone d'acquisition.
Ce type d'acquisition est le plus pratique puisqu'il permet à l'utilisateur d'accéder aux données
d'observation en temps réel pour un traitement immédiat. Cependant, la station de réception
locale n'a accès qu'aux données observées et transmises au moment du passage du satellite
dans la zone d'acquisition. En revanche, les données transmises en direct par les satellites
géostationnaires peuvent être reçues en continu par une station située à l'intérieur de son champ
de vision.
978 PARTIE III. OBSERVATIONS SPATIALES
Les données recueillies par un satellite en orbite basse peuvent aussi être stockées à bord
du satellite et transmises sur commande lorsque ce dernier survole une station d'acquisition
centrale. Cette station, qui sert également à transmettre les commandes au satellite, présente
la même zone d'acquisition que n'importe quelle station locale; si elle est située à une latitude
élevée, elle peut récupérer les données recueillies à partir de nombreuses orbites. Le tableau 2.4
montre que la plupart des orbites héliosynchrones passent à moins de 10° du pôle, et qu'une
station centrale installée par exemple à une latitude de 80° sera en mesure d'intercepter toutes
les orbites et d'assurer une acquisition des données à l'échelle du globe. Le système de stockage
et de transmission périodique des données présente l'avantage de permettre la récupération des
données pour l'ensemble du globe, mais il présente par ailleurs plusieurs inconvénients:
b) Le satellite doit transmettre les données accumulées au cours d'une orbite (~100 min)
pendant qu'il traverse la zone d'acquisition de la station centrale (~10 min). En
conséquence, le taux de transmission et les besoins en matière de bande passante doivent
être supérieurs d'un ordre de grandeur à ceux requis pour la transmission directe, ce qui
augmente considérablement le coût, la taille requise et la complexité de la station. Ce mode
d'acquisition convient à un opérateur du satellite, mais ce n’est généralement pas le cas
pour les utilisateurs de données.
Les données qui ne sont pas récupérées localement en temps réel, mais qui sont plutôt
accumulées dans une installation centrale de traitement doivent être retransmises aux
utilisateurs, en général sous forme prétraitée. Dans le cas des satellites géostationnaires, un
transpondeur peut servir à la retransmission des données aux stations utilisatrices locales.
Dans le cas des satellites en orbite basse, il existe entre les deux cas extrêmes (transmission
directe en temps réel des données correspondant à une zone limitée, ou stockage et transmission
périodique, dans un délai de 2 à 3 heures, des données recueillies à l'échelle du globe) des
solutions complémentaires ou de rechange pour la récupération des données:
a) Recours à plusieurs stations de liaison réparties sur l'ensemble du globe, y compris, par
exemple, près de chaque région polaire, pour réduire la durée de stockage à bord du
satellite;
Le temps nécessaire à la récupération des données est un enjeu crucial pour les satellites
opérationnels, et notamment pour les satellites météorologiques, à cause des exigences
concomitantes du respect des délais prescrits et de la couverture mondiale. Les critères temporels
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 979
a) Collecte de données depuis les plates-formes d’observation in situ exploitées à partir du sol,
d'aéronefs, de ballons, de bouées ou de navires, ou même transportées par des animaux
migrateurs. Les plates-formes de collecte des données peuvent transmettre en continu,
par intermittence, à intervalles fixes, ou encore sur commande lancée par le satellite. Les
plates-formes mobiles peuvent être localisées par les satellites en orbite basse. Les satellites
géostationnaires utilisent pour leur part des plates-formes de collecte situées dans leur
champ de mire (régionales) ou des plates-formes mobiles (installées sur des navires, des
aéronefs, etc.) qui servent tour à tour plusieurs satellites différents (internationales).
b) Recherche et sauvetage par détection des signaux de détresse émis par de petits
transmetteurs transportés par les personnes en difficulté et par la retransmission des appels
à l'aide à l’un des centres d'un réseau mondial de recherche et sauvetage. Les missions
de recherche et sauvetage sont conduites de façon concertée par plusieurs satellites
météorologiques opérationnels en orbite basse ou en orbite géostationnaire. Le service
basé sur des satellites LEO s'appelle SARSAT (système de recherche et de sauvetage à l’aide
de satellites) et celui basé sur des satellites GEO s'appelle GEOSAR (recherche et sauvetage
par satellites géostationnaires).
Cet élément du segment terrien peut être désigné sous l'appellation générique de «station de
télécommande et d'acquisition des données» (TAD). Il s'acquitte des tâches suivantes:
980 PARTIE III. OBSERVATIONS SPATIALES
a) Réception des séquences de commande transmises par le centre de contrôle des missions et
des opérations, et retransmission de ces séquences au satellite (aux fins de la configuration
du satellite et de sa charge utile, de la correction d'orbite, etc.);
d) Indexation des flux de données acquis avec des éléments temporels et de l’orbite précis.
Il est possible de n'utiliser qu'une seule TAD pour les satellites géostationnaires. Dans le cas des
systèmes de satellites à défilement, on peut éviter les orbites aveugles en installant la station
à une latitude très élevée (par exemple, Svalbard, à 78° N). Pour améliorer la disponibilité
des données dans le temps, on peut recourir à des stations auxiliaires (par exemple, dans
l'Antarctique). Dans le cas des orbites à faible inclinaison, il est nécessaire de recourir à un réseau
de TAD dont l'une fera office de station principale.
Les TAD utilisent les fréquences dans la bande S (aux environs de 2 100 MHz) pour la
télécommande du satellite. La bande S est presque insensible aux conditions météorologiques et
moins cruciale pour l'exactitude du pointage. Pour l'acquisition des données géophysiques, on
choisit la bande L (aux environs de 1 700 MHz) si le taux d'acquisition des données est inférieur
à 10 Mbps; dans les autres cas, on utilise soit la bande X (aux environs de 8 GHz) pour les taux
d'acquisition atteignant jusqu'à 100 Mbps environ, soit la bande Ka (aux environs de 26 GHz)
pour les taux d'acquisition de plusieurs centaines de Mbps.
Ces éléments sont désignés sous l'appellation générique de centres de contrôle des opérations
(CCO). Ils s'acquittent des tâches suivantes:
a) Collecte d'informations sur le satellite et sa charge utile et sur la situation de son orbite
transmises par TAD ou (en ce qui a trait à l'orbite uniquement) d'autres stations de
télémétrie;
b) Récupération des informations sur les exigences relatives à des éléments tels que la
configuration de la charge utile et la planification de la séquence de mesures auprès
des centres de traitement et d'archivage des données, et d'autres utilisateurs habilités à
formuler des exigences pour le plan de mission;
c) Analyse des informations sur le satellite et sa charge utile, sur la situation de son orbite et sur
les exigences relatives à la configuration de la charge utile ou à la mission; préparation des
rapports de suivi des performances des instruments; préparation du plan opérationnel et
communication à la TAD des commandes à transmettre au satellite;
Les centres de contrôle des missions entretiennent des rapports étroits avec les utilisateurs,
les centres d'application et les équipes scientifiques. Les CCO entretiennent des relations
étroites avec les TAD et les unités responsables de la mise au point du satellite. Ils connaissent
en profondeur les caractéristiques du satellite. Ces deux types de centres sont souvent (mais
pas obligatoirement) établis dans les mêmes locaux, et devraient de préférence compter sur les
services d'un centre d'appoint.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 981
b) Acquisition de données auxiliaires sur l'orbite, le satellite et la charge utile auprès des CCO;
g) Analyse de l'état de la mission et de la charge utile, ainsi que des exigences à respecter aux
fins de la planification de la mission;
h) Transmission aux CCO de la liste des exigences à respecter en ce qui a trait à la charge utile
et au contrôle de la mission.
L'opérateur du satellite se charge en règle générale de l'élaboration des produits de base dans
une installation centrale et peut au besoin faire appel à des centres externes spécialisés pour le
traitement d’autres produits particuliers.
L'archivage des données satellitaires exige une disponibilité élevée et permanente de matériel
capable d'ingérer et de stocker les données ainsi que d'assurer les services de recherche et
d'extraction des données et d'en assurer la préservation à long terme pendant des décennies. Les
données doivent être associées à des métadonnées contenant les informations requises pour leur
utilisation et leur évaluation. Des métadonnées complètes et normalisées ainsi que des systèmes
de catalogues normalisés et compatibles sur le plan mondial permettent d'étendre la recherche
des données à l'échelle mondiale dans le cadre du Système d'information de l'OMM.
Plusieurs méthodes sont envisageables pour accéder aux données et aux produits, selon le
volume des données et les délais prescrits de livraison:
a) Lecture directe des données provenant du satellite (le cas échéant; particulièrement
prévalente dans le cas des satellites sur orbite basse). Cette méthode est la plus rapide, mais
elle présuppose de disposer des moyens requis pour recevoir des données brutes dans une
station de réception appropriée et pour les prétraiter à l'aide du progiciel approprié;
b) Retransmission en temps quasi réel des données après prétraitement ou traitement complet
au sol. La retransmission des données des satellites géostationnaires peut être effectuée par
l'intermédiaire du même satellite. La méthode privilégiée à l'heure actuelle consiste à faire
appel à des satellites de télécommunication commerciale comme le système GEONETCast
qui rassemble trois services coordonnés: EUMETCast (de l’Organisation européenne pour
l'exploitation de satellites météorologiques), CMACast (de l'Administration météorologique
chinoise) et GEONETCast-Americas (de la NOAA). Cette approche permet d'optimiser les
services de diffusion au sein du segment terrien en tenant compte des diverses missions et
sources de produits disponibles, indépendamment des contraintes de conception propres à
un satellite particulier;
c) Retransmission en temps quasi réel des données par le biais de réseaux spécialisés comme
le Système mondial de télécommunications de l’OMM ou d'autres;
982 PARTIE III. OBSERVATIONS SPATIALES
d) Récupération active, à partir des centres de données, de données hors ligne, et plus
particulièrement des données archivées, à l'aide de la fonction FTP.
La distribution des données et des produits peut être soumise à certaines conditions, selon
la situation et les politiques de diffusion des données de l'agence spatiale responsable du
programme (opérationnel, recherche-développement, commercial) et l'utilisation prévue du
programme. L'accès aux services de retransmission des données est en général contrôlé par un
système de codage et d'inscription, même si aucuns frais ne sont perçus.
Les stations utilisatrices sont installées pour tirer parti de la transmission en temps réel ou quasi
réel des données par le satellite. Selon les modalités d'accès et les besoins des utilisateurs, divers
dispositifs sont envisageables:
b) Stations d'acquisition des données à débit lent pour certaines données dont le volume ou la
qualité sont réduites;
Les fréquences utilisées par les stations d'acquisition à débit rapide se situent dans la bande L
(aux environs de 1 700 MHz) pour les débits inférieurs à 5 Mbps environ, et dans la bande X (aux
environ de 8 GHz) pour les débits atteignant jusqu'à 100 Mbps environ. Les stations d'acquisition
à débit lent utilisent des fréquences relativement basses (bande L: aux environs de 1 700 MHz
pour les satellites géostationnaires, et très haute fréquence (VHF): aux environs de 137 MHz pour
les satellites en orbite basse) qui peuvent être exploitées par des stations mobiles (par exemple,
sur des navires). Les terminaux de satellites de télécommunication commerciale exploitent la
bande Ku (aux environs de 11 GHz) ou la bande C (aux environs de 3,8 GHz).
Les observations sont extraites des données brutes recueillies par les instruments du satellite par
le biais d'une chaîne de traitement. Divers niveaux de traitement sont d'ordinaire envisageables,
selon les instruments utilisés. Le tableau 2.11 présente une description générique de ces
différents niveaux de traitement.
Les données du niveau 0 sont celles issues du traitement des données brutes qui consiste à
supprimer les artefacts de communication (par exemple, les cadres de synchronisation et les
en-têtes des communications) et à ajouter toutes les données auxiliaires requises, y compris les
données de maintenance et les informations fournies par la station concernant la chronologie
des données et le suivi. Les données du niveau 0 devraient être archivées en permanence pour
permettre le retraitement avec un modèle d'instrument plus perfectionné (permettant par
exemple un étalonnage ou une géolocalisation améliorés).
Les données du niveau 1a ou 1.0 sont présentées sous forme de fichiers de mesures tels que
produits par l'instrument, auxquels sont ajoutés (mais pas appliqués) la matrice ou l'algorithme
de déformation pour la géolocalisation, et les coefficients d'étalonnage. Le traitement du
niveau 0 au niveau 1a/1.0 est entièrement réversible. Les données du niveau 1a/1.0 sont
normalement archivées en permanence, même si elles peuvent en principe être reproduites si les
données du niveau 0 ont été archivées.
CHAPITRE 2. PRINCIPES D’OBSERVATION DE LA TERRE DEPUIS L’ESPACE 983
Niveau Description
Données d'instrument et données auxiliaires reconstituées à partir des données brutes du
0
satellite après suppression des artefacts de communications
1a (LEO) ou 1.0 (GEO): informations sur l'étalonnage et la
Données d'instrument extraites géolocalisation jointes, mais non appliquées
à la résolution d'origine, 1b (LEO) ou 1.5 (GEO): étalonnage et géolocalisation
1
avec informations sur la appliqués
géolocalisation et l'étalonnage 1c, 1d, etc.: traitement optionnel, selon la nature de
l'instrument
2 Produit géophysique récupéré d'un instrument dans son format d'origine
Produit géophysique récupéré d'un instrument donné, cartographié sur des grilles spatiales
3 ou temporelles uniformes, possiblement sur une base multiorbitale (LEO) ou multitemporelle
(GEO). Processus irréversible en raison du rééchantillonnage
Produits composites issus de l'intégration des données produites par plusieurs capteurs et/ou
4
plusieurs satellites, ou résultant de l'analyse de modèles
Les données du niveau 1b ou 1.5 sont des données étalonnées, co-enregistrées et géolocalisées
présentées en unités physiques (généralement des unités de luminance énergétique) telles
que produites par l'instrument. En raison des opérations de troncature, de discrétisation et de
rééchantillonnage qu'il comporte, le processus de traitement du niveau 1a/1.0 au niveau 1b/1.5
n'est pas réversible. Bien qu'il soit possible de retraiter les données du niveau 1b/1.5 à partir
des niveaux 1a/1.0 ou 0, le travail que cette opération comporte est tel que les données du
niveau 1b/1.5 sont en règle générale archivées en permanence.
Les données du niveau 1c résultent du traitement des données du niveau 1b produites par
certains instruments, effectué pour en permettre l'utilisation par les utilisateurs finals. Le
processus peut être pleinement réversible (par exemple, production de spectres à partir
d'interférogrammes par la transformation de Fourier) ou non (par exemple, spectres apodisés).
Ces données sont généralement archivées en permanence. Pour certains instruments, d'autres
étapes du niveau 1 (1d, 1e, etc.) peuvent être définies (par exemple, ajout d'un indicateur de
nébulosité).
Le traitement des données de niveaux 0 et 1 est réalisé par l'opérateur du satellite. En cas
de lecture directe, ce dernier veille en général à assurer la disponibilité d'un logiciel de
prétraitement des données pour les utilisateurs locaux des données.
Les produits du niveau 2 sont élaborés à partir des données du niveau 1 à l'aide d'algorithmes
faisant un usage limité d’informations externes. Des informations sur la qualité des données sont
ajoutées. Les données sont présentées telles que produites par l'instrument; elles sont le plus
souvent archivées en permanence.
Les produits du niveau 3 sont élaborés par composition d'une séquence de produits du
niveau 2 issus d'orbites successives (LEO) ou à des moments successifs (GEO). Les lacunes
possibles de la séquence peuvent être comblées par interpolation. En raison des opérations
de rééchantillonnage requises pour la cartographie sur des grilles spatiales ou temporelles
uniformes, le processus conduisant aux données de niveau 3 est irréversible. Les produits sont
élaborés hors ligne par les opérateurs de satellites ou par les utilisateurs finals et sont le plus
souvent archivés en permanence.
984 PARTIE III. OBSERVATIONS SPATIALES
Les produits du niveau 4 sont élaborés par intégration des données produites par des instruments
différents sur le même satellite ou sur des satellites différents, soit avec des données d'autres
sources soit par assimilation dans un modèle. Il peut s'avérer difficile de reconnaître dans ces
produits la contribution d'un instrument satellitaire donné.
TABLE DES MATIÈRES DU CHAPITRE
Page
Le présent chapitre donne un aperçu des concepts fondamentaux qui sous‑tendent les
instruments d'observation de la Terre ainsi que des caractéristiques techniques avancées de
certaines catégories typiques de ces instruments.
Les activités d'observation de la Terre font appel à un large éventail d'instruments et de principes
de télédétection. Le présent chapitre décrit ces instruments et en examine les caractéristiques
fondamentales suivantes:
d) Résolution radiométrique.
Obturateur
Étalonnage en vol
(corps noir de référence)
PbSe
45°
Filtre
Refroidisseur
Miroir Miroir
secondaire primaire
Figure 3.1. Configuration typique d'un radiomètre à balayage sur satellite LEO
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 987
Figure 3.2. Schéma du balayage d’un satellite géostationnaire stabilisé par rotation
Pour l'observation depuis un satellite sur orbite basse, un balayage 2D du terrain utilise le
déplacement du satellite pour développer une image le long de sa trajectoire, et un miroir rotatif
pour construire l'image perpendiculairement à la trajectoire (figure 3.1). La vitesse de rotation
est synchronisée avec le déplacement du satellite pour veiller à assurer la contiguïté des lignes
d'image transversales.
Pour l'observation depuis un satellite géostationnaire, la position du satellite est fixe par rapport
à la surface terrestre. Les deux dimensions du balayage doivent donc être générées soit par
l'instrument soit par la rotation du satellite. Dans la figure 3.2, on suppose que la rotation du
satellite est stabilisée: le balayage d'ouest en est est assuré par la rotation du satellite, tandis que
celui du nord au sud est obtenu à l'aide d'un moteur pas‑à‑pas. Dans le cas d'une stabilisation
triaxiale de la plate‑forme, c'est l'instrument qui veille aux balayages ouest‑est et nord‑sud.
Le balayage conique (figure 3.3) constitue un mécanisme de balayage très pratique pour les
mesures sensibles à la polarisation. Dans cette géométrie, l'angle d'incidence est constant et
l'effet de polarisation ne varie donc pas le long de la ligne de balayage (un arc), alors que pour
le balayage transverse, l'angle d'incidence varie le long de cette ligne entre le nadir et le bord de
l'image. Cette constance de l'effet de polarisation à travers l'image est très importante pour les
mesures en hyperfréquences (MW) dans les canaux «fenêtre» où le rayonnement provenant par
exemple de la surface de la mer est fortement polarisé. La mesure de la polarisation différentielle
est une information importante qui serait très difficile à utiliser si l'angle d'incidence variait d'un
point à l'autre de la scène. Le balayage conique présente en outre l'avantage d'une résolution
constante sur l'ensemble de l'image.
Par contre, en balayage conique, avec l'angle d'incidence choisi, le champ de vision n'atteint
normalement pas l'horizon. Par exemple, la fauchée d'un instrument à une altitude orbitale de
988 PARTIE III. OBSERVATIONS SPATIALES
Orbite du satellite
Direction
de vol Vue vers l'arrière
Empreintes
45°
Largeur de fauchée Direction
de vol
Vue vers
l'avant
800 km est d'environ 1 600 km pour un angle zénithal typique de 53°, ce qui est optimal pour
tirer le meilleur parti de la polarisation différentielle en hyperfréquences, tandis que la fauchée
d'un instrument de balayage transverse atteint près de 3 000 km, en supposant un angle zénithal
de ±70°, comme indiqué au tableau 2.1 du chapitre 2 de la partie III.
La fauchée est une caractéristique importante des instruments en orbite basse puisqu'elle
détermine le cycle d'observation. D’après le tableau 2.2 du chapitre 2 de la partie III, pour une
orbite héliosynchrone à 800 km d'altitude, un instrument dont la fauchée atteint au moins
2 800 km permet d'assurer une couverture mondiale en une journée pour les mesures effectuées
de jour seulement (par exemple, capteurs à ondes courtes (SW)), ou deux couvertures mondiales
par jour pour les mesures effectuées de jour et de nuit (par exemple, capteurs à infrarouge ou
à hyperfréquences). Les instruments à balayage conique hyperfréquences permettent en règle
générale d'assurer une couverture mondiale par jour.
On peut estimer par simple calcul l'ordre de grandeur du cycle d'observation (Δt, en jours).
Compte tenu de la distance parcourue à l'équateur (~40 000 km) et du nombre d'orbites
effectuées par jour (~14,2), et en supposant qu'il n'y a pas de chevauchement important des
fauchées à l'équateur, le calcul est le suivant:
a) Pour les capteurs fonctionnant jour et nuit (IR ou MW) en phases ascendante et
descendante: Δt = 1 400/fauchée (c'est‑à‑dire, pour un scanner conique hyperfréquences à
fauchée de 1 400 km: Δt = 1 jour);
b) Pour les capteurs fonctionnant de jour uniquement (SW) avec un seul passage par période
orbitale: Δt = 2 800/fauchée (c'est‑à‑dire, pour un instrument d'observation de la Terre en
lumière visible à fauchée de 180 km: Δt = 16 jours).
Le concept de fauchée n'est pas applicable pour les instruments qui, comme les altimètres ou les
radars de détection des nuages, n'effectuent pas de balayage transverse. Dans ce cas, l'intervalle
d'échantillonnage transversal Δx à l'équateur remplace la «fauchée» dans la relation ci‑dessus. Il
est aussi utile d'estimer la moyenne mondiale de cet intervalle d'échantillonnage, qui est défini
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 989
par un rapport légèrement différent à cause de la distance plus courte qui sépare les orbites aux
latitudes plus élevées:
a) À un intervalle moyen d'échantillonnage transversal Δx, le temps qui est d'ordinaire requis
pour assurer une couverture mondiale s'établit comme suit:
i) Δt = 900/Δx pour les capteurs fonctionnant jour et nuit (par exemple, l’altimètre radar
(RA‑2) du satellite d'étude de l'environnement Envisat: Δx = 26 km, Δt = 35 jours);
ii) Δt = 1 800/Δx pour les capteurs fonctionnant de jour uniquement (par exemple,
le détecteur de rayonnements solaires rétrodiffusés (SBUV) de l’Administration
américaine pour les océans et l'atmosphère (NOAA)): Δx = 170 km: Δt = 11 jours).
i) Δx = 900/Δt pour les capteurs fonctionnant jour et nuit (par exemple, l’altimètre
Jason (réseau conjoint d’océanographie et d’altimétrie par satellite)): Δt = 10 jours,
Δx = 90 km);
ii) Δx = 1 800/Δt pour les capteurs fonctionnant de jour uniquement (par exemple,
NOAA SBUV: Δt = 5 jours, Δx = 360 km).
Les limbosondeurs sont généralement considérés comme des instruments non balayeurs dans
le sens transversal. Si on suppose un intervalle d'échantillonnage transversal Δx = 300 km, qui
correspond à la résolution horizontale des mesures, les rapports établis ci‑dessus donnent les
cycles d'observation suivants:
a) Δt ≈ 3 jours pour les capteurs fonctionnant jour et nuit (par exemple, MIPAS sur Envisat,
3 jours = 1 sous‑cycle orbital);
Pour les instruments qui fournissent des observations clairsemées, mais bien réparties, on
peut estimer le cycle de couverture ou l'échantillonnage moyen en comparant le nombre
d'événements et leur résolution à la surface terrestre à couvrir. Dans le cas d'occultation radio
avec GPS et GLONASS, chaque satellite est en mesure de fournir environ 1 000 observations par
jour, avec une résolution typique de 300 km, pour une superficie terrestre totale de 510 millions
de km2; c'est ainsi qu'on obtient:
b) Nombre de satellites requis pour un cycle d'observation Δt: N = 5,7/Δt (par exemple, pour
Δt = 0,5 jour, le nombre de satellites requis est de près de 12).
Les instruments d'occultation (du Soleil, de la Lune ou des étoiles) présentent un cas extrême.
L'occultation du Soleil ou de la Lune fournit très peu de mesures par jour, et seulement aux
hautes altitudes du terminateur (occultation solaire) ou à des latitudes quelque peu plus basses
(occultation lunaire). L'occultation stellaire peut fournir plusieurs dizaines de mesures par jour
(par exemple, 40 dans le cas de la surveillance mondiale de l'ozone par occultation d'étoiles
(GOMOS) sur Envisat), également réparties en fonction de la latitude.
Le domaine spectral compte aussi parmi les caractéristiques principales des instruments
d'observation. Comme cela est indiqué dans la section 2.2 du chapitre 2 de la partie III, il
détermine les propriétés des corps, y compris la réflectance, la température et les propriétés
990 PARTIE III. OBSERVATIONS SPATIALES
diélectriques, qu'il est possible d'observer. Le domaine spectral comporte par ailleurs diverses
fenêtres et bandes d'absorption principalement utilisées pour la mesure des corps condensés et
des gaz, respectivement.
Le domaine spectral peut être plus ou moins étroit, selon les effets que l'on souhaite mettre en
évidence ou les facteurs de perturbation qui ont besoin d'être supprimés. On appelle «canaux»
les subdivisions d'une bande ou d'une fenêtre couvertes par un instrument. Leur nombre
dépend du nombre d'éléments indépendants d'informations que l'on souhaite extraire d'une
bande donnée. Si un nombre limité de canaux bien distincts s'avère suffisant, l'instrument choisi
pourra n'inclure que ces canaux; il s'agira alors d'un radiomètre. Si le contenu informatif évolue
rapidement avec la fréquence dans le domaine spectral au point où les canaux doivent être
contigus, l'instrument s'appellera un spectromètre.
La technique retenue pour assurer la séparation des canaux, ou la séparation des sous‑domaines
du spectromètre, constitue une caractéristique majeure de l'instrument. Il existe essentiellement
deux moyens de séparer physiquement deux canaux entre des détecteurs individuels (ou des
barrettes de détecteurs) et les systèmes de filtrage y afférents. Le faisceau peut d'abord être
dirigé sur un diaphragme de champ, pour être ensuite séparé en deux bandes par un miroir
dichroïque. Cette option présente l'avantage de garantir le co‑enregistrement, car les deux
canaux voient le même champ de vision (qui peut être constitué d'une série de champs de
vision instantanés (IFOV)). Cependant, si les deux longueurs d'onde sont trop proches l'une de
l'autre (par exemple, fenêtre dédoublée), un miroir dichroïque ne parviendra pas à les séparer
suffisamment. La deuxième solution consiste à laisser le faisceau entier produire l'image dans le
plan focal, et à installer des détecteurs (ou des barrettes de détecteurs) munis de filtres différents
(qui définissent ainsi des canaux différents) dans des parties différentes du plan focal (séparation
dans le champ). Cette solution est beaucoup plus simple, mais, comme chaque canal voit un
IFOV différent, des problèmes de co‑enregistrement peuvent survenir. Des solutions combinées
sont possibles: la figure 3.4 illustre la solution retenue pour l'imageur SEVIRI, sur satellite
Meteosat de deuxième génération, pour séparer les huit canaux IR, à chacun de ces canaux étant
associés trois détecteurs. Les barrettes de détecteurs actuelles sont beaucoup plus grandes que
par le passé, ce qui rend la séparation dans le champ beaucoup plus pratique.
7,3 µm
IFOV A
13,4 µm
6,2 µm
Amont du système optique
et diaphragme de champ
IFOV B
9,7 µm
8,7 µm
IFOV C
12,0 µm
3,8 µm
IFOV D
10,8 µm
également les spectromètres à réseau de diffraction et les interféromètres; les plus communs
étant les interféromètres de Michelson et de Fabry‑Pérot. La figure 3.5 illustre la configuration
d'un interféromètre de Michelson.
La résolution spectrale est une caractéristique importante d’un spectromètre. La résolution d’un
interféromètre de Michelson est déterminée par la longueur maximale de la différence de chemin
optique (OPD) entre les rayons réfléchis par les miroirs fixe et mobile. S'agissant de la résolution
non apodisée, la formule est:
∆ν = 1 OPD max (3.1)
Par exemple, pour l’interféromètre IASI, embarqué sur les satellites météorologiques
opérationnels (Metop), le déplacement du miroir mobile est de ±2 cm; ainsi, OPDmax = 4 cm et
Δν = 0,25 cm‑1. Si une analyse fine du spectre est requise (par exemple, pour détecter des raies
de gaz à l'état de traces), une apodisation qui requiert un facteur de ∼2 devient nécessaire, et la
résolution apodisée est donc Δν = 0,5 cm‑1.
Dans le cas d’un radiomètre, le nombre de canaux et leurs largeurs de bandes jouent un rôle
équivalent à celui de la résolution spectrale du spectromètre.
Miroir fixe
Diviseur
Port d'entrée 1 de faisceau
SCÈNE
Miroir
mobile
Port de sortie 1
Figure 3.5. Configuration d'un interféromètre de Michelson montrant les deux ports d'entrée
et les deux ports de sortie
992 PARTIE III. OBSERVATIONS SPATIALES
L'IFOV définit probablement le mieux ce qu'on entend communément par résolution. Dans les
instruments optiques (par exemple, à ondes courtes ou à infrarouge), il est déterminé par la
largeur du faisceau et par la taille du détecteur. En hyperfréquences, il est déterminé par la taille
de l'antenne.
Dans les systèmes optiques, la taille de l'IFOV est déterminée principalement en tenant compte
de considérations énergétiques (voir la section 3.1.4). L’IFOV peut être déterminé par la forme
du détecteur, et bien que cette dernière puisse être carrée, son contour n'est pas excessivement
net. En fait, l'image d'un point est une figure de diffraction appelée «fonction d'étalement»
(figure 3.6). L'IFOV est la convolution de la fonction d'étalement du point avec la réponse
spatiale du détecteur.
La quantité d'énergie captée par le détecteur est également déterminée par le temps
d'intégration entre les lectures successives du signal. Pendant le balayage de l'image, la
position de la ligne de mire varie d'une valeur appelée «distance d'échantillonnage». Lorsqu'il
est porté sur un graphique 2D rastérisé, un pixel (élément d'image) se présente comme une
série d'éléments rectangulaires. Dans la direction de l'abscisse, ils correspondent à la distance
d'échantillonnage, et dans la direction de l'ordonnée, au déplacement du satellite pendant le
temps écoulé d'une ligne à la suivante (ou au mouvement pas‑à‑pas dans le sens nord‑sud dans
le cas des satellites GEO). Les utilisateurs confondent souvent le pixel avec la résolution étant
donné qu'ils peuvent percevoir directement la taille de l'élément d'image tandis que l'IFOV est
un paramètre technique invisible à leurs yeux. Toutefois, il est faux de penser qu'il est possible
d'améliorer la résolution en réduisant le temps d'intégration puisque ce dernier doit être suffisant
pour assurer une précision radiométrique appropriée (voir la section 3.1.4).
Des arbitrages sont nécessaires entre l'IFOV et la taille du pixel. Avec un imageur «parfait»,
l'échantillonnage est effectué de manière à ce que la distance d'échantillonnage soit égale
à la taille de l'IFOV, c'est‑à‑dire que les IFOV soient continus et contigus à travers l'image.
Sinon, l'image pourrait être suréchantillonnée (pixel < IFOV, c'est‑à‑dire chevauchement des
IFOV successifs) ou sous‑échantillonnée (pixel > IFOV, c'est‑à‑dire présence de discontinuités
entre les IFOV successifs). Le suréchantillonnage est un moyen efficace de réduire les effets du
repliement de spectre (c'est‑à‑dire l'accentuation indue des hautes fréquences spatiales à cause
du recouvrement des spectres sur les bords). Le sous‑échantillonnage peut s'avérer necessaire
lorsqu'il convient de capter plus d'énergie pour veiller à atteindre la précision radiométrique
requise. Voici quelques exemples de rapports entre l'IFOV et le pixel:
a) AVHRR ‑IFOV: 1,1 km; pixel: 1,1 km dans le sens de la trace au sol, 0,80 km dans le sens du
balayage (suréchantillonnage);
b) SEVIRI ‑IFOV: 4,8 km; pixel: 3,0 km perpendiculairement à la direction du balayage et dans
le sens de ce dernier (suréchantillonnage).
( )
FTM fenêtre ( f ) = sinc(π ⋅ IFOV ⋅ f ), où f = 1 ( 2 ∆ x ) km −1 et sinc y =
sin y
y
(3.3)
On constate que pour Δx = IFOV, FTM = sinc (π/2) = 2/π. Ainsi, même pour un imageur «parfait»,
la valeur de la fonction de transfert de modulation est inférieure à l'unité. La valeur 2/π ≈ 0,64
correspond à l'aire sous une demi‑sinusoïde inscrite dans un carré. Le concept de la FTM doit
être considéré comme étroitement associé à la précision radiométrique: il détermine la longueur
d'onde spatiale à laquelle deux éléments sont résolus si leur rayonnement ne diffère que par
le minimum détectable. Deux éléments dont la différence de rayonnement est nettement plus
marquée que le minimum détectable peuvent être résolus même s'ils sont sensiblement plus
petits. Cependant, s'ils sont aussi petits que IFOV/2, alors FTM = 0 et ils ne pourront être résolus
(f = 1/IFOV est appelé «fréquence de coupure»).
Il est intéressant de noter comment la valeur de FTMfenêtre évolue en fonction des diverses
longueurs d'onde spatiales mesurées en termes d'IFOV (lorsque la longueur d'onde spatiale est
2 Δx]. À partir de l'équation 3.3, nous obtenons le tableau 3.1:
On constate que des éléments dont la taille n'est que de 2/3 de l'IFOV ne peuvent être résolus
que si leur luminance énergétique atteint une valeur plus de trois fois supérieure au minimum
détectable. De plus, les éléments deux fois plus grands que l'IFOV peuvent être résolus si leur
luminance énergétique dépasse de 10 % le minimum détectable.
L'autre contribution importante à la FTM est la diffraction. La relation se définit comme suit:
2 −1 f f f
FTM diffraction =
cos ( ) − 1 − ( )2 (3.4)
π fd fd f d
où f = 1/(2 ϑ H) (avec H = altitude du satellite); ϑ = résolution angulaire (c'est‑à‑dire IFOV/H);
fd = L/(λ H); L = ouverture du système optique primaire; et ainsi f/fd = λ/(2 ϑ L).
La diffraction domine lorsque la longueur d'onde λ est relativement grande (comme dans le
cas des hyperfréquences), que l'ouverture du système optique est relativement petite, ou que
l'altitude du satellite est relativement grande (comme dans le cas des satellites géostationnaires).
En résumé, le pouvoir de résolution dépend d'au moins trois paramètres. Ces paramètres
devraient être pris dans leur contexte, mais ils sont chacun étroitement associés à une perception
différente:
Bien qu'à peine perceptible par l'utilisateur, la résolution radiométrique est une caractéristique
essentielle de la conception des instruments. Les mécanismes de balayage, la résolution
spectrale, la résolution spatiale, le temps d'intégration et les ouvertures du système optique sont
tous définis de manière à répondre aux exigences de résolution radiométrique. Cette résolution
correspond à la différence minimale de luminance énergétique requise pour distinguer deux
objets dans deux IFOV adjacents. La différence observée combine la différence véritable de
luminance énergétique entre les deux corps (signal) et la différence observée lorsque les
contenus des IFOV sont identiques (bruit). Le rapport signal‑bruit (SNR) représente une façon
d'exprimer la résolution radiométrique.
En règle générale, si I(ν) = luminance énergétique spectrale à l'entrée (unité: W m–2 sr –1 [cm–1]–1),
on obtient:
SNR = I (ν ) NESR (3.7)
Pour les ondes courtes, la luminance énergétique à l'entrée est la luminance énergétique
spectrale du Soleil corrigée pour tenir compte de l'angle d'incidence et réfléchie en fonction de la
réflectivité du corps (ou l'albédo, si le corps peut être approximativement assimilé à un diffuseur
lambertien). Les équations 3.6 et 3.7 donnent:
SNR
∝L
IFOV ∆ν ⋅ t (3.8)
( pour une valeur particulière de la luminance énergétique à l'entrée I (ν ) ou de l'albédo ρ )
Cette relation établit un lien explicite entre les paramètres axés sur l'utilisateur, tels que le rapport
signal‑bruit, la résolution spectrale Δν, l'IFOV et le temps d'intégration t, et la taille du système
optique primaire L.
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 995
Pour les canaux IR à bande étroite, la résolution radiométrique est habituellement définie par la
formule suivante:
NESR
NE∆T = (3.9)
dB / dT
où B = fonction de Planck, et NEΔT = équivalent en bruit du différentiel de température à une
température T donnée.
Avec NEΔT, la formule de performance 3.6 peut être réécrite comme suit:
4H F
NE∆T ⋅ ∆ν ⋅ IFOV ⋅ t = ⋅ (3.10)
π ⋅ dB / dT L ⋅ D * ⋅τ
Le segment gauche de la formule 3.10 présente les paramètres axés sur l'utilisateur (résolutions
radiométrique, spectrale, horizontale et temporelle) tandis que le segment droit présente les
paramètres de calibrage de l'instrument (nombre F, ouverture, détectivité et transmissivité).
Cette formule n'est pas valide dans tous les cas, mais elle peut souvent s'avérer utile pour une
analyse approximative. Les exceptions à cette formule se produisent principalement lorsque le
détecteur constitue lui‑même la source dominante de bruit, ou lorsque son temps de réponse
n'est pas assez court par rapport au temps d'intégration disponible. Cette difficulté survient
d'ordinaire dans le domaine de l'infrarouge lointain, mais elle peut aussi se présenter avec des
longueurs d'onde plus courtes si, par exemple, on utilise des microbolomètres ou des détecteurs
thermiques pour pouvoir fonctionner à la température ambiante. Autrement dit, D*, qui dépend
évidemment de ν, peut être extrêmement dépendant du temps d'intégration disponible.
Dans le cas des canaux à large bande, le concept de NESR, tel que défini dans l'équation 3.6, doit
être redéfini en termes de bruit intégré sur l'ensemble du domaine spectral couvert par chaque
canal. Dans ce cas, il est aussi possible d'obtenir un rapport semblable à celui de la formule 3.10:
1
NE∆ R ⋅ IFOV ⋅ t ∝ (3.11)
L
où NEΔR = équivalent en bruit du différentiel de luminance énergétique (unité: W m–2 sr –1).
La situation est différente dans le domaine des hyperfréquences pour deux raisons.
Premièrement, à cause de la nécessité de limiter la taille de l'antenne, la loi de diffraction établit
un lien entre l'IFOV et l'ouverture du système optique L:
1, 24 ⋅ H ⋅ c
IFOV = (3.12)
L ⋅ν *
où ν* = fréquence = c/λ et c = vitesse de la lumière.
Ainsi, le choix des paramètres de rechange valides n'est pas aussi grand. Deuxièmement, le
mécanisme de détection est fondé sur une comparaison de la température de la scène à la
«température du système», laquelle augmente avec la largeur de bande. En conséquence,
l'équivalent des équations 3.8, 3.10 et 3.11 dans le domaine MW est:
Ce bref examen met en lumière l'incidence directe des exigences des utilisateurs et de la mission
sur les paramètres de calibrage d’un instrument. Il montre par ailleurs l'importance de formuler
996 PARTIE III. OBSERVATIONS SPATIALES
les besoins d'une manière qui laisse place à l'optimisation, sans nécessairement compromettre
la performance globale requise. S'agissant, par exemple, de l'équation 3.10, il est possible de
formuler un certain nombre de conclusions, à savoir:
b) L'effet des valeurs des paramètres NEΔT, Δν et IFOV sur la taille de l'instrument varie d'une
manière linéaire avec le diamètre du système optique L. L'effet de t (le temps d'intégration
déterminé par la nécessité de couvrir une superficie donnée dans un temps donné) est
amorti par la racine carrée de sa valeur. En conséquence, les exigences d'une couverture
élargie ou d'une augmentation de la fréquence des observations ont moins d'incidence que
les exigences d'une amélioration de la résolution spatiale, spectrale ou radiométrique;
c) L'augmentation de l'ouverture du système optique L a une très grande incidence sur la taille
de l'instrument. Comme il est très difficile d'utiliser des systèmes optiques à nombre F égal
à f/L < 1, l'augmentation de L nécessite l'augmentation de la distance focale, et donc une
augmentation de la taille de l'ensemble du système optique. Par exemple, une réduction de
l'IFOV de trois à deux kilomètres entraîne un doublement de la masse de l'instrument.
Dans la présente section, les instruments d'observation de la Terre sont classés en fonction de
leurs principales caractéristiques techniques. Nous examinons les catégories d'instruments
suivantes:
f) Limbosondeur;
j) Imageur d’éclairs;
l) Diffusomètre radar;
m) Altimètre radar;
o) Lidar spatial;
p) Capteur de gravité;
a) Fonctionnement dans les bandes VIS, NIR (proche infrarouge), SWIR (infrarouge à courte
longueur d'onde), MWIR (infrarouge de longueur d’onde moyenne) et TIR (infrarouge
thermique) (c'est‑à‑dire de 0,4 à 15 µm);
b) Canaux discrets, quelques‑uns à quelques dizaines, séparés par des dichroïques, des filtres
ou des spectromètres, à largeurs de bandes variant de ~10 nm à ~1 µm;
e) Utilisation possible tant sur les satellites à orbite basse que sur les satellites géostationnaires.
Selon les bandes spectrales exploitées, le nombre et la largeur de bande des canaux et la
résolution radiométrique, les applications peuvent appartenir aux domaines suivants:
a) Imagerie à usages multiples dans le visible et l’infrarouge pour l'analyse des nuages,
de la charge en aérosols, de la température de surface de la mer, de la couverture de
glaces de mer, des paramètres radiatifs de la surface terrestre, des indices de végétation,
des incendies et de l'enneigement. L'amplitude du domaine spectral constitue une
caractéristique essentielle de l’instrument.
c) Imagerie avec géométrie de visée spéciale, pour la meilleure observation des aérosols et des
cirrus, la mesure précise de la température de surface de la mer, la mesure des paramètres
radiatifs de la surface terrestre, y compris la fonction de distribution de la réflectance
bidirectionnelle. Le nombre d'angles de visée et, le cas échéant, de polarisations,
constituent les caractéristiques essentielles de l’instrument.
Les tableaux 3.2 à 3.6 décrivent trois exemples d'imageurs VIS/IR polyvalents (AVHRR/3 sur LEO,
MODIS sur LEO et SEVIRI sur GEO), un exemple d'imageur de la couleur de l'océan (MERIS) et un
exemple d'imageur à géométrie de visée spéciale (POLDER). Le MODIS, un spectroradiomètre
expérimental, joue un rôle particulier en tant qu'imageur à usages multiples dans le visible
998 PARTIE III. OBSERVATIONS SPATIALES
et l'infrarouge. Il est largement utilisé pour aider à définir les spécifications des instruments
d'exploitation et de suivi. Les principales utilisations de ses divers groupes de canaux sont
énumérées au tableau 3.3.
Tableau 3.2. Exemple d'imageur polyvalent VIS/IR fonctionnant sur orbite basse: AVHRR/3
sur NOAA et Metop
Mission Imagerie à usages multiples dans le visible et l’infrarouge, pour l'analyse des
nuages, de la charge en aérosols, de la température de surface de la mer, de la
couverture de glaces de mer, des paramètres radiatifs de la
surface terrestre, de l'indice différentiel normalisé de végétation, des
incendies, de l'enneigement, etc.
Principales 6 canaux (canaux 1,6 et 3,7 fonctionnant à temps partagé), domaines VIS, NIR,
caractéristiques SWIR, MWIR et TIR
Couverture/cycle Couverture mondiale deux fois par jour (canaux à grandes longueurs d'onde) ou
une fois par jour (canaux à courtes longueurs d'onde)
Ressources Masse: 33 kg
Puissance: 27 W
Débit des données: 621,3 kbps
Tableau 3.3. Exemple d'imageur VIS/IR polyvalent exploité sur orbite basse: MODIS sur
EOS‑Terra et EOS‑Aqua
Mission Imagerie à usages multiples dans le visible et l’infrarouge, pour l'analyse des nuages,
des propriétés des aérosols, de la
température de surface de la mer et des terres émergées, de la couverture de glaces
de mer, de la couleur de l'océan, des paramètres radiatifs de la surface terrestre, des
indices de végétation, des incendies, de l'enneigement, de l’ozone total, des données
de vent déduites du déplacement des nuages dans les régions polaires, etc.
Couverture/cycle Couverture quasi mondiale deux fois par jour (canaux à grandes longueurs d'onde) ou
une fois par jour (canaux à courtes longueurs d'onde)
Résolution (point IFOV: 250 m (2 canaux), 500 m (5 canaux), 1 000 m (29 canaux)
sous satellite)
0,469 µm 0,459–0,479 µm 243 à 35,3 W m–2 sr –1 µm–1 500 m Propriétés des terres
0,555 µm 0,545–0,565 µm 228 à 29,0 W m–2 sr –1 µm–1 500 m émergées/nuages/
1,240 µm 1,230–1,250 µm 74 à 5,4 W m–2 sr –1 µm–1 500 m aérosols
1,640 µm 1,628–1,652 µm 275 à 7,3 W m–2 sr –1 µm–1 500 m
2,130 µm 2,105–2,155 µm 110 à 1,0 W m–2 sr –1 µm–1 500 m
0,418 µm 0,405–0,420 µm 880 à 44,9 W m–2 sr –1 µm–1 1 000 m Couleur des océans,
0,443 µm 0,438–0,448 µm 838 à 41,9 W m–2 sr –1 µm–1 1 000 m phytoplancton,
0,488 µm 0,483–0,493 µm 802 à 32,1 W m–2 sr –1 µm–1 1 000 m biogéochimie
0,531 µm 0,526–0,536 µm 754 à 27,9 W m–2 sr –1 µm–1 1 000 m
0,551 µm 0,546–0,556 µm 750 à 21,0 W m–2 sr –1 µm–1 1 000 m
0,667 µm 0,662–0,672 µm 910 à 9,5 W m–2 sr –1 µm–1 1 000 m
0,678 µm 0,673–0,683 µm 1 087 à 8,7 W m–2 sr –1 µm–1 1 000 m
0,748 µm 0,743–0,753 µm 586 à 10,2 W m–2 sr –1 µm–1 1 000 m
0,870 µm 0,862–0,877 µm 516 à 6,2 W m–2 sr –1 µm–1 1 000 m
Tableau 3.4. Exemple d'imageur VIS/IR polyvalent exploité sur orbite géostationnaire: SEVIRI
sur Meteosat de deuxième génération
Mission Imagerie à usages multiples dans le visible et l’infrarouge, pour l'analyse des
nuages, de la charge en aérosols, de la température de surface de la mer, des
paramètres radiatifs de la surface terrestre, de l'indice différentiel normalisé de
végétation, des incendies, de l'enneigement, des données de vent déduites du
déplacement des nuages, etc.
Technique de Mécanique
balayage Rotation du satellite
En continu d'est en ouest
Pas à pas du sud au nord
Résolution (point IFOV de 4,8 km, échantillonnage sur 3 km pour 11 canaux étroits
sous satellite) IFOV de 1,6 km, échantillonnage sur 1 km pour 1 large canal VIS
Tableau 3.5. Exemple d'imageur de la couleur de l'océan exploité sur orbite basse: MERIS sur
Envisat
Longueur d'onde Largeur de bande SNR à luminance énergétique spectrale d'entrée indiquée
centrale
Tableau 3.6. Exemple d'imageur à géométrie de visée spéciale: POLDER sur PARASOL
Ressources Masse: 32 kg
Puissance: 50 W
Débit des données: 883 kbps
b) Longueurs d'onde dans les bandes VIS, NIR et SWIR (0,4 à 3 µm), avec extension possible
aux bandes MWIR et TIR;
ii) Trois à dix canaux multibandes, à largeur de bande d'environ 100 nm;
iii) Domaine spectral continu (hyperspectral), d'ordinaire avec 100 canaux à largeur de
bande d'environ 10 nm;
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1003
e) Utilisation en orbite basse. Utilisation en orbite géostationnaire non exclue mais pas encore
concrétisée.
Selon les bandes spectrales utilisées, le nombre et la largeur de bande des canaux et les capacités
d'orientation de la visée, les imageurs optiques haute résolution peuvent accomplir un certain
nombre de types de missions:
Les tableaux 3.7 à 3.9 décrivent un exemple d'imageur panchromatique (WV60), un exemple
d'imageur multibandes (ETM+) et un exemple d'imageur hyperspectral (Hyperion).
Tableau 3.7. Exemple d'imageur panchromatique haute résolution: WV60 sur WorldView‑1
Principales Panchromatique
caractéristiques Résolution: 0,5 m
Capacité d'orientation de la visée
Ouverture du télescope: 60 cm
Technique Longitudinale
de balayage Barrette de 35 000 détecteurs
Fauchée: 17,6 km, addressable par orientation du satellite selon
différents modes d'exploitation
Capacité stéréoscopique tant dans le sens de la trace au sol que dans
le sens transversal
Tableau 3.8. Exemple d'imageur multibandes haute résolution: ETM+ sur Landsat‑7
Technique Transversale
de balayage 6 000 pixels/ligne (bande étroite)
12 000 pixels/ligne (panchromatique)
3 000 pixels/ligne (TIR)
Fauchée: 185 km
Tableau 3.9. Exemple d'imageur hyperspectral haute résolution: Hyperion sur NMP EO‑1
Hyperion
Satellite NMP EO‑1 (Observation de la Terre dans le cadre du programme New
Millennium)
Technique Longitudinale
de balayage 250 pixels/ligne
Fauchée: 7,5 km
Hyperion
Résolution (point 30 m
sous satellite)
Ressources Masse: 49 kg
Puissance: 51 W
Débit des données: 105 Mbps
a) Longueurs d'onde dans les bandes UV, VIS, NIR et SWIR (0,2 à 3 µm);
Selon les bandes spectrales et la résolution utilisées, les sondeurs à ondes courtes à balayage
transversal peuvent être utilisés pour l'étude de la chimie de l'atmosphère, pour le contrôle d'un
certain nombre d'espèces. Leur usage est essentiellement déterminé par les bandes spectrales
exploitées:
b) UV et VIS: profil de l'ozone, profil total ou profil brut de quelques autres espèces, par
exemple: BrO, NO2, OClO, SO2 et aérosols;
c) UV, VIS et NIR: profil de l'ozone, profil total ou profil brut de plusieurs autres espèces, par
exemple: BrO, ClO, H2O, HCHO, NO, NO2, NO3, O2, O4, OClO, SO2 et aérosols;
d) UV, VIS, NIR et SWIR: profil de l'ozone, profil total ou profil brut de plusieurs autres espèces,
par exemple: BrO, CH4, ClO, CO, CO2, H2O, HCHO, N2O, NO, NO2, NO3, O2, O4, OClO, SO2 et
aérosols;
e) NIR et SWIR, avec ajout possible des bandes MWIR et TIR: profil total ou profil brut de
certaines espèces, par exemple: CH4, CO, CO2, H2O et O2.
Les tableaux 3.10 et 3.11 décrivent un exemple de sondeur à couverture spectrale complète
(SCIAMACHY‑nadir, sur LEO) et un exemple de sondeur à couverture spectrale réduite (UVN, sur
GEO).
1006 PARTIE III. OBSERVATIONS SPATIALES
Tableau 3.10. Exemple de sondeur à ondes courtes à balayage transversal exploité sur orbite
basse: SCIAMACHY‑nadir sur Envisat
Couverture/cycle Mode transverse: couverture mondiale tous les trois jours, de jour, si utilisation sans
interruption
Tableau 3.11. Exemple de sondeur à ondes courtes à balayage transversal exploité sur orbite
géostationnaire: UVN sur Meteosat troisième génération
Technique de Mécanique
balayage Stabilisation triaxiale
En continu d'est en ouest
Pas à pas du sud au nord
a) Longueurs d'onde dans les bandes MWIR et TIR (3‑15 µm), avec extension possible à la
bande FIR (jusqu'à 50 µm) et canaux auxiliaires dans le visible et le proche infrarouge;
b) Résolution spectrale de l'ordre de 0,1 cm–1 (très haute résolution), de 0,5 cm–1 (sondeur
hyperspectral) ou de 10 cm–1 (radiomètre);
Selon les bandes spectrales et la résolution utilisées, les sondeurs infrarouges à balayage
transversal peuvent servir à établir les profils de la température et de l'humidité de l'atmosphère
et/ou servir à l'étude de la chimie de l'atmosphère (profils d'un certain nombre d'espèces):
c) Les spectromètres à très haute résolution conçus spécialement pour l'analyse de la chimie
de l'atmosphère produisent des profils ou mesurent les colonnes totales de diverses
espèces: C 2H2, C 2H6, CFC‑11, CFC‑12, CH4, ClONO2, CO, CO2, COS, H2O, HNO3, N2O, N2O5,
NO, NO2, O3, PAN, SF6, SO2 et aérosols.
Les tableaux 3.12 à 3.14 décrivent trois exemples de ces instruments: un radiomètre en
orbite géostationnaire (sondeur sur satellite géostationnaire d'exploitation pour l'étude de
l'environnement (GOES)); un capteur hyperspectral sur orbite basse (IASI sur Metop) et un
spectromètre à très haute résolution en orbite basse (TES‑nadir sur EOS‑Aura).
Tableau 3.12. Exemple de sondeur radiométrique dans l'infrarouge à balayage transversal sur
orbite géostationnaire: Sondeur sur GOES
Sondeur GOES
Satellites GOES-8, GOES-9, GOES-10, GOES-11, GOES-12, GOES‑13, GOES‑14, GOES‑15
Technique de Mécanique
balayage Biaxiale
Stabilisation triaxiale
Balayage discontinu
Longueur d'onde Nombre d'ondes Largeur de bande SNR ou NEΔT à température indiquée
4,57 µm 2 188 cm –1
23 cm –1
0,20 K à 290 K
Sondeur GOES
3,98 µm 2 513 cm–1 40 cm–1 0,22 K à 290 K
Tableau 3.13. Exemple de capteur hyperspectral dans l'infrarouge à balayage transversal sur
orbite basse: IASI sur Metop
Domaine spectral (µm) Domaine spectral (cm –1) Résolution spectrale (non apodisée) NEΔT à température de
la scène indiquée
Tableau 3.14. Exemple de sondeur à très haute résolution dans l'infrarouge à balayage
transversal sur orbite basse: TES‑nadir sur EOS‑Aura
Principales Spectromètre
caractéristiques Résolution spectrale: 0,059 cm–1 (non apodisée)
Domaine spectral MWIR/TIR
Interféromètre imageur: quatre bandes; 40 540 canaux
Domaine spectral (µm) Domaine spectral (cm –1) Résolution spectrale NEΔT à température de la
(non apodisée) scène indiquée
d) Correction des effets de l'atmosphère aux fins des missions d'altimétrie. Caractéristiques
principales des instruments: fréquence de la bande d'absorption de la vapeur d'eau de
23 GHz et de ses fenêtres voisines, et visée nadir co‑centrée avec un altimètre.
Les tableaux 3.15 à 3.18 décrivent un radiomètre à usages multiples (AMSR‑E), un sondeur de
température et d'humidité (ATMS), un radiomètre à basses fréquences (MIRAS) et un radiomètre
à visée nadir (AMR).
Tableau 3.15. Exemple d'imageur hyperfréquences à usages multiples: AMSR‑E sur EOS‑Aqua
Tableau 3.18. Exemple de radiomètre hyperfréquences à visée nadir utilisé en altimétrie: AMR
sur JASON
Résolution 25 km
(point sous
satellite)
Ressources Masse: 27 kg
Puissance: 31 W
Débit des données: 100 bps
3.2.6 Limbosondeurs
b) Spectromètres utilisant les bandes UV/VIS/NIR/SWIR (200 à 3 000 nm), les bandes MWIR/
TIR (3 à 16 µm), ou les hautes fréquences de la gamme MW (100 à 3 000 GHz);
b) Spectromètres IR, pour un certain nombre d'espèces selon la portion du spectre couverte.
Pour la gamme entière (MWIR/TIR), les principales espèces sont les suivantes: C 2H2, C 2H6,
CFCs (CCl4, CF4, F11, F12, F22), CH4, ClONO2, CO, COF2, H2O, HNO3, HNO4, HOCl, N2O,
N2O5, NO, NO2, O3, OCS, SF6 et aérosols;
d) Sondeurs à occultation radio du Soleil, de la Lune ou des étoiles, pour un certain nombre
d'espèces, selon la portion du spectre couverte. Pour la gamme entière (UV/VIS/NIR/SWIR),
les principales espèces sont les suivantes: H2O, NO2, NO3, O3, OClO et aérosols.
Les tableaux 3.19 à 3.22 décrivent les limbosondeurs qui exploitent les ondes courtes
(SCIAMACHY‑limb), l'infrarouge (MIPAS), les hyperfréquences (MLS) et les ondes courtes
(occultation radio) (SAGE‑III ISS).
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1015
Tableau 3.19. Exemple de limbosondeur exploitant les ondes courtes: SCIAMACHY‑limb sur
Envisat
Couverture/ Utilisé sans interruption, le mode limbe procure une couverture mondiale tous les
cycle trois jours, de jour
Non utilisable pour l’occultation radio du Soleil ou de la Lune
Couverture/cycle Couverture mondiale tous les 3 jours pour une mesure par cellule de
300 km2 x 300 km2
Tableau 3.21. Exemple de limbosondeur exploitant les hyperfréquences: MLS sur EOS‑Aura
Couverture/cycle Couverture mondiale tous les trois jours pour cellules de 300 x 300 km
Tableau 3.22. Exemple de limbosondeur exploitant les ondes courtes en occultation radio:
SAGE‑III sur ISS
SAGE‑III ISS Expérience sur les aérosols et les gaz stratosphériques – III pour l'ISS
Satellite Station spatiale internationale (ISS)
SAGE‑III ISS Expérience sur les aérosols et les gaz stratosphériques – III pour l'ISS
Couverture/cycle Quelques dizaines d'événements par jour, limitée aux latitudes
inférieures à ~52° (inclinaison orbitale de l'ISS)
Ressources Masse: 76 kg
Puissance: 80 W
Débit des données: 115 kbps
c) Antennes directionnelles: orientées vers l'arrière (GNSS au coucher) ou vers l'avant (GNSS
au lever), et antenne toroïdale (pour la navigation);
d) Résolution spatiale effective aux environs de 300 km du satellite LEO au satellite GNSS en
occultation; quelques dizaines de kilomètres dans le sens transversal;
f) Soutien apporté par un système complexe de stations au sol (voir la figure 3.8);
Selon leurs caractéristiques particulières, les sondeurs à occultation radio du GNSS peuvent
produire divers types d'informations:
b) La sensibilité de mesure des couches de la basse atmosphère est déterminée par la taille des
antennes d'occultation et par la technique d'échantillonnage dans le temps;
Transmetteur GNSS
(Utilisé pour la poursuite
et les corrections d'horloge)
Transmetteur GNSS
(Utilisé pour la poursuite)
Trajectoires utilisées pour
la poursuite en orbite basse
Trajectoires utilisées pour
les corrections d'horloge
Trajectoires utilisées pour
les sondages
Station au sol
(Utilisée pour
la poursuite)
Transmetteur GNSS
(Utilisé pour la poursuite)
Le tableau 3.23 présente les principales caractéristiques d'un sondeur par occultation radio
(GRAS).
Tableau 3.23. Exemple de sondeur par occultation radio: GRAS sur Metop
Ressources Masse: 30 kg
Puissance: 30 W
Débit des données: 27 kbps
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1019
a) Longueurs d'onde dans les bandes de rayonnement total issu de la Terre et de l'atmosphère
(0,2‑300 µm) et de la fraction représentée par le rayonnement solaire réfléchi (0,2‑4,0 µm);
b) Un canal à large bande intégrant chacune des deux bandes, et canaux optionnels à bande
étroite dans le visible et/ou l'infrarouge thermique pour recueillir des informations sur les
nuages à l'intérieur du champ de vision instantané;
c) Balayage transverse avec échantillonnage continu et contigu, pour couvrir une fauchée de
quelques milliers de kilomètres avec une résolution spatiale de l'ordre de 10 km;
Les radiomètres à large bande sont conçus pour mesurer le bilan radiatif de la Terre, c'est‑à‑dire
le rayonnement ascendant de grandes et de courtes longueurs d'onde dans la couche supérieure
de l'atmosphère. La précision des instruments dépend de leurs caractéristiques particulières:
c) Canaux à bande étroite pour la collecte d'informations sur les nuages à l'intérieur du champ
de vision instantané.
Les tableaux 3.24 et 3.25 décrivent un exemple de radiomètre à large bande utilisé sur orbite
basse (CERES) et un autre utilisé sur orbite géostationnaire (GERB).
Tableau 3.24. Exemple de radiomètre à large bande utilisé sur orbite basse: CERES sur TRMM,
EOS‑Terra/Aqua, Suomi‑NPP et JPSS
Couverture/cycle Couverture mondiale deux fois par jour (infrarouge et rayonnement total) ou une fois
par jour (ondes courtes)
Résolution (point 20 km
sous satellite)
Tableau 3.25. Exemple de radiomètre à large bande utilisé sur orbite géostationnaire: GERB
sur Meteosat deuxième génération
Technique Direction nord sud: balayage longitudinal par une barrette de 256 détecteurs
de balayage Balayage d'est en ouest assuré par la rotation du satellite
Intégration sur 5 minutes pour répondre aux exigences relatives au rapport signal
bruit, et sur 15 minutes pour les besoins de synchronisation avec l'imageur SEVIRI
Résolution (point 42 km
sous satellite)
Ressources Masse: 25 kg
Puissance: 35 W
Débit des données: 50,6 kbps
Couverture/cycle 100 minutes: une mesure après l'intégration sur toutes les données
recueillies pendant la portion diurne de l'orbite
L'imagerie de la foudre fournit une indication indirecte utile des précipitations convectives et
de la turbulence, pour la surveillance du champ électrique terrestre, ainsi que de la production
de NOx. Des méthodes différentes d'échantillonnage sont utilisées sur orbites basses ou
géostationnaires:
a) À partir de satellites en orbite basse, les mesures sont effectuées pendant les intervalles de
déplacement du satellite au cours desquels un site donné est visible dans le champ de vision
de la matrice DCC (environ 90 secondes);
Les tableaux 3.27 et 3.28 décrivent un exemple d'imageur d'éclairs sur orbite basse (LIS) et un
sur orbite géostationnaire (GLM).
Tableau 3.27. Exemple d'imageur d'éclairs sur orbite basse: LIS sur TRMM
Principales Appareil DCC fonctionnant à 777,4 nm (O2) pour compter les éclairs
caractéristiques et mesurer leur intensité
Résolution 4 km
(point sous
satellite)
Ressources Masse: 21 kg
Puissance: 33 W
Débit des données: 6 kbps
Tableau 3.28. Exemple d'imageur d'éclairs sur orbite géostationnaire: GLM sur GOES
Principales Appareil DCC fonctionnant à 777,4 nm (O2) pour compter les éclairs
caractéristiques et mesurer leur intensité
Résolution 8 km
(point sous
satellite)
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1023
a) La bande Ku est propice à la mesure des fortes pluies (liquides, à gouttelettes pouvant
excéder 1 cm). Les nuages non précipitants (gouttelettes < 0,1 mm) sont entièrement
transparents, et les précipitations légères sont à peine détectées. À ces fréquences
relativement basses, le recours à la commutation électronique, nécessaire pour éviter les
mouvements mécaniques des grandes antennes, est relativement facile. Il est donc possible
de réaliser des fauchées relativement larges (plusieurs centaines de kilomètres).
b) La bande Ka sert à la mesure des pluies légères (de nuages stratiformes) et des chutes de
neige. La commutation électronique est toujours possible, et on peut réaliser des fauchées
de quelques centaines de kilomètres.
c) La bande W sert à l'observation des nuages non précipitants (gouttelettes < 0,1 mm).
Plusieurs études ont aussi fait état de son utilisation pour l'observation des systèmes de
nuages précipitants, en particulier à la frontière des nuages précipitants ou en cas de
non‑précipitation, y compris dans l'œil des cyclones tropicaux.
Les tableaux 3.29 et 3.30 décrivent un exemple de radar de détection des précipitations à double
fréquence (DPR) utilisant les bandes Ku et Ka, et un exemple de radar profileur de nuage (CPR, sur
CloudSat) utilisant la bande W.
Tableau 3.29. Exemple de radar de détection des précipitations: DPR sur GPM (missions de
mesure des précipitations à l'échelle du globe
Mission Profil vertical des fortes pluies (liquides), des pluies légères et des
chutes de neige
b) Étalonnage très précis pour la mesure des coefficients de rétrodiffusion (σ 0) des ondes
capillaires à la surface de la mer;
Deux concepts se distinguent principalement par le principe du balayage (voir la figure 3.9):
b) Balayage conique: exploite généralement la bande Ku, avec deux faisceaux et deux
polarisations. Il produit quatre mesures différentielles de σ 0.
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1025
Trace au sol
Faisceau extérieur
45°
Fauchée de gauche Fauchée de droite
Faisceau médian, Faisceau médian,
côté gauche côté droit
135°
550 km
500 km
Empreinte Faisceau
instantanée intérieur
de l'antenne
700 km
25 km 900 km
Trace du nadir
Figure 3.9. Deux concepts de diffusomètres à vues multiples: À gauche: six antennes pour
trois valeurs de σ = s avec angles azimutaux de 45°, 90° et 135° respectivement, à gauche et à
droite de la trace au sol (ASCAT sur Metop). À droite: balayage conique avec une antenne
utilisant deux faisceaux et deux polarisations, pour valeurs de σ = s avec quatre angles
azimutaux pour des fractions de surface dans le cercle intérieur (SeaWinds sur QuikSCAT).
Le concept ASCAT laisse une bande non couverte d'environ 700 km autour de la trace au sol.
Le concept SeaWinds ne laisse semble-t-il aucune surface non couverte, mais la précision dans
la portion intérieure de la fauchée, autour de la trace au sol, est faible.
Les tableaux 3.31 et 3.32 décrivent des diffusomètres radar utilisant le balayage longitudinal
(ASCAT) ou le balayage conique (SeaWinds).
Tableau 3.31. Exemple de diffusomètre radar à balayage longitudinal: ASCAT sur Metop
Technique Deux fauchées de 550 km, séparées par un corridor de 700 km le long
de balayage de la trace
Trois visées par pixel (angles azimutaux de 45°, 90° et 135°)
Tableau 3.32. Exemple de diffusomètre radar à balayage conique: SeaWinds sur QuikSCAT
SeaWinds
Satellite QuikSCAT (Mission rapide de diffusiométrie)
SeaWinds
Principales Bande Ku (13,4 GHz)
caractéristiques Balayage conique
2 faisceaux
2 polarisations
Technique Balayage conique: deux faisceaux; quatre vues de chaque point sous
de balayage des angles différents
Fauchée: 1 800 km
Les altimètres radars utilisent généralement la bande Ku, avec l'aide de la bande C pour la
correction de l'effet de la rotation du signal induite par l'ionosphère. Ils sont associés à un
radiomètre hyperfréquences à pointage au nadir pour la correction de l'effet de la vapeur d'eau.
Les mesures précises de télémétrie servent à la topographie océanique: l'analyse des échos
renseigne sur la hauteur significative des vagues tandis que les mesures de l'intensité fournissent
des informations sur la vitesse du vent.
Selon les caractéristiques de l'instrument et l'orbite du satellite, les altimètres peuvent être
optimisés pour servir à diverses fins:
a) Orbite relativement haute (par exemple, 1 336 km), non héliosynchrone, à inclinaison
assurant une grande stabilité (par exemple, 66°); convient particulièrement à l'étude du
solide terrestre (géoïde) et de la circulation océanique;
b) Traitement de type RSO (radar à synthèse d’ouverture) des échos de retour pour la synthèse
d'une meilleure résolution spatiale le long de la trace au sol (voir la figure 3.10);
d) Double fréquence (bandes C et Ku) fournissant des informations sur le contenu total
d'électrons entre le satellite et la surface terrestre.
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1027
Le tableau 3.33 présente les principales caractéristiques d'un altimètre radar produisant des
données de qualité géodésique (Poseidon‑3).
Ressources Masse: 70 kg
Puissance: 78 W
Débit des données: 22,5 kbps
a) Fréquences d'exploitation dans les bandes P (∼0,4 GHz), L (∼1,3 GHz), S (∼2,7 GHz), C
(∼5,3 GHz), X (∼9,6 GHz) ou Ku (∼17,2 GHz). Les bandes L, C et X sont les plus utilisées;
d) Visée latérale, généralement d'un côté, maintenant une haute résolution à l'intérieur d'un
champ de vision de plusieurs centaines de kilomètres;
La figure 3.11 illustre les modes de fonctionnement d'un radar à synthèse d'ouverture utilisant la
bande C (ASAR).
La fréquence d'exploitation est une caractéristique de premier plan optimisée pour l'utilisation
aux fins de laquelle un RSO est conçu:
d) La bande C sert à un large éventail de fins: glaces de mer, paramètres des vagues par
analyse spectrale de segments d'images, humidité du sol en surface, paramètres de
la neige, glaciers, eau souterraine, etc. Toutefois, il est possible d'observer chacun des
paramètres individuels dans des conditions optimales à d'autres fréquences;
n de vol
Directio
485 km
100 km
Vague
VV ou HH
Résolution < 30 m
405 km Polarisation alternante
5 km x 5 km
VV ou HH ou HH/HV
Image Vignettes
Résolution 30 m
Large fauchée VV ou HH (PRI-GEC)
VV ou HH Résolution < 30 m Largeur de fauchée
Surveillance à (PRI-GEC)
Résolution 150 m jusqu'à 100 km
l'échelle du globe Largeur de fauchée
Largeur de fauchée
VV ou HH jusqu'à 100 km
405 km
Résolution 1 000 m
Largeur de fauchée PRI = image de précision GEC = image géocodée
405 km
Figure 3.11. Modes de fonctionnement du radar à synthèse d'ouverture ASAR sur Envisat. En
modes surveillance à l'échelle du globe et large fauchée, une fauchée de 405 km est associée à
une résolution de 1 000 m ou de 150 m. En modes image et polarisation alternante, une
fauchée de 100 km avec résolution de 30 m peut être pointée sur une de sept positions
possibles à l'intérieur d'un champ de visée de 485 km. En mode vague, des vignettes de
5 km x 5 km à résolution de 30 m sont échantillonnées tous les 100 km
le long de la trace au sol.
CHAPITRE 3. INSTRUMENTS DE TÉLÉDÉTECTION 1029
e) La bande X donne la meilleure résolution spatiale, et est donc la plus appropriée pour la
surveillance;
f) La bande Ka est particulièrement propice à la mesure de la neige, qui est transparente aux
fréquences plus basses;
g) L'interférométrie des signaux provenant d'un RSO à des moments différents ou de deux
RSO volant en tandem permet de mesurer le modèle d'élévation numérique et de détecter
les changements de contours (par exemple, côtes et lacs) et d'élévation (par exemple,
sommet des volcans).
Le tableau 3.34 présente les principales caractéristiques d'un radar à synthèse d'ouverture
utilisant la bande C (ASAR).
Mission Observations concernant les glaces de mer, les paramètres des vagues par
analyse spectrale de segments d'images, l'humidité du sol en surface, les
paramètres de la neige, les glaciers, l'eau souterraine, etc.
Résolution (point sous 30 m à 1 km, selon le mode de fonctionnement (voir la partie inférieure du
satellite) présent tableau)
a) Longueurs d'onde opérationnelles dans l'UV (par exemple, 355 nm), le visible (par
exemple, 532 nm), le proche infrarouge (par exemple, 1 064 nm) ou l'infrarouge ondes
courtes (par exemple, 1 600 nm);
b) Possibilité de faire appel à deux longueurs d'onde, à deux récepteurs (pour la diffusion de
Mie ou de Rayleigh); polarimétrie;
Un lidar spatial est un instrument volumineux qui doit être optimisé pour l'usage précis auquel il
est destiné:
a) Les systèmes lidars Doppler fonctionnent généralement dans l'UV, pour la diffusion de Mie
ou de Rayleigh, pour l'observation des aérosols et des molécules d'air; la visée oblique est
utilisée pour la mesure du vent radial en air clair et des aérosols;
b) Les lidars de rétrodiffusion fonctionnent dans une (UV) ou deux (VIS et NIR) longueurs
d'onde, souvent avec plus de polarisations; la visée nadir est utilisée pour l'établissement
des profils des aérosols, la détermination de la hauteur du sommet des nuages et des
discontinuités atmosphériques, comme la hauteur du sommet de la couche limite planétaire
et de la tropopause;
c) Les altimètres lidar fonctionnent habituellement à deux longueurs d'onde (VIS et NIR);
visée nadir, résolution verticale très élevée (pour la mesure de l'élévation de la glace de
mer) et résolution horizontale (pour la détermination des lignes de démarcation des
glaces);
d) Le lidar à absorption différentielle fonctionne à une longueur d'onde centrée sur la crête
d'absorption d'un gaz à l'état de traces, dans l'ultraviolet, le visible, le proche infrarouge ou
l'infrarouge ondes courtes, et dans les fenêtres voisines; la visée nadir est utilisée pour les
observations à résolution verticale élevée de diverses espèces, par exemple: O3, H2O et CO2.
Les tableaux 3.35 à 3.38 décrivent un lidar Doppler (ALADIN), un lidar de rétrodiffusion
(CALIOP), un altimètre lidar (GLAS) et un lidar à absorption différentielle (lidar CO2).
Principales Une seule longueur d'onde (355 nm), visée latérale; 35° par rapport
caractéristiques au nadir
Laser à haute résolution spectrale pour la reconnaissance des types
d'aérosols
Tableau 3.38. Exemple de lidar à absorption différentielle: lidar CO2 sur ASCENDS
Lidar CO2
Satellite ASCENDS (Détection active des émissions de CO2 nocturnes,
journalières et saisonnières)
3.2.16 Gradiomètres/accéléromètres
L'activité solaire peut être surveillée par télédétection ou in situ, par l'observation du vent solaire
à partir de l'espace lointain et de l'orbite terrestre. Plusieurs types de mesures sont envisageables:
d) Les mesures peuvent être effectuées par intégration sur la totalité du disque solaire, par
imagerie du disque solaire, ou par imagerie de la couronne uniquement par occultation du
disque (coronographie);
e) Un des paramètres d'intérêt est l'éclairement énergétique solaire, soit total soit spectral
(voir la section 3.2.9).
b) Magnétomètres et électromètres.
On peut mesurer les champs magnétique et électrique in situ dans la magnétosphère au fil
du déplacement du satellite sur son orbite. Si l'orbite est très excentrique, elle traverse la
magnétosphère à différentes altitudes et produit ainsi des profils 3D. Les gradients des champs
sont observés plus efficacement à l'aide de plusieurs satellites en orbites coordonnées. On a
recours d'ordinaire aux instruments suivants:
Instruments SOHO
Satellite SOHO (Observatoire solaire et héliosphérique)
Instruments SOHO
Couverture/ Continue à partir du point de Lagrange L1
cycle
Ressources Masse: 17 kg
Puissance: 13,6 W
Débit des données: 16 kbps
Instruments Cluster
Satellites Cluster A, B, C et D (quatre satellites en orbites coordonnées)
Instruments Cluster
Technique 4 satellites traversant la magnétosphère sur des orbites très
de balayage elliptiques
Les mesures décrites au chapitre 2 de la partie III sont effectuées dans le cadre de programmes
satellitaires1 mis en œuvre par des agences spatiales dotées d'un mandat opérationnel répondant
aux besoins de collectivités particulières d'utilisateurs, ou d'un mandat prioritaire de recherche
et de développement. Outre les missions essentielles des satellites météorologiques en orbites
géostationnaires ou en orbites héliosynchrones quasi polaires, ces programmes remplissent des
missions environnementales axées sur des paramètres particuliers de l'atmosphère, l'observation
des océans, des glaces, des terres émergées et du solide terrestre ou la météorologie de
l'espace. Nombre de ces missions environnementales sont conçues et réalisées dans un
contexte de recherche ou de démonstration, mais certaines d'entre elles ont atteint leur
maturité opérationnelle et contribuent à l'observation en continu de diverses composantes
environnementales, en particulier lorsqu'elles ont été prolongées dans le temps et/ou qu'elles
débouchent sur un suivi opérationnel. On trouvera au chapitre 5 de la partie III de plus amples
informations sur les principes de mesure et sur les incertitudes qui entourent les variables
géophysiques.
Pour chaque type d'application, les missions satellitaires peuvent être considérées comme parties
intégrantes de constellations de satellites qui, dans beaucoup de cas, n’offrent leur plein potentiel
que lorsqu'elles sont exploitées d'une manière coordonnée, pour assurer ainsi une synergie entre
divers capteurs. Les opérateurs de satellites coordonnent leurs actions à l'échelle internationale
par le biais du Groupe de coordination pour les satellites météorologiques, qui a pour tâche
principale de veiller au bon fonctionnement des constellations de satellites de surveillance des
conditions météorologiques et du climat, et du Comité sur les satellites d'observation de la
Terre, qui a mis en place un ensemble de «constellations virtuelles» poursuivant des objectifs
thématiques précis (topographie de la surface de l'océan, précipitations, composition de
l'atmosphère, imagerie de la surface des terres émergées, vecteur vent à la surface des océans,
radiométrie de la couleur de l'océan, température de surface de la mer).
Le présent chapitre aborde tour à tour les principales catégories de missions suivantes:
b) Orbites héliosynchrones.
1
On trouvera des informations détaillées sur ces programmes dans la base de données en ligne de l'OMM sur les
capacités d'observation depuis l'espace, laquelle est régulièrement mise à jour.
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1039
c) Détermination des vents par l'observation des mouvements des nuages et des
caractéristiques de la vapeur d’eau (y compris l'établissement des profils de vent à partir de
la surveillance des profils de vapeur d'eau);
e) Variables de surface évoluant rapidement (température de surface de la mer dans les zones
côtières, incendies);
f) Ozone et autres gaz à l'état de traces affichant des variations diurnes ou découlant de
l'évolution des sources.
La fréquence requise des observations non polaires globales réalisées depuis les satellites
géostationnaires exige de recourir à six satellites régulièrement espacés (figure 4.1). Il convient
par ailleurs de prévoir des satellites de réserve en sus de ce minimum, aux fins de l'assistance
opérationnelle.
1040 PARTIE III. OBSERVATIONS SPATIALES
60° N
30° N
30° S
60° S
150° O 120° O 90° O 60° O 30° O 0 30° E 60° E 90° E 120° E 150° E
Figure 4.1. Couverture assurée par six satellites géostationnaires régulièrement espacés. Les
cercles sous‑tendent un angle géocentrique de 60°, considéré comme la limite pratique pour
les observations quantitatives (pour les observations qualitatives, les images s'étendent
au‑delà de ces limites). Toutes les latitudes comprises entre 55° S et 55° N sont couvertes.
Le tableau 4.1 répertorie les programmes d'exploitation qui sont convenus de contribuer à la
constellation de satellites météorologiques géostationnaires en 2012, et indique les positions
nominales des satellites. D'autres positions pourraient être utilisées temporairement, par
exemple en cas d'urgence.
L'orbite héliosynchrone autorise la couverture mondiale nécessaire à des applications telles que
la prévision numérique du temps, la météorologie polaire et la climatologie. Il est moins essentiel
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1041
dans ces cas de procéder à des échantillonnages très fréquents, et plus important en revanche de
pouvoir compter sur une couverture mondiale et une grande précision. Les satellites sur orbites
héliosynchrones servent principalement aux missions suivantes:
b) Observations des nuages aux hautes latitudes, en compléments des données recueillies par
les satellites géostationnaires;
d) Mesure des variables relatives à la surface (température de surface de la mer et des terres
émergées, indices de la végétation et de l'humidité du sol);
g) Mesure de l'ozone et des autres gaz à l'état de traces aux fins de la surveillance de
l'environnement et du climat.
Les orbites héliosynchrones et autres orbites basses permettent par ailleurs la télédétection active
dans le domaine des hyperfréquences (radar) et dans le domaine optique (lidar), ainsi que les
mesures au limbe dans la haute atmosphère.
On peut obtenir une couverture mondiale à intervalles d'environ quatre heures à l'aide de trois
satellites en orbites héliosynchrones coordonnées qui traversent l'équateur, par exemple à 5 h 30,
9 h 30 et 13 h 30 heure solaire locale, à condition que la fauchée soit suffisamment large et que
les mesures puissent être effectuées de jour comme de nuit (voir la figure 4.2).
Figure 4.2. Couverture obtenue avec trois satellites sur orbites héliosynchrones à 833 km
d'altitude, dont les heures de passage au‑dessus de l'équateur (ECT) sont régulièrement
espacées à 5 h 30 (d), 9 h 30 (d) et 13 h 30 (a). Pour les besoins des présents diagrammes, on
présume que tous les satellites traversent l'équateur à 1200 UTC. Les diagrammes
correspondent à une fenêtre de 3 heures et 23 minutes (soit deux orbites complètes pour
chaque satellite) centrée sur 1200 UTC. Trois largeurs de fauchée typiques sont considérées.
La mission d'imagerie VIS/IR obtient une couverture mondiale en près de trois heures.
La mission de sondage IR/MW obtient une couverture quasi complète aux latitudes
supérieures à 30 degrés. Pour obtenir une couverture mondiale en trois heures, la mission de
radiométrie hyperfréquences à balayage conique aurait besoin de huit satellites.
1042 PARTIE III. OBSERVATIONS SPATIALES
Le tableau 4.2 répertorie les programmes d'exploitation qui participaient, ou dont il était prévu
qu’ils participent, à la constellation de satellites météorologiques héliosynchrones en 2012.
4.2.1 Précipitations
Les précipitations constituent une variable météorologique de base, mais leur mesure exige
l'exploitation du domaine spectral des hyperfréquences à une résolution concordant avec
l'échelle du phénomène et à des fréquences assez basses, ce qui implique de recourir à
des instruments relativement gros. De plus, la relation qui existe entre le sondage passif
hyperfréquences et les précipitations n'est pas explicite. Seule la colonne totale de précipitations
peut être mesurée, et ce dans un nombre limité de canaux. Le problème d'extraction est très mal
conditionné et exige de recourir à la modélisation de la structure verticale des nuages, laquelle
ne peut être observée que par radar. La mission de mesure des pluies tropicales (TRMM, lancée
en 1997), qui utilise des détecteurs passifs et actifs à hyperfréquences, a conduit à la mise au
point d'algorithmes qui ont permis de faire bien meilleur usage des mesures passives.
L'occultation radio des satellites du Système mondial de navigation par satellite (GNSS) est une
technique très efficace d'établissement de profils de la température et de l'humidité présentant
une résolution verticale impossible à obtenir à l'aide d'instruments à visée nadir. Cependant, la
mise en place des systèmes d'exploitation requis progresse lentement. Une des difficultés est que
la charge utile, en dépit d'une masse, d'une puissance et d'un débit de données réduits (voir par
exemple la description du récepteur GNSS pour sondages atmosphériques dans le tableau 3.23
de la section 3.2.7 du chapitre 3 de la partie III), impose des contraintes volumétriques à la
plate‑forme (deux grandes antennes d'environ 0,5 m2 exigeant une vue dégagée vers l'avant et
vers l'arrière). Une autre difficulté est due au fait que cette technique exige un nombre important
de satellites placés sur des orbites différentes.
Le concept de l'occultation radio a été démontré dans l'espace en 1995 par le système mondial
de localisation/météorologie (GPS/MET) embarqué sur MicroLab‑1. Depuis, la mise en place
d'une constellation de récepteurs d'occultation radio a été encouragée, d'abord pour des fins
climatologiques, afin d'obtenir des mesures «absolues» comparables en tout temps pour la
détection des tendances du climat, et ensuite aux fins des sondages de prévision numérique du
temps à haute résolution et des mesures de référence absolue requises pour la correction des
erreurs systématiques des autres systèmes de sondages.
L'occultation radio est un événement peu fréquent. En exploitant une constellation GNSS et
en tirant parti des occultations ascendantes et descendantes, on peut compter sur environ 500
de ces événements par jour. Outre les systèmes GPS et GLONASS en service depuis longtemps,
une troisième constellation appelée «Compass» («Beidou» en chinois) est désormais exploitée
par la Chine, et une quatrième, «Galileo», est en voie d'être mise en service par la Commission
européenne (CE) et l'Agence spatiale européenne (ESA). Le nombre d'occultations par jour
et par satellite passe à 1 000 lorsqu'on exploite deux constellations, et à 1 500 lorsque trois
constellations sont utilisées en vues vers l'avant et vers l'arrière. On a estimé que pour assurer
une couverture mondiale avec un échantillonnage moyen de 300 km toutes les 12 heures, il serait
nécessaire de déployer au moins 12 satellites sur des plans orbitaux convenablement répartis.
Une méthode très efficace consiste à utiliser des groupes de petits satellites spécialisés placés sur
orbite à l'aide d'un seul lanceur. La constellation de satellites pour l’étude du temps, du climat
et de l’ionosphère (COSMIC) compte six microsatellites, qui ont été lancés en même temps
puis répartis sur des orbites régulièrement espacées. Plusieurs satellites météorologiques sont
également équipés de récepteurs individuels d'occultation radio GNSS.
La constellation A-Train
Aqua
CloudSat
CALIPSO
Glory PARASOL
Aura OCO
La représentation des processus radiatifs dans l'atmosphère est une des limites de la prévision
numérique du temps et des modèles de la circulation générale. Les aérosols, le contenu des
nuages (en particulier, la glace), les flux radiatifs au sein de l'atmosphère (3D), auxquels
s'ajoutent ceux mesurés dans la couche supérieure de l'atmosphère et à la surface de la terre,
constituent les principaux facteurs responsables de ces processus. La mesure de certaines de ces
variables nécessite de recourir à de gros instruments (lidar, radar de nuages, etc.) impossibles à
embarquer sur les satellites météorologiques d'exploitation polyvalents, et dépend donc d'une
série spécifique d'instruments exploités dans le cadre de programmes opérationnels ou de
missions spéciales.
On s'est ensuite intéressé à l'effet de serre et à son rôle dans le réchauffement planétaire.
Enfin, l'attention s'est tournée vers la qualité de l'air et ses effets sur les conditions de vie dans
la biosphère. Selon l'objectif poursuivi, les instruments utilisés peuvent être assez simples
(par exemple, pour l'étude de la colonne totale d'une seule ou de quelques espèces) ou très
complexes (par exemple, pour l'établissement des profils verticaux de familles d'espèces).
a) Sur les satellites météorologiques, les capteurs hyperspectraux infrarouges (IR) conçus
principalement pour les sondages de la température et de l'humidité participent à
l'observation de la chimie de l'atmosphère, mais leur performance en matière d'analyse
chimique se limite aux colonnes totales de quelques espèces de gaz à effet de serre. Les
instruments à ondes courtes (SW) sont principalement conçus pour l'étude de l'ozone et
de quelques autres espèces dans les domaines du rayonnement ultraviolet (UV) et visible
(VIS);
L'absence de sondages au limbe sur les futurs satellites compromet l'observation de la haute
atmosphère.
La collecte de données sur le vent déduites du déplacement des nuages et d'autres types
de phénomènes atmosphériques compte parmi les premières applications des satellites
géostationnaires. Ces satellites continuent encore aujourd'hui à produire chaque jour des milliers
de vecteurs vent. L'observation des nuages ou des structures de la vapeur d'eau ne permet
cependant d'obtenir des données de vent qu'à un seul niveau. Ce niveau dépend du traceur, et
la précision de sa mesure est limitée. Lorsqu'on travaille à grande échelle, les traceurs sont le plus
souvent dans la même gamme d'altitude, ce qui limite en pratique la résolution verticale à un ou
deux niveaux. La mise en place attendue de capteurs hyperspectraux sur orbites géostationnaires
permettra d'obtenir des profils fréquents de la vapeur d'eau et d'en définir la configuration à des
altitudes différentes, ainsi que d'obtenir une large résolution verticale en atmosphère claire. On
déduit aussi les vents à partir des mouvements atmosphériques sur les régions polaires en tirant
profit des passages fréquents des satellites en orbite polaire.
Diverses expériences ont été réalisées pour faire la démonstration de la surveillance des remous
atmosphériques, des aérosols et des molécules par lidar Doppler, un instrument qui permet
d'obtenir une très grande résolution verticale en atmosphère claire. La mission ADM (dynamique
de l’atmosphère)‑Aeolus utilise l'instrument laser Doppler d'observation de l'atmosphère
(ALADIN) pour réaliser ce genre d'études.
Les vents présentent aussi un intérêt dans l'étude de la stratosphère et de la mésosphère, où les
nuages et la vapeur d'eau ne présentent pas de configurations caractéristiques et où il n'existe
pas non plus de tourbillons de turbulence ni d'aérosols denses. La technique utilisée dans ce
1046 PARTIE III. OBSERVATIONS SPATIALES
cas consiste à mesurer le décalage Doppler de lignes étroites dans la bande de l'oxygène, aux
environs de 760 nm. Cette technique, démontrée à l'aide du satellite UARS, est utilisée par la
mission TIMED avec l'interféromètre Doppler TIDI.
Les satellites météorologiques servent à recueillir certaines observations sur les océans et
les glaces de mer depuis les tout débuts de l'ère spatiale. L'imagerie dans le visible, la toute
première application des satellites météorologiques, peut servir à la cartographie des glaces
de mer. L'imagerie dans l'infrarouge a ensuite permis de mesurer la température de surface
de la mer. L'imagerie hyperfréquences a élargi les capacités d'observation en permettant de
mesurer la température de surface de la mer et la couverture de glace dans toutes les conditions
météorologiques, en plus de pouvoir mesurer la vitesse des vents à la surface de la mer. Les
diffusomètres radars ont commencé à être mis en service en 1978. Les satellites météorologiques
d'exploitation continuent de fournir des données sur la température de surface de la mer, sur
la vitesse des vents à la surface de la mer et sur la couverture de glaces de mer. D'autres types
de mesures, y compris des variations altimétriques, de la couleur de l'océan, de la salinité et
des vagues, sont réalisés dans le cadre de programmes non météorologiques, parfois conçus
spécialement pour l'étude des océans et des glaces de mer.
Le tableau 4.4 répertorie les programmes satellitaires consacrés à l'étude des océans et des glaces
de mer.
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1047
Tableau 4.4. Programmes satellitaires consacrés à l'étude des océans et des glaces de mer
Les missions d'étude de la topographie de la surface de l’océan revêtent une grande importance
en océanographie puisqu'elles fournissent des informations sur la circulation océanique à grande
échelle, laquelle constitue une caractéristique océanographique importante et une composante
fondamentale du système climatique. La reconstruction de la topographie de l'océan exige en
outre une détermination exacte du géoïde, une information qui appartient au domaine du solide
terrestre.
La couleur est un paramètre d'une très grande utilité pour déduire l'état de santé de l'océan, son
degré de productivité et sa capacité d'interaction avec l'atmosphère (rôle en tant que puits de
CO2 par exemple). L'observation de la couleur de l'océan constitue donc une source essentielle
d'informations pour les opérations conduites en haute mer et dans les zones côtières, ainsi que
pour la climatologie.
Plusieurs satellites servent à l'observation de la couleur de l'océan. Certains sont des satellites
météorologiques d'exploitation, et l'un d'eux est placé sur orbite géostationnaire (voir le
tableau 4.4).
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1049
La mesure des vents à la surface de la mer est fondamentale en océanographie puisque les
vents constituent le moteur du forçage atmosphérique et, partant, des courants de surface,
et déterminent l'intensité des interactions air‑mer. Les vents de surface constituent en outre
évidemment une variable géophysique importante pour la prévision du temps puisque
leur mesure permet de calculer la pression à la surface, un paramètre impossible à mesurer
directement depuis l'espace. La mission météorologique opérationnelle compte donc plusieurs
instruments d'observation des vents. Le tableau 4.4 répertorie les missions portant sur les vents à
la surface de la mer et qui sont en mesure d'en déterminer la vitesse et la direction (diffusomètre
radar, en bande C et en mode de sondage longitudinal, ce qui implique le balayage d'une
fauchée en visée verticale, ou dans la bande Ku avec balayage conique; et radiomètres
polarimétriques passifs hyperfréquences). D'autres radiomètres passifs hyperfréquences qui
peuvent contribuer à la mesure de la vitesse des vents ne sont mentionnés que pour les imageurs
hyperfréquences polyvalents munis de grandes antennes.
4.3.5 Vagues
L'observation des vagues est importante pour les opérations en haute mer, et plus encore
dans les zones côtières. Elle est aussi importante en climatologie des zones côtières.
Malheureusement, il est difficile d'observer les vagues depuis l'espace puisque leur mesure
directe à l'aide de l'altimètre radar ne fournit que la hauteur significative des vagues le long de la
trace au sol. Le tableau 4.4 répertorie les missions altimétriques.
On peut observer le champ des vagues en 2D par analyse spectrale ou par imagerie RSO (d’un
radar à synthèse d'ouverture). Toute vignette d'une image RSO pourrait en principe être traitée
pour fournir la direction et la période dominantes des vagues, ainsi que la répartition de l'énergie
des vagues en fonction de la fréquence et de la direction (spectre directionnel). En pratique,
les vignettes sont échantillonnées par intervalles sur l'ensemble de l'orbite, et stockées à bord
puisque le débit des données est plutôt faible. Le radar à synthèse d'ouverture de pointe du
satellite Envisat (ASAR) effectue cette opération en mode vague.
Toutes les missions d'imagerie des satellites météorologiques opérationnels recueillent des
informations sur diverses variables géophysiques caractéristiques de la surface des terres:
Cependant, les instruments embarqués sur les satellites météorologiques d'exploitation sont
conçus principalement pour décrire les processus à l'interface surface‑atmosphère nécessaires
(et suffisants) pour l'analyse et les prévisions météorologiques, et pour faire en sorte que les
échelles spatio‑temporelles d'observation satisfassent aux besoins en matière de surveillance du
climat. La présente section met l'accent sur les programmes satellitaires d'observation des terres
émergées ayant principalement pour objectifs de mesurer des variables géophysiques comme la
couverture et l’utilisation des terres, la fraction des terres couvertes de végétation, les types de
végétation, la superficie des lacs et des glaciers, la topographie, et les paramètres de l'humidité
des sols et de la couverture de neige à petite échelle aux fins des études hydrologiques.
Ces applications nécessitent des résolutions spatiales de l'ordre de quelques mètres à quelques
dizaines de mètres, et exigent donc le recours aux bandes optiques (en particulier le visible) ou
à l'imagerie radar (RSO). L'imagerie optique haute résolution peut aussi servir aux opérations
relatives à la sécurité, y compris la surveillance des catastrophes et le contrôle du respect des
protocoles internationaux de protection de l'environnement.
L'observation des terres émergées a été la deuxième application spatiale, après la météorologie, à
conduire à la mise en place de programmes opérationnels. Le premier satellite d'observation des
terres émergées, initialement appelé ERTS (satellite de télédétection des ressources terrestres),
puis rebaptisé Landsat‑1, a été lancé par la NASA en juillet 1972. Depuis, d'autres agences
spatiales ont lancé des programmes d'observation des terres émergées présentant souvent un
volet opérationnel passablement important. Le tableau 4.5 répertorie les programmes dont
l'historique traduit un souci évident de continuité, ou qui sont conçus pour assurer la continuité à
long terme des observations.
Tableau 4.5. Programmes satellitaires d'observation des terres émergées conçus pour assurer
la continuité à long terme des observations
Objectif/nature
Acronyme Nom complet Responsable
du programme
Amazônia Satellite Amazônia INPE Surveillance de la végétation
Objectif/nature
Acronyme Nom complet Responsable
du programme
GeoEye Satellite GeoEye GeoEye Programme commercial
Figure 4.5. Concept de la constellation de surveillance des catastrophes, fondé sur cinq
satellites décalés chacun d'environ 20 minutes du précédent
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1053
Toutes les missions énumérées ci‑dessus concernant l'observation des terres émergées partagent
la même contrainte: les observations ne sont possibles qu'en l'absence de nuages. Dans la
plupart des cas, les observations de nuit sont également impossibles puisque les instruments
n'utilisent que le domaine spectral de la lumière visible. Lors de situations d'urgence, qui
nécessitent une haute résolution, il est très important de bénéficier de capacités de télédétection
en toutes conditions météorologiques. Seuls les radars à synthèse d'ouverture sont dotés de
telles capacités. Il y a actuellement plusieurs missions RSO, dont une grande partie est gérée dans
une perspective de continuité opérationnelle à long terme.
Le nombre de satellites RSO en orbite est important puisque les instruments RSO ont une
fauchée étroite et que leur utilisation pour la surveillance des catastrophes exige une haute
fréquence de passages. De plus, le principe du RSO ne s'applique qu'avec une seule fréquence
alors que les caractéristiques à observer affichent des «signatures» de fréquences diverses. La
mission SIR‑C/X‑SAR, effectuée deux fois depuis la navette spatiale américaine en avril et en
septembre 1994, a démontré les avantages d'une imagerie RSO utilisant simultanément les
bandes L, C et X (L et C fournies par la NASA, et X par le Centre aérospatial allemand (DLR) et
l’Agence spatiale italienne (ASI)).
Le tableau 4.7 répertorie toutes les missions, actuelles et prévues, équipées d'un RSO, regroupées
par bande de fréquences et par agence responsable.
Depuis les tout débuts des missions spatiales, les satellites ont servi à reconstruire la forme du
géoïde à partir d'orbites d'altitudes, d'inclinaisons et d'excentricités diverses. Ces missions
avaient au départ pour objectif principal de prêter assistance aux missions d'analyse, mais avec le
temps et au gré des progrès technologiques, elles ont graduellement évolué pour mettre l'accent
sur l'étude du solide terrestre lui‑même.
Les satellites d'étude du solide terrestre poursuivent les objectifs principaux suivants (voir la
figure 4.6):
a) Fournir une description très précise du géoïde, sur laquelle reposent diverses applications,
notamment la conversion des mesures des altimètres en données sur le niveau de la mer et
la topographie des océans. La technique la plus commune utilise l'altimétrie radar depuis
des orbites très stables et dont l'altitude est relativement élevée;
b) Déduire les caractéristiques dynamiques de la croûte terrestre en surveillant des sites locaux
depuis des satellites à orbites connues et stables. Les outils communément utilisés à cette
fin sont la télémétrie laser et les réseaux de récepteurs GPS au sol;
Lithosphère
Manteau
Mésophère
Noyau liquide
Noyau solide
d) Recueillir des informations sur les couches inférieures du globe (mésosphère inférieure,
noyau liquide, noyau solide) déduites à partir de l'observation de la magnétosphère par
mesures satellitaires des champs magnétiques et électriques.
a) Celles portant sur le géoïde et sur la position et les mouvement de la croûte terrestre
(géodésie spatiale);
Le tableau 4.8 répertorie les missions consacrées à l'étude du solide terrestre appartenant aux
deux catégories précitées.
a) Rétroréflecteurs laser servant à mesurer précisément la distance qui sépare le satellite d'une
source laser au sol et les variations de cette distance;
d) GNSS;
e) Système de poursuite des étoiles, utilisé pour la commande d'attitude du satellite, mais qui
sert également à une détermination précise de l'orbite.
Ces systèmes ont pour fonction principale d'aider à la détermination précise de l'orbite pour
les besoins des instruments utilisés aux fins de la mission satellitaire, les plus sensibles étant
les altimètres et les limbosondeurs. Les missions géodésiques tirent leur utilité de l'analyse
statistique des données. La présente section porte principalement sur l'application qui vise
l'objectif opposé: établir la position d'une station au sol en présumant que l'orbite du satellite
est précisément connue. C'est à cette fin que le Système international de référence terrestre pour
la géodésie spatiale a été mis sur pied afin de recueillir et d'analyser les données dans un certain
nombre de centres coordonnés. Ce système comprend quelques satellites dont l'objectif unique
est l'étude de la géodésie spatiale. Ces satellites sont répertoriés au tableau 4.8.
Malgré sa complexité, nous possédons désormais une représentation assez précise du géoïde.
Avec l'aide de modèles mathématiques utilisant les harmoniques sphériques, on obtient
désormais une précision de l'ordre du centimètre ou moins. La figure 4.7 illustre le géoïde tel que
nous le connaissons actuellement. On peut observer que, dans cette représentation, la surface
de la Terre ne correspond pas à un ellipsoïde régulier, bien que l'intervalle vertical de la hauteur
du géoïde soit de moins de 200 mètres. La régularité du géoïde subit les effets des ondulations
de diverses longueurs d'onde variant de plusieurs milliers à quelques centaines de kilomètres. Un
des objectifs consiste à associer ces anomalies à l'intérieur du globe, et surtout à la lithosphère,
en raison du rôle important qu'elle joue dans le volcanisme et les séismes.
Les missions conçues spécialement pour étudier l'intérieur de la terre exploitent les observations
de la gravité et de son gradient, qui sont représentatives des couches supérieures du globe
(lithosphère, manteau et partie supérieure de la mésosphère), et les champs magnétiques et
électriques, qui renseignent sur les couches inférieures (basse mésosphère, noyaux liquide et
solide) (voir la figure 4.6). Le tableau 4.8 répertorie les missions d'étude de l'intérieur de la Terre.
Bien que le concept de «météorologie de l'espace» soit relativement récent, les activités qui
s'y rapportent ont débuté dès l'avènement de l'ère spatiale, si ce n’est avant, à cause des
graves incidences que peuvent avoir les phénomènes météorologiques spatiaux sur la sécurité
des satellites et des humains dans l'espace. La connaissance de l'environnement spatial et la
prévision de ses variations sont désormais devenues des conditions préalables à la viabilité à long
terme des activités conduites dans l'espace. On prend en outre de plus en plus conscience des
incidences que peuvent avoir les phénomènes météorologiques spatiaux sur les installations au
sol.
Des missions spatiales d'étude de la physique solaire sont conduites depuis les tout débuts de
l'ère spatiale, à partir d'orbites dans l'espace lointain ou d'orbites terrestres.
Deux «sentinelles» du vent solaire, la mission conjointe SOHO de la NASA et de l'ESA et la mission
ACE (satellite perfectionné d'étude de la composition des particules solaires) de la NASA, ont été
lancées en 1995 et en 1998 respectivement. Ces satellites ont été placés au point de Lagrange L1
(à 1 % de la distance Terre‑Soleil); ils mesurent le vent solaire et le champ magnétique y afférent
environ une heure avant qu'ils n'atteignent la Terre. En 2006, en collaboration avec plusieurs
instituts scientifiques européens, la NASA a lancé la mission STEREO (mission d'étude des
éruptions solaires et de leurs effets sur l'environnement terrestre), conçue pour étudier les
éruptions solaires et leurs effets sur l'environnement terrestre. Les deux satellites de cette mission
se déplacent sur l'orbite de la Terre autour du Soleil et observent ce dernier depuis des positions
différentes pour obtenir une vue stéréoscopique des caractéristiques dynamiques des éjections
de matière coronale, en même temps qu'ils mesurent les caractéristiques locales du vent solaire
depuis leur position dans l'espace.
Plusieurs missions sur orbite terrestre utilisent aussi des instruments conçus pour surveiller
en continu l'activité solaire. Le tableau 4.9 répertorie les satellites qui surveillent l'activité
solaire depuis des positions dans l'espace lointain ou sur orbite terrestre. Certains satellites
météorologiques géostationnaires contribuent en outre déjà ou contribueront à l'avenir à la
surveillance du Soleil (GOES ou FY‑4).
1058 PARTIE III. OBSERVATIONS SPATIALES
Plus près de la surface terrestre (voir les figures 4.8 a) et 4.8 b)), la thermosphère et l'ionosphère
sont les couches où la météorologie spatiale se caractérise par une plus grande turbulence.
Le rayonnement électromagnétique solaire (ultraviolet et ultraviolet extrême) est la cause
principale de l'état d'ionisation de l'ionosphère, lequel est à son tour modulé par l'activité solaire.
L'ionosphère subit les effets des ondes, des tempêtes et des perturbations mobiles. L'interaction
avec les tempêtes magnétiques peut engendrer des particules haute énergie et des courants
électriques qui influeront sur les conditions de propagation des ondes radio. La cartographie
de la densité électronique dans la «région E» de l'ionosphère permet de déduire la conductivité
ionosphérique et les courants. Conjuguées aux données sur le champ magnétique, ces
informations permettent de distinguer les composantes internes du champ magnétique (dues au
solide terrestre) des composantes externes. Les irrégularités de petite échelle et les tourbillons de
l'ionosphère peuvent causer une dispersion des ondes radio (scintillation) qui nuit à la fiabilité
des liaisons radio traversant l'ionosphère.
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1059
a)
Exosphère b)
600 km
Ionosphère 300 F2
Thermosphère F
300 km F F1
Altitude (km)
200
E E
E
85 km 100 D
Mésosphère
45 km
Stratosphère 0
12 km
Troposphère Nuit Jour
300 600 900 1 200 1 500 104 105 106
Les missions consacrées à la magnétosphère ont une longue histoire. Les missions THEMIS
(déroulement des événements et des interactions à grande échelle au cours des sous‑orages) et
MMS constituent deux exemples actuels importants.
La mission THEMIS est consacrée à l'étude des sous‑orages géomagnétiques. Ses cinq petits
satellites lancés par la NASA en 2007 suivent des orbites fortement excentriques qui traversent la
magnétosphère à diverses altitudes (voir la figure 4.9) correspondant à des périodes variant de
0,8 à 4 jours.
Figure 4.9. Orbites des cinq satellites THEMIS dans la magnétosphère. L'éclair blanc
représente l'énergie dégagée par un sous‑orage magnétosphérique.
1060 PARTIE III. OBSERVATIONS SPATIALES
Figure 4.10. Les quatre satellites de la mission MMS volant en formation tétraédrique pour
capturer la structure 3D des sites de reconnexion rencontrés
La mission THEMIS mesure le champ magnétique, les champs électriques et les particules
chargées afin d'élucider les processus physiques dans l'espace proche de la terre qui engendrent
les éruptions violentes observées pendant les sous‑orages magnétosphériques. Le système
compte également un certain nombre de stations terrestres chargées de surveiller les aurores et
de mesurer le champ magnétique à la surface de la Terre.
La mission MMS mise au point par la NASA utilise une constellation de quatre satellites à orbites
fortement excentriques qui traversent la magnétosphère, comme les satellites de la mission
THEMIS (voir la figure 4.10). Elle utilise des analyseurs de plasma, des détecteurs de particules
énergétiques, des magnétomètres et des instruments de mesure du champ électrique pour
étudier la microphysique de la reconnexion magnétique, le facteur déterminant ultime de la
météorologie spatiale. Le tableau 4.10 répertorie un certain nombre de missions consacrées
précisément à l'étude de la magnétosphère.
La section 4.5 décrit un certain nombre de missions utilisant des satellites sur orbites basses qui
sont aussi dotés d'instruments pour l'étude de la magnétosphère:
Grâce à l'avènement du sondage par occultation radio, le profil de densité électronique dans
l'ionosphère est devenu la meilleure variable géophysique mesurable en météorologie spatiale.
Le signal émis par les satellites de navigation (GPS, GLONASS, Compass, Galileo) est modifié par
la rotation du champ électrique et par le délai induit par l'ionosphère. Pour corriger ces effets,
CHAPITRE 4. PROGRAMMES SATELLITAIRES 1061
Tableau 4.10. Liste non exhaustive de missions dont les satellites traversent la magnétosphère
IMAGE (ou Satellite IMAGE (Imager for NASA Orbite polaire fortement excentrique
Explorer 78) Magnetopause‑to‑Aurora
Global Exploration)
VAP Mission Van Allen Probe NASA Orbites fortement elliptiques, à faible
(2 sat.) (anciennement RBSP) inclinaison, traversant les ceintures de
d'étude des ceintures de rayonnement
rayonnement de Van Allen
1062 PARTIE III. OBSERVATIONS SPATIALES
deux fréquences au moins sont utilisées (on a désormais tendance à en utiliser trois): ~1 180 GHz,
~1 580 GHz et, parfois, ~1 250 GHz. La différenciation des deux (ou trois) signaux permet
d'obtenir des informations sur:
Le CTE, bien qu'il soit intégré le long de la trace, est mesuré à différentes altitudes tangentes;
il est donc possible de reconstruire le profil vertical par tomographie. Plusieurs instruments de
mesure par occultation radio sont embarqués tant sur des satellites polyvalents que sur des
satellites spécialisés (par exemple, la constellation COSMIC).
Les altimètres radars permettent également de mesurer le CTE en exploitant deux fréquences:
généralement ~13,5 et ~5,3 GHz. La couverture est cependant limitée au nadir et la tomographie
n'est pas possible. Cependant, comme les missions d'altimétrie utilisent souvent des orbites à
haute altitude (par exemple, 1 336 km dans le cas des satellites JASON), les mesures incluent
la portion inférieure de la plasmasphère (couche surplombant la thermosphère, de ~1 000 à
~40 000 km d'altitude).
On peut également procéder à la mesure directe du CTE par analyse du délai de phase de deux
ou trois fréquences transmises par un satellite GNSS et captées par un satellite en orbite basse.
Dans ce cas, le CTE est mesuré le long de la trajectoire qui sépare le satellite GNSS (~20 000 km
d'altitude) du satellite en orbite basse (∼800 km d'altitude), c'est‑à‑dire dans la plasmasphère
moyenne. Le nombre de satellites GNSS disponibles est passablement élevé: ~24 pour le système
GPS, ~24 pour le système GLONASS, ~30 pour le Galileo, et ~35 pour le Compass, soit près de
110 satellites offrant une assez bonne couverture mondiale.
Le tableau 4.11 présente les informations utiles pour la surveillance des conditions
météorologiques dans l'espace recueillies par les séries de satellites météorologiques
d'exploitation. Les instruments utilisant l'occultation radio (voir la section 4.2.2) ne sont pas
mentionnés.
NOAA 15 à 19 SEM/2 pour la détection de l'énergie totale et de l’énergie moyenne des protons
Metop A, B
JPSS SEM pour le Système national de satellites sur orbite polaire pour l'étude de
l'environnement (NPOESS), comprenant un spectromètre pour la mesure des électrons
et des ions précipitants, un spectromètre pour la mesure des particules d'énergie
moyenne, et des détecteurs omnidirectionnels pour la mesure des particules de haute
énergie
DMSP F16 à SSIES: capteur spécial pour la mesure de la scintillation des ions et des électrons
S20 SSJ5: capteur spécial pour la spectrographie des électrons et des ions précipitants
SSM: magnétomètre (capteur spécial)
SSULI: imageur du limbe ultraviolet (capteur spécial)
SSUSI: imageur spectrographique ultraviolet (capteur spécial)
Page
Page
5.1 INTRODUCTION
Le présent chapitre donne un aperçu des variables géophysiques qu'il est possible d'observer
depuis l'espace ainsi que des résultats que l'on peut attendre des méthodes utilisées pour les
mesurer. Ces résultats sont estimés en tenant compte des principes physiques qui sous‑tendent
les méthodes de mesure et de l'état d'avancement des techniques d'instruments au moment de
la rédaction du présent document et dans un avenir prévisible. Des hypothèses sont formulées
pour fournir l'estimation qui soit la plus conforme à la réalité dans chaque cas. Les chiffres cités
ne sont pas nécessairement représentatifs de l'efficacité réelle d'un instrument particulier, mais
servent plutôt à illustrer l'efficacité relative des différentes techniques de télédétection.
Aux fins du présent guide, l'analyse se limitera aux variables géophysiques qui peuvent être
déterminées en traitant les données produites par un instrument ou un ensemble d'instruments
étroitement apparentés. L'élaboration des produits peut faire appel à des algorithmes
complexes, à des modèles physiques ou statistiques, et aux sources externes d'informations
d'appoint nécessaires au traitement ou utiles pour en faciliter l'exécution. Le présent chapitre
met l'accent sur les produits qu'il est possible de dériver à partir d'une quantité limitée
d'informations de l'extérieur — qui ne jouent qu'un rôle mineur comparativement aux données
produites par l'instrument satellitaire — et où les modèles ne risquent pas d'engendrer des
erreurs systématiques importantes. Il aborde par exemple la modélisation des phénomènes
physiques influant sur les variables, les modèles de transfert radiatif et l'extraction par inversion
des modèles. En revanche, les méthodes qui assimilent plusieurs séries de mesures et champs de
fond, qui amalgament les caractéristiques physiques du phénomène et les aspects dynamiques
du modèle au point où l'apport des données satellitaires dans l'élaboration du produit final en
devient à peine reconnaissable, et qui peuvent être biaisées en faveur du modèle utilisé, sortent
du cadre du présent chapitre.
Le présent chapitre met l'accent sur les produits de niveau 2 et sur certains produits de niveaux 3
et 4 pour l'élaboration desquels il existe des méthodes établies et reconnues (voir les définitions
des niveaux de traitement dans le tableau 2.11 de la section 2.3.2.6 du chapitre 2 de la partie III).
Plusieurs critères peuvent servir à définir la qualité des images satellitaires interprétées
directement par l'œil humain: résolution spatiale, exactitude de la géolocalisation, stabilité de
l'étalonnage d'images consécutives, et constance des couleurs utilisées pour représenter une
propriété donnée d'une scène observée dans le cas des images satellitaires composées RVB
(Rouge, Vert, Bleu). Nous ne reviendrons pas, dans la présente section, sur ces composantes de la
qualité des images.
Le présent chapitre vise à définir la qualité des produits quantitatifs à l'aide de chiffres qui
peuvent être utilisés dans le cadre de procédures automatisées ou de modèles numériques. Cette
évaluation pourra ensuite être comparée aux exigences prescrites pour ces produits.
Les besoins des utilisateurs peuvent varier selon la couche de l'atmosphère étudiée. La figure de
la présente section indique les définitions des volumes atmosphériques utilisées dans la base de
données de l'OMM sur les exigences en matière d'observation.
Si les besoins des utilisateurs varient par échelon en fonction de l'altitude de la prise de mesures,
la qualité des produits satellitaires change avec l'altitude d'une manière plus graduelle et
dépend principalement du gradient vertical de la quantité, les meilleurs résultats étant obtenus
avec des gradients plus prononcés. Une variation d'échelon se produit lorsque la résolution
verticale requise ne peut être obtenue avec les sondeurs à balayage transversal et qu'il devient
nécessaire de recourir au balayage au limbe. Pour des raisons de simplicité, nous tiendrons
compte de la qualité de diverses mesures prises dans la troposphère, la stratosphère et la colonne
atmosphérique totale (le cas échéant). Il est entendu que la qualité diminue graduellement à
mesure que l'altitude augmente dans la troposphère, ainsi que dans la stratosphère. La qualité
des produits n'est indiquée que pour les altitudes supérieures à 1 kilomètre; en dessous de ce
seuil, l'exactitude des mesures est trop irrégulière et difficile à estimer.
80 km 0,01 hPa
48 km 1 hPa
Stratosphère
11 km 250 hPa
0 km 1 000 hPa
Pour les paramètres comme la nébulosité et la couverture de neige, il faut recourir à un nombre
suffisant d'échantillons (pixels) dans la cellule Δx · Δx pour obtenir l'exactitude voulue. Pour les
mesures en surface de variables changeant lentement (par exemple, la neige) qui sont brouillées
par les nuages, il peut s'avérer nécessaire de recourir à une analyse multitemporelle et d'attendre
le départ des nuages (on obtiendra dans ce cas un produit de niveau 3). Il est en général
possible, jusqu'à un certain point, de sacrifier la résolution horizontale pour obtenir une plus
grande exactitude lors de l'élaboration du produit. On utilise souvent une résolution horizontale
du produit supérieure à un seul pixel pour améliorer le rapport signal‑bruit et répondre aux
exigences d'exactitude des mesures.
Dans le cas des instruments à balayage transversal, l'IFOV ou la taille du pixel augmentent entre
le point sous‑satellite et le bord de la fauchée, et il faut donc établir une moyenne de la résolution
horizontale du produit sur l'ensemble de la largeur de la fauchée.
Pour les instruments à balayage conique, la résolution le long de la trace est constante, mais la
résolution transversale se dégrade proportionnellement au cosinus de l'angle azimutal (l'IFOV
est quasi elliptique). Il faut considérer la moyenne quadratique dans les sens longitudinal et
transversal du balayage, et prendre en compte l'allongement de l'IFOV dans le sens de la trace
dû au déplacement de l'instrument pendant le temps d'intégration de la mesure. Si une seule
antenne est utilisée pour plusieurs fréquences, la résolution changera en fonction de la fréquence
à cause de la diffraction.
Pour les instruments de sondage au limbe, la résolution horizontale est déterminée par la
géométrie de visée. La longueur de cheminement atmosphérique peut s'étendre physiquement
sur quelques milliers de kilomètres, mais la longueur de cheminement effective (tenant compte
de la densité atmosphérique plus élevée à l'altitude tangentielle) s'établit à environ 300 km
dans le sens de la trace. Dans le sens transversal, bien que l'IFOV transversal soit beaucoup plus
étroit (dizaines de kilomètres), la résolution du produit est déterminée par le nombre de visées
en azimut (dans la plupart des cas, une seule, vers l'avant ou vers l'arrière). Pour des raisons de
simplicité, la résolution horizontale typique des mesures au limbe est fixée à 300 km.
La résolution verticale (Δz) est également définie par rapport à la distance d'échantillonnage
verticale entre deux valeurs de produit successives traduisant des informations indépendantes.
1070 PARTIE III. OBSERVATIONS SPATIALES
Il convient de noter que la fonction de pondération change aux altitudes plus élevées à mesure
que l'angle de visée de l'instrument se déplace du nadir au bord de la fauchée. Ce changement
est dû à l'allongement du trajet parcouru par le rayonnement à travers l'atmosphère à mesure
que l'angle de visée augmente. La transmittance est une fonction exponentielle du nombre de
molécules absorbantes qui se trouvent sur la trajectoire du rayonnement qui s'échappe; un angle
plus oblique augmente la probabilité de rencontrer plus de molécules dans la haute atmosphère,
et la fonction de pondération augmente donc en fonction de l'altitude.
Dans la stratosphère et au‑delà, la résolution verticale réalisable par les sondeurs à balayage
transversal est faible. Le sondage au limbe donne une meilleure résolution verticale; cette
dernière est déterminée par le balayage mécanique le long de la verticale (IFOV angulaire
combiné à la vitesse de balayage) et se situe dans une fourchette comprise entre 1 et 3 km
(impossible avec le balayage transversal). La résolution verticale obtenue avec le sondage au
limbe se dégrade avec l'altitude, à mesure que le rapport signal‑bruit se dégrade sous l'effet
de la baisse de la concentration de gaz. La résolution verticale des instruments d'occultation
(y compris l'occultation radio) est déterminée par le taux d'échantillonnage pendant la phase
d'occultation. Au moment du traitement au sol, un algorithme sert à réaliser une certaine
intégration verticale qui se fait au prix d'une baisse de l'exactitude du produit.
Le cycle d’observation (Δt) correspond au temps requis pour obtenir une couverture mondiale
(pour les satellites en orbites basses, ou LEO) ou une couverture plein‑disque (pour les
satellites en orbites géostationnaires, ou GEO). Il est étroitement lié à la capacité de sondage
de l'instrument et aux caractéristiques orbitales du satellite. Les rapports entre le cycle
d’observation et le mécanisme de balayage ont été examinés en détail à la section 3.1.1 du
chapitre 3 de la partie III. Cependant, le cycle d’observation de l'instrument ne coïncide pas
nécessairement avec le cycle d’observation du produit puisque les observations effectuées au
cours du cycle d’observation d'un instrument donné ne sont pas toutes utiles pour un produit
donné. Par exemple, une carte réalisée en atmosphère claire risque de contenir trop de lacunes
dues aux observations en zones nuageuses. Ainsi, le cycle d’observation effectif représente un
compromis entre le cycle minimal théorique d'observations qui présentera de nombreuses
lacunes, et l'analyse multitemporelle qui a pour effet de dégrader les observations, mais qui
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1071
produit un champ de produit plus régulier (généré par un processus de niveau 3). Le compromis
prend en compte la sensibilité de la bande spectrale au facteur de perturbation, et la variabilité
temporelle intrinsèque du paramètre géophysique souhaité (qui peut ne pas tolérer le délai
engendré par l'analyse multitemporelle). Dans un autre exemple, une analyse multitemporelle
peut être nécessaire pour recueillir suffisamment de signaux dans les cas où il s'avère difficile
d'atteindre l'exactitude requise du produit.
Pour la plupart des variables météorologiques, le cycle d’observation requis empêche l'analyse
multitemporelle. Cette difficulté peut se résoudre au niveau du système, en établissant le nombre
de satellites disponibles pour mesurer la variable géophysique. Un cycle mondial d'observation
d'une durée inférieure à 12 heures (pour les mesures en IR ou en MW) ou à 24 heures (pour les
mesures utilisant les ondes courtes (SW)) requiert plus de satellites en orbites régulièrement
espacées. Pour un cycle de trois heures, quatre satellites sont requis à condition que la fauchée de
l'instrument soit aussi large que le décalage (par exemple, imageurs visible/infrarouge (VIS/IR)).
Pour les instruments à fauchée limitée (par exemple, radiomètres hyperfréquences de la mission
de mesure des précipitations à l’échelle du globe), le cycle de trois heures nécessite huit satellites.
On peut raccourcir le cycle d’observation aux dépens de la couverture mondiale en utilisant des
orbites à faible inclinaison. La limite extrême est un cycle Δt inférieur à une période orbitale pour
une orbite quasi équatoriale orientée dans le sens est‑ouest. Les latitudes au‑delà de la fauchée
de l'instrument ne seront pas couvertes dans ce cas.
Les instruments qui n'utilisent que la visée nadir (non balayeurs) donnent rarement une
couverture mondiale. Les instruments de sondage au limbe, y compris ceux qui utilisent
l'occultation radio, se trouvent dans une situation semblable (voir la section 3.1.1 du chapitre 3
de la partie III). Le cycle d’observation de ces instruments est difficile à définir.
L'exactitude est un terme qualitatif désignant l’étroitesse de l’accord entre une valeur mesurée
et une valeur vraie d’un mesurande (d’après le Vocabulaire international de métrologie – Concepts
fondamentaux et généraux et termes associés (VIM), JCGM 200:2012). La mesure quantitative
de l’exactitude s’exprime par l’incertitude (voir la section 1.6.2 du chapitre 1 de la partie I).
Elle est le résultat combiné de plusieurs caractéristiques des instruments: erreur aléatoire,
erreur systématique, sensibilité, précision, etc. Dans la présente partie (sur les observations
spatiales), l'incertitude est généralement caractérisée par l'erreur type, c'est‑à‑dire l'écart
moyen quadratique (RMS) (valeurs observées – valeur vraies) de la mesure. L'incertitude de
l'observation, depuis l'espace, d'une variable géophysique dépend du principe physique liant
la mesure satellitaire à la variable observée et, en particulier, de la sensibilité de la mesure aux
variations de cette variable.
L'évaluation de l'incertitude dans le cas d'un nouvel instrument nécessite la réalisation d'études
de sensibilité fondées sur des simulations complexes.
Dans la présente partie, l'incertitude du produit est estimée à partir des résultats d'instruments
utilisés actuellement ou par le passé et de simulations d'instruments qu'on projette d'utiliser à
l'avenir. Les estimations des résultats des instruments actuels ou passés comportent un certain
degré de validation de l'exactitude des produits satellitaires (voir le chapitre 6 de la partie III);
pour les instruments futurs, on a plutôt recours à des calculs théoriques.
Le délai de transmission (δ) correspond au temps écoulé entre le moment où l'observation est
faite et celui où le produit devient disponible dans des conditions normales de fonctionnement
des instruments. Il dépend des installations de transmission du satellite, de la disponibilité des
stations d'acquisition des données, du temps requis pour le traitement des données aux fins de
l'élaboration du produit, et des conditions globales de gestion des données.
Dans le présent guide, le délai de transmission δ des divers produits n'a pas été évalué puisqu'il
s'agit d'une caractéristique du système qui n’est pas déterminée uniquement par l'instrument.
Le présent chapitre donne un aperçu des produits satellitaires qu'il peut être possible d'extraire
des instruments dont l’utilisation est actuelle ou prévue et qui portent sur les variables
géophysiques appartenant aux huit grandes catégories que voici:
b) Nuages et précipitations;
c) Aérosols et rayonnement;
f) Solide terrestre;
g) Chimie de l'atmosphère;
h) Météorologie de l'espace.
Pour chaque produit satellitaire, on indique les principes applicables de télédétection ainsi
que toutes les conditions ou limites possibles d'observation. L'annexe au présent chapitre
contient une évaluation de la qualité réalisable exprimée en termes d'erreur type1, de Δx, de
Δz et de Δt, fondée sur les caractéristiques des instruments les plus perfectionnés en cours de
développement au moment de la rédaction du présent guide ou qui devraient être mis en service
d'ici 2020.
1
Prière de noter que l'erreur type utilisée dans la présente partie correspond approximativement à une incertitude
élargie assortie d'un facteur de couverture k = 1, tandis que dans le reste du Guide, un facteur de couverture k = 2 est
généralement utilisé (voir la section 1.6.4.3 du chapitre 1 de la partie I et le document intitulé Évaluation des données
de mesure ‑ Guide pour l’expression de l’incertitude de mesure (JCGM 100:2008)).
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1073
Le tableau 5.1 énumère les variables atmosphériques de base utilisées pour la prévision des
conditions météorologiques — y compris la prévision numérique du temps (PNT) — observables
depuis l'espace.
Méthode 3: Données d’occultation radio recueillies via le Système mondial de navigation par
satellite (GNSS, constitué du système mondial de localisation (GPS) et du système russe de
navigation par satellite, GLONASS) – principe: réfraction atmosphérique des signaux en bande L
provenant du système mondial de navigation par satellite et captés par un satellite sur orbite
basse pendant la phase d'occultation. Applicable uniquement sur orbite basse.
Méthode 4: Lidar à absorption différentielle (DIAL) – principe: rayonnement rétrodiffusé dans une
bande d'absorption de la vapeur d'eau dans le proche infrarouge (NIR) (par exemple, ~935 nm)
et dans une fenêtre voisine. Applicable uniquement sur orbite basse.
Méthode 8: Imagerie dans le proche infrarouge (935 nm) – principe: différence de réflectance
entre une bande NIR d'absorption de la vapeur d'eau (par exemple, ~935 nm) et une fenêtre
voisine mesurée à l'aide de radiomètres à largeur de bande étroite. Ne convient que pour la
colonne totale. Applicable tant sur orbite basse que sur orbite géostationnaire.
Méthode 1: Lidar Doppler – principe: déplacement des remous atmosphériques «marqués» par
les aérosols ou par la diffusion moléculaire, suivis par lidar Doppler. Applicable uniquement sur
orbite basse.
Méthode 3: Sondeur imageur IR – principe: déplacement des nappes de vapeur d'eau suivies
par sondages fréquents effectués à l'aide de spectromètres d'imagerie IR fonctionnant dans les
bandes d'absorption H2O (~6 µm) avec l'aide des bandes CO2 (~4,3 et 15 µm). Applicable tant sur
orbite basse que sur orbite géostationnaire.
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1075
Méthode 4: Sondage au limbe – principe: décalage Doppler et élargissement des raies spectrales
de O2, O3 et OH– observées à l'aide de spectromètres VIS haute résolution fonctionnant en mode
limbe. Applicable uniquement sur orbite basse.
Définition: Composante vectorielle horizontale (2D) du vecteur vent 3D, mesurée d'ordinaire à
une hauteur de 10 mètres – au‑dessus de la mer et des terres émergées (toutes les méthodes
énumérées ci‑dessous sont applicables au‑dessus de la mer). Unité physique: [m/s]. Unité de
mesure de l'incertitude: [m/s] servant d'erreur de vecteur, c'est‑à‑dire de module de la différence
vectorielle entre le vecteur observé et le vecteur véritable.
Méthode 1: Diffusiométrie radar – principe: rayonnement rétrodiffusé par les ondes capillaires
mesuré par radar à moyenne fréquence (environ 5 ou 11 GHz). L'ajout d'angles de visée sert à
déterminer la direction. Applicable uniquement au‑dessus de la mer, sur orbite basse.
Définition: Hauteur de la surface séparant la couche limite planétaire de l'atmosphère libre. Unité
physique: [km]. Unité de mesure de l'incertitude: [km].
Méthode 2: Basée sur le sondage dans l'infrarouge – principe: dérivée du sondage infrarouge de
la température et de l'humidité. Applicable tant sur orbite basse que sur orbite géostationnaire.
Méthode 3: Basée sur le sondage avec récepteur GNSS – principe: dérivée des données
d’occultation radio sur la température et l'humidité recueillies par un GNSS. Applicable
uniquement sur orbite basse.
Méthode 2: Basée sur le sondage dans l'infrarouge – principe: dérivée du sondage infrarouge de
la température. Applicable tant sur orbite basse que sur orbite géostationnaire.
Méthode 3: Basée sur le sondage avec récepteur GNSS – principe: dérivée des données
d’occultation radio sur la température recueillies par un GNSS. Applicable uniquement sur orbite
basse.
Méthode 1: Basée sur le sondage dans l'infrarouge – principe: dérivée du sondage infrarouge de
la température. Applicable tant sur orbite basse que sur orbite géostationnaire.
Méthode 2: Basée sur le sondage avec récepteur GNSS – principe: dérivée des données
d’occultation radio sur la température recueillies par un GNSS. Applicable uniquement sur orbite
basse.
Cette catégorie comprend les variables de base observables depuis l'espace utilisées pour
l'analyse météorologique, la prévision à court terme, la prévision immédiate du temps et
l'analyse hydrologique. Le tableau 5.2 énumère ces variables.
Hauteur du sommet Épaisseur optique des Rayon effectif des Intensité des précipitations à la
des nuages nuages particules de glace des surface (liquides ou solides)
nuages
Type de nuages Teneur en eau liquide Hauteur du niveau de Précipitations cumulées (sur 24 h)
des nuages congélation dans les
nuages
Définition: Température à la surface supérieure des nuages. Unité physique: [K]. Unité de mesure
de l'incertitude: [K].
Méthode 2: Basée sur le sondage dans l'infrarouge – principe: sous‑produit des sondages
température/humidité réalisés par spectroscopie IR. Les températures de luminance mesurées
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1077
Définition: Hauteur de la surface supérieure des nuages. Unité physique: [km]. Unité de mesure
de l'incertitude: [km].
Méthode 1: Radiométrie infrarouge – principe: conversion des valeurs de pression au sommet des
nuages en données de hauteur et de température à l'aide d'un profil des températures prévues
après observation du nuage à travers une paire de canaux à 11 et 13,4 µm (comparaison avec
la «fenêtre», mesures des défauts dans la colonne de CO2 au‑dessus du sommet des nuages).
Applicable tant sur orbite basse que sur orbite géostationnaire.
Méthode 2: Basée sur le sondage dans l'infrarouge – principe: sous‑produit des sondages
température/humidité réalisés par spectroscopie IR. Les valeurs du transfert radiatif mesurées
à différentes longueurs d'onde permettent d'extraire la hauteur du sommet des nuages à
l'intérieur du champ de vision instantané sondé. Applicable tant sur orbite basse que sur orbite
géostationnaire.
Méthode 5: Spectroscopie en bande A – principe: observation des défauts dans la colonne d'O2
au‑dessus du sommet des nuages par spectroscopie dans la bande A de 760 nm et la «fenêtre»
voisine. Applicable tant sur orbite basse que sur orbite géostationnaire.
Définition: Ensemble des propriétés des nuages observés. La liste des types qui retiennent
l'attention est prédéterminée. Mesure de l'incertitude: détermination du nombre de types
discriminés [classes].
5.3.4 Nébulosité
Définition: Champ 3D de la fraction du ciel où des nuages sont détectés – champ 3D dans la
troposphère (altitude supposée: 12 km) et couche unique (colonne totale) donnant la nébulosité
totale. Unité physique: [%]. Unité de mesure de l'incertitude: [%].
Méthode 1: Radiométrie dans le visible et l'infrarouge – principe: dérivée de l'imagerie des nuages
effectuée à l'aide de quelques canaux discrets choisis pour détecter tous les types de nuages. La
proportion de nébulosité correspond au nombre de pixels nuageux contenus dans un ensemble
de pixels donné. Applicable tant sur orbite basse que sur orbite géostationnaire.
Définition: Hauteur de la surface inférieure des nuages. Unité physique: [km]. Unité de mesure de
l'incertitude: [km].
Méthode 1: Radar de détection des nuages – principe: dérivée de la mesure du niveau inférieur
du rayonnement rétrodiffusé par les gouttelettes des nuages, observé à l'aide d'un radar haute
fréquence (~94 GHz). Applicable uniquement sur orbite basse.
Méthode 5: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Essentiellement limitée au sommet des nuages.
Applicable uniquement sur orbite basse.
Méthode 1: Radar de détection des nuages – principe: mesure du rayonnement rétrodiffusé par
les particules de glace des nuages à l'aide d'un radar haute fréquence (~94 GHz). Applicable
uniquement sur orbite basse.
380 et 425 GHz). Le profil du rayon effectif des particules de glace des nuages est en fait établi
à l'aide d'un modèle de PNT associé, voire conçu pour la définition des nuages. Applicable sur
orbite basse, voire sur orbite géostationnaire.
Méthode 5: Imagerie dans l'infrarouge lointain (FIR) – principe: mesures du rayonnement émis
et diffusé dans plusieurs fenêtres atmosphériques FIR (18,2, 24,4, 52 et 87 µm), comparées aux
mesures dans l'infrarouge thermique (8,7, 11 et 12 µm). Ne convient que pour la colonne totale.
Applicable uniquement sur orbite basse.
Méthode 1: Radar de détection des nuages – principe: mesure du rayonnement rétrodiffusé par
les particules de glace des nuages à l'aide d'un radar haute fréquence (~94 GHz). Applicable
uniquement sur orbite basse.
Méthode 5: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Essentiellement limitée au sommet des nuages.
Applicable uniquement sur orbite basse.
Définition: Hauteur de la couche atmosphérique où l'eau des nuages passe de l'état liquide à l'état
solide, et vice versa. Unité physique: [km]. Unité de mesure de l'incertitude: [km].
Définition: Épaisseur de la couche atmosphérique où l'eau des nuages passe de l'état liquide à
l'état solide, et vice versa. Unité physique: [km]. Unité de mesure de l'incertitude: [km].
Définition: Intensité des précipitations qui atteignent le sol. Unité physique: [mm/h] (pour les
précipitations solides, mm/h d'eau liquide après la fonte). Unité de mesure de l'incertitude:
[mm/h]. Comme l'incertitude varie en fonction de l'intensité, il est nécessaire d'indiquer une
intensité de référence. Intensité présumée: 5 mm/h.
Méthode 3: Radiométrie dans le visible et l'infrarouge – principe: données déduites des résultats
de l'imagerie des nuages réalisée dans quelques canaux discrets choisis pour permettre la
détection de tous les types de nuages, avec l'aide de modèles conceptuels généralement plus
sensibles aux précipitations de convection. Applicable sur orbite géostationnaire.
Définition: Intégration de l'intensité des précipitations qui atteignent le sol dans des intervalles de
temps donnés. La période d'intégration des données s'établit à 24 heures. Unité physique: [mm].
Unité de mesure de l'incertitude: [mm].
Méthode 1: Basée sur la fusion du sondage hyperfréquences depuis une orbite basse et du
sondage infrarouge depuis une orbite géostationnaire – principe: données dérivées par
intégration temporelle des taux de précipitations mesurés fréquemment par fusion des données
des sondages MW effectués depuis une orbite basse et des images IR obtenues depuis une orbite
géostationnaire. Requiert des instruments sur orbite basse et sur orbite géostationnaire.
Définition: Cartographie des données sur la foudre indiquant le nombre d'éclairs observés
au cours d'une période de temps donnée et sur une superficie donnée. Unité physique:
[dénombrement] – incertitude exprimée sous forme de taux de succès (hit rate – HR) et de taux
de fausses alarmes (false alarm rate – FAR).
Méthode 1: Cartographie de la foudre – principe: détection des éclairs à l'aide d'une caméra
équipée d'un détecteur à couplage de charge dans un canal très étroit, dans une bande
d'absorption de l'oxygène dans le proche infrarouge (en général, 777,4 nm) qui peut aussi
fonctionner le jour. Le nombre d'éclairs observés au cours d'une période de temps donnée et sur
une superficie donnée ainsi que leur intensité sont liés à la maturité du processus de convection
dans les nuages. Applicable tant sur orbite basse que sur orbite géostationnaire.
Cette catégorie comprend les variables qui influent sur le bilan radiatif de la Terre, l'interaction
nuages‑rayonnement, la formation des nuages, la qualité de l'air et plusieurs facteurs
caractérisant le climat et le changement climatique. Le tableau 5.3 énumère les variables
observables depuis l'espace.
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1083
Épaisseur optique des aérosols Luminance énergétique spectrale Albédo de la surface terrestre
ascendante dans la couche
supérieure de l'atmosphère
Méthode 2: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Aussi, visées multiples à différents angles
d'incidence. Applicable uniquement sur orbite basse.
Méthode 2: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Aussi, visées multiples à différents angles
d'incidence. Applicable uniquement sur orbite basse.
Définition: Champ 3D de la taille moyenne des particules d'aérosols, assimilées à des sphères
de même volume – troposphère (altitude supposée: 12 km) et moyenne sur une colonne. Unité
physique: [µm]. Unité de mesure de l'incertitude: [µm].
Méthode 2: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Aussi, visées multiples à différents angles
d'incidence. Informations a priori et modélisation intensive requises. Applicable uniquement sur
orbite basse.
Définition: Champ 3D. Liste complète des caractéristiques des aérosols sous observation. La
liste des types qui retiennent l'attention est prédéterminée – troposphère (altitude supposée:
12 km) et moyenne sur une colonne. Incertitude exprimée sous la forme du nombre de types
reconnaissables [classes].
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1085
Méthode 2: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Aussi, visées multiples à différents angles
d'incidence. Informations a priori et modélisation intensive absolument essentielles. Applicable
uniquement sur orbite basse.
Méthode 2: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certaines mesures polarimétriques
servant à déterminer trois paramètres de Stokes. Aussi, visées multiples à différents angles
d'incidence. Applicable uniquement sur orbite basse.
Définition: Densité du flux de rayonnement émis vers l'espace par la surface terrestre,
l'atmosphère et les nuages dans la couche supérieure de l'atmosphère. Unité physique: [W/m2].
Unité de mesure de l'incertitude: [W/m2].
Méthode 1: Radiométrie à large bande – principe: mesures du rayonnement émis dans l'intervalle
compris entre 4 et 200 µm par le système Terre‑atmosphère vers l'espace au moyen de détecteurs
dont la réponse dans cet intervalle est la plus uniforme possible. Applicable tant sur orbite basse
que sur orbite géostationnaire.
Définition: Densité du flux de rayonnement réfléchi vers l'espace par la surface terrestre,
l'atmosphère et les nuages dans la couche supérieure de l'atmosphère. Unité physique: [W/m2].
Unité de mesure de l'incertitude: [W/m2].
Définition: Réflectance du rayonnement solaire par les nuages. Unité physique: [%]. Unité de
mesure de l'incertitude: [%].
Méthode 1: Radiométrie ondes courtes – principe: mesure du rayonnement solaire diffusé dans
plusieurs canaux du visible, du proche infrarouge et de l'infrarouge ondes courtes. Recours à
une géométrie de visées multiples jugé utile. Applicable tant sur orbite basse que sur orbite
géostationnaire.
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1087
Méthode 1: Radiométrie ondes courtes – principe: produit de haut niveau dérivé des observations
du rayonnement solaire diffusé dans plusieurs canaux à bande étroite du visible, du proche
infrarouge et de l'infrarouge ondes courtes pour estimer l'atténuation due aux nuages et aux
aérosols. Recours aux visées multiples et à la multipolarisation jugé utile. Applicable tant sur
orbite basse que sur orbite géostationnaire.
Définition: Réflectance de la surface terrestre intégrée sur l'ensemble d'un hémisphère dans la
gamme de 0,4 à 0,7 µm (ou d'autres gammes particulières du spectre des ondes courtes). Unité
physique: [%]. Unité de mesure de l'incertitude: [%].
Méthode 1: Radiométrie ondes courtes à visées multiples – principe: produit de haut niveau dérivé
de la mesure du rayonnement solaire diffusé dans plusieurs canaux du visible sous plusieurs
angles de visée et angles solaires afin d'estimer les effets d'anisotropie et d'améliorer les calculs
des flux radiatifs. Des canaux sont aussi inclus aux fins des corrections des effets de l'atmosphère.
Applicable uniquement sur orbite basse.
Méthode 1: Radiométrie ondes courtes – principe: mesure du rayonnement solaire diffusé dans
plusieurs canaux du visible, du proche infrarouge et de l'infrarouge ondes courtes, observé
sous divers angles de visée et angles solaires pour estimer les effets d'anisotropie et améliorer
les calculs des flux radiatifs. Des canaux sont aussi inclus aux fins des corrections des effets de
l'atmosphère. Applicable uniquement sur orbite basse.
1088 PARTIE III. OBSERVATIONS SPATIALES
Méthode 1: Radiométrie à large bande – principe: mesures du rayonnement émis dans l'intervalle
compris entre 4 et 200 µm à partir de la surface de la Terre vers l'atmosphère et, in fine, vers
l'espace. Méthode exigeant l'utilisation de détecteurs dont la réponse dans cet intervalle est
la plus uniforme possible. Nécessité de recourir à des corrections des effets de l'atmosphère,
principalement pour la vapeur d'eau et les nuages. Applicable tant sur orbite basse que sur orbite
géostationnaire.
Définition: Densité du flux de photons incidents de longueurs d'onde variant de 0,4 à 0,7 µm
à la surface. Unité physique: [µ einstein · m–2 s–1] (1 einstein = 6 · 1023 photons); unité la plus
fréquemment utilisée: [W/m2]. Unité de mesure de l'incertitude: [W/m2].
Méthode 1: Radiométrie dans le visible – principe: produit de haut niveau semblable à la mesure
de l'«éclairement énergétique incident de courtes longueurs d'onde à la surface de la Terre», sauf
qu'il porte sur la gamme 0,4‑0,7 µm utilisée par la végétation pour la photosynthèse. Applicable
tant sur orbite basse que sur orbite géostationnaire.
Cette catégorie comprend les variables qui caractérisent la surface des océans, y compris les
vagues et les glaces de mer. Celles de ces variables observables depuis l'espace sont énumérées
au tableau 5.4.
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1089
Tableau 5.4. Variables géophysiques entrant dans la catégorie «océans et glaces de mer»
Plusieurs variables n'ont pas été prises en compte: profils sous‑marins de la température
et de la salinité (impossibles à mesurer depuis l'espace), courants (dérivables à partir de la
topographie des océans comme pour la composante géostrophique, impossibles à déterminer
ou trop imprécis autrement), étendue ou hauteur des icebergs (cas particuliers entrant dans les
catégories «couverture de glaces de mer» et «épaisseur de la glace de mer») et dérive des glaces
(produit de l'analyse multitemporelle).
Définition: Ancien nom: «clarté de l'eau». Indicateur de la turbidité de l'eau et des processus
verticaux dans l'océan. Variable déterminée à partir d'observations de la couleur de l'océan –
pleine mer et zones côtières. Unité physique: [m–1]. Unité de mesure de l'incertitude: [m–1].
Définition: Fraction d'une zone océanique polluée par des rejets accidentels ou délibérés
d'hydrocarbures par les navires. Les déversements d'hydrocarbures influent sur les échanges
océan‑atmosphère – pleine mer et zones côtières. Unité physique: [%]. Unité de mesure de
l'incertitude: [%].
Méthode 2: Polarimétrie ondes courtes – principe: rayonnement solaire diffusé, mesuré dans
plusieurs canaux à bande étroite en UV, VIS, NIR et SWIR, certains à polarisation double.
Applicable uniquement sur orbite basse.
Méthode 3: Imagerie optique haute résolution – principe: rayonnement solaire réfléchi en VIS/
NIR/SWIR, observé dans plusieurs canaux discrets à largeurs de bande relativement étroites
(1 %‑5 %). Applicable uniquement sur orbite basse.
Définition: Température de l'eau de mer à la surface. La température «brute» est celle observée
d'ordinaire à 2 mètres de profondeur; la température pelliculaire est celle qui règne dans le
millimètre supérieur. Unité physique: [K]. Unité de mesure de l'incertitude: [K].
Méthode 2: Spectroscopie infrarouge – principe: dérivée d'un nombre élevé de canaux très étroits
du spectre IR, associés à d'autres canaux fournissant toute l'information nécessaire pour effectuer
les corrections des effets de l'atmosphère. Applicable tant sur orbite basse que sur orbite
géostationnaire.
Définition: Salinité de l'eau de mer dans la couche de surface, soumise à la turbulence liée
à la tension du vent, aux vagues et au cycle de réchauffement diurne par le Soleil. (Cette
couche mesure quelques mètres d'épaisseur, mais une observation à l'aide d'instruments à
hyperfréquences serait représentative de la portion supérieure d'environ 1 mètre.) Le chlorure
est le principal anion responsable de la salinité de l'eau de mer. Unité physique: unité de salinité
pratique [USP], près de 1 ‰, soit 1 gramme de sel par litre de solution. Unité de mesure de
l'incertitude: [USP].
Définition: Écart du niveau de la mer par rapport au géoïde causé par les courants océaniques
(après correction des effets des marées et de la pression atmosphérique). Unité physique: [cm].
Unité de mesure de l'incertitude: [cm].
Définition: Écart du niveau de la mer par rapport à la valeur de référence locale dans les zones
côtières, causé par les courants locaux et les marées (astronomiques et induites par le vent). Unité
physique: [cm]. Unité de mesure de l'incertitude: [cm].
Définition: Amplitude moyenne des 30 plus hautes vagues observées sur un groupe de 100. Unité
physique: [m]. Unité de mesure de l'incertitude: [m].
Définition: Une des caractéristiques du spectre des vagues océaniques. Il s'agit de la direction de
la vague la plus puissante du spectre. Unité physique: [degrés]. Unité de mesure de l'incertitude:
[degrés].
Définition: Une des caractéristiques du spectre des vagues océaniques. Il s'agit de la période de la
vague la plus puissante du spectre. Unité physique: [s]. Unité de mesure de l'incertitude: [s].
Définition: Fraction d'une zone océanique où la présence de glaces de mer est détectée. Unité
physique: [%]. Unité de mesure de l'incertitude: [%].
Méthode 3: Imagerie optique haute résolution – principe: rayonnement solaire réfléchi dans le
visible, l'infrarouge et l'infrarouge ondes courtes, observé dans plusieurs canaux discrets. La
haute résolution reçoit la priorité aux dépens du cycle d’observation. Applicable uniquement sur
orbite basse.
Définition: Description de l'ensemble des propriétés (âge, rugosité, densité, etc.) de la glace
de mer observée. La liste des types qui retiennent l'attention est prédéterminée. Mesure de
l'incertitude: détermination du nombre de types discriminés [classes].
Cette catégorie comprend des variables qui caractérisent la surface des terres émergées, y
compris la végétation, les incendies, les glaciers et la neige. Les variables observables depuis
l'espace sont énumérées au tableau 5.5.
Tableau 5.5. Variables géophysiques entrant dans la catégorie «surface des terres émergées
(y compris couverture neigeuse)»
Humidité du sol (dans la Proportion des terres incendiées Équivalent en eau Topographie des
zone racinaire) de la couverture de glaciers
neige
1094 PARTIE III. OBSERVATIONS SPATIALES
Quelques variables n'ont pas été prises en compte, comme par exemple l’eau souterraine (prise
en compte dans l'étude de l'humidité du sol, de la neige, des glaciers et d'un type de couverture
terrestre); les débits fluviaux (produit de niveau trop élevé); les profils de température du
sous‑sol (impossible à observer depuis l'espace); température de surface de la neige et des lacs;
pergélisol (cas particuliers de l'observation de la température de surface); topographie des côtes
(trop évidente); biomasse (trop générique).
Définition: Température de la surface apparente des terres émergées (sol nu ou végétation). Unité
physique: [K]. Unité de mesure de l'incertitude: [K].
Méthode 2: Spectroscopie infrarouge – principe: dérivée d'un nombre élevé de canaux très étroits
du spectre IR, associés à d'autres canaux fournissant toute l'information nécessaire pour effectuer
les corrections des effets de l'atmosphère, ce qui permet d'estimer l'émissivité. Applicable tant
sur orbite basse que sur orbite géostationnaire.
Définition: Fraction d'eau contenue dans un volume donné de sol humide – couche supérieure
(premiers centimètres). Unité physique: [m3/m3]. Unité de mesure de l'incertitude: [m3/m3].
Définition: Champ 3D de la fraction d'eau contenue dans un volume donné de sol humide – de
la surface du sol jusqu'à une profondeur d'environ 3 mètres. Unité physique: [m3/m3]. Unité de
mesure de l'incertitude: [m3/m3].
Définition: Fraction d'une zone de terre émergée où la végétation est présente. Unité physique:
[%]. Unité de mesure de l'incertitude: [%].
Définition: Combinaison des espèces ou familles végétales observées. La liste des types qui
retiennent l'attention est prédéterminée. Mesure de l'incertitude: nombre de types identifiés
[classes].
Définition: Moitié de la superficie totale développée par les feuilles vertes par unité horizontale
de surface au sol. Indice représentatif de la biomasse totale et de la santé de la végétation. Unité
physique: [%]. Unité de mesure de l'incertitude: [%].
Méthode 1: Radiométrie ondes courtes – principe: mesure du rayonnement solaire diffusé dans
plusieurs canaux du visible, du proche infrarouge et de l'infrarouge ondes courtes (jusqu'à
2,4 µm, par exemple). Plusieurs canaux relativement étroits (2 %‑3 %) sont requis. Applicable tant
sur orbite basse que sur orbite géostationnaire.
1096 PARTIE III. OBSERVATIONS SPATIALES
Définition: Différence entre les valeurs de la réflectance maximale (en proche infrarouge) et de la
réflectance minimale (autour du «rouge») de la végétation, divisée par la somme de ces valeurs
(max – min./max. + min.). Représentatif de la biomasse totale, utile pour le calcul de l'indice de
surface foliaire, lorsque ce dernier n'est pas calculé directement. Unité physique: [%]. Unité de
mesure de l'incertitude: [%].
Définition: Proportion de la superficie des terres touchées par des incendies. Unité physique: [%].
Unité de mesure de l'incertitude: [%].
Méthode 2: Imagerie optique haute résolution – principe: rayonnement solaire réfléchi dans le
visible, l'infrarouge et l'infrarouge ondes courtes, observé dans plusieurs canaux discrets. Utile
a posteriori pour dresser l'inventaire des dommages. La haute résolution reçoit la priorité aux
dépens du cycle d’observation. Applicable uniquement sur orbite basse.
Définition: Température d'un incendie sévissant dans une zone donnée. Unité physique: [K]. Unité
de mesure de l'incertitude: [K].
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1097
Définition: Énergie dégagée par un incendie sévissant dans une zone donnée. Unité physique:
[kW · m–2]. Unité de mesure de l'incertitude: [kW · m–2].
Définition: Produit binaire (neige sèche ou fondante) définissant la présence d'eau liquide
dans une couche de neige. Incertitude exprimée sous forme de taux de succès [HR] et de taux
de fausses alarmes [FAR] calculés aux fins de la détermination de l'état du manteau neigeux
(humide ou sec).
Définition: Proportion d'une zone donnée qui est recouverte de neige. Unité physique: [%]. Unité
de mesure de l'incertitude: [%].
Méthode 3: Imagerie optique haute résolution – principe: rayonnement solaire réfléchi dans le
visible, l'infrarouge et l'infrarouge ondes courtes, observé dans plusieurs canaux discrets. La
haute résolution reçoit la priorité aux dépens du cycle d’observation. Applicable sur orbite basse,
voire sur orbite géostationnaire.
1098 PARTIE III. OBSERVATIONS SPATIALES
Définition: Épaisseur de la couche d'eau que produirait la fonte d'une couche donnée de neige.
L'épaisseur de la couche de neige peut être déduite en exploitant les informations recueillies sur
la densité de cette couche. Unité physique: [mm]. Unité de mesure de l'incertitude: [mm].
Définition: Composition ou structure observées du sol (acide, alcalin, rugueux, etc.). La liste des
types qui retiennent l'attention est prédéterminée. Mesure de l'incertitude: nombre de types
identifiés [classes].
Définition: Utilisation observée des terres (zones urbaines, terres cultivées, déserts, etc.). La liste
des types qui retiennent l'attention est prédéterminée. Mesure de l'incertitude: nombre de types
identifiés [classes].
Méthode 1: Stéréoscopie haute résolution dans le visible – principe: rayonnement solaire réfléchi
dans le visible, observé dans un ou plusieurs canaux à largeur de bande relativement étroite
(1 %‑5 %) sous au moins deux angles de visée, généralement depuis deux orbites successives,
pour les besoins de la stéréoscopie. Applicable uniquement sur orbite basse.
Définition: Proportion d'une zone terrestre donnée recouverte de glace en permanence. Unité
physique: [%]. Unité de mesure de l'incertitude: [%].
Méthode 1: Stéréoscopie haute résolution dans le visible – principe: rayonnement solaire réfléchi
dans le visible, le proche infrarouge et l'infrarouge ondes courtes, observé dans plusieurs canaux
discrets à largeur de bande relativement étroite (1 %‑5 %). Applicable sur orbite basse, voire sur
orbite géostationnaire.
Définition: Cartographie de la hauteur de la surface des glaciers. Unité physique: [cm]. Unité de
mesure de l'incertitude: [cm].
Les variables de cette catégorie servent à caractériser le solide terrestre (géodésie spatiale
et physique de l'intérieur de la Terre). Celles observables depuis l'espace sont énumérées au
tableau 5.6.
5.7.1 Géoïde
Méthode 1: Télémétrie laser – principe: mesure précise de la distance séparant le satellite du sol à
l'aide d'un laser installé au sol et qui capte la lumière réfléchie par des miroirs de type «coins de
cube» recouvrant la surface du satellite. Un réseau mondial permet à la fois une détermination
précise de l'orbite et de la position des plaques tectoniques sur lesquelles sont installées les
stations de télémétrie laser. Applicable uniquement sur orbite basse.
Méthode 2: Récepteur GPS – principe: analyse statistique de la position d'un récepteur GPS
installé au sol et localisé par des constellations de satellites de navigation (GPS, GLONASS,
Compass, Galileo). Applicable uniquement sur orbite basse.
Méthode 1: Télémétrie laser – principe: analyse des changements de position des plaques
tectoniques terrestres, fondée sur une mesure précise de la distance séparant le satellite du sol à
l'aide d'un laser installé au sol et qui capte la lumière réfléchie par des miroirs de type «coins de
cube» recouvrant la surface du satellite. Cette analyse est rendue possible par un réseau mondial
de stations de télémétrie laser. Applicable uniquement sur orbite basse.
Méthode 2: Récepteur GPS – principe: analyse des changements de position des plaques
tectoniques, mesurés par des récepteurs GPS installés au sol et localisés par des constellations de
satellites de navigation (GPS, GLONASS, Compass, Galileo). Applicable uniquement sur orbite
basse.
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1101
Définition: Champ 3D mesuré in situ à l'altitude orbitale. Renseigne sur les caractéristiques
statiques et dynamiques de la lithosphère et du manteau. Unité physique: [mGal]
(1 Gal = 0,01 m/s2, c'est‑à‑dire, 1 mGal ≈ 10 ‑6 g0 (le Gal est une unité de mesure qui tire son nom
du physicien Galilée). Unité de mesure de l'incertitude: [mGal].
Définition: Champ 3D mesuré in situ à l'altitude orbitale. Fournit des indications détaillés sur les
caractéristiques statiques et dynamiques de la lithosphère et du manteau. Unité physique: [E],
Eötvös (1 E = 1 mGal/10 km). Unité de mesure de l'incertitude: [E].
Cette catégorie traite des espèces chimiques qui influent sur le cycle de l'ozone, contribuent à
l'effet de serre ou influent sur la qualité de l'air. Les espèces observables depuis l'espace et qui
font, à ce jour, l'objet d'exigences explicites sont énumérées au tableau 5.7.
Nitrate de
O3 C2H2 CFC–11 CH2O ClO CO COS HCl HNO3 N2O5 NO2 SF6
peroxyacétyle
Présence de
nuages
BrO C2H6 CFC–12 CH4 ClONO2 CO2 H2O HDO N2O NO OH SO2
stratosphériques
polaires
Définition: Champ 3D de la fraction molaire de l'ozone dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M) + colonne totale. Unités physiques:
[nmol/mol] pour les couches, Dobson [UD] pour la colonne totale
(1 UD = 2,69 · 1020 molécules/m2). Unités de mesure de l'incertitude: [nmol/mol] pour les
couches, [UD] pour la colonne totale.
1102 PARTIE III. OBSERVATIONS SPATIALES
Définition: Champ 3D de la fraction molaire de BrO dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de C 2H2 dans l'air sec – troposphère (couches: LT, HT).
Unité physique: [nmol/mol]. Unité de mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de C2H6 dans l'air sec – troposphère (couches: LT, HT).
Unité physique: [nmol/mol]. Unité de mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de CFC‑11 dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de CFC‑12 dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de CH2O dans l'air sec – troposphère (couches:
LT, HT) + colonne totale. Unités physiques: [nmol/mol] pour les couches, unités de
[1,3 · 1015 molécules/cm2] pour la colonne totale. Unités de mesure de l'incertitude: [nmol/mol]
pour les couches, [1,3 · 1015 cm–2] pour la colonne totale.
Définition: Champ 3D de la fraction molaire de CH4 dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M) + colonne totale. Unités physiques:
1104 PARTIE III. OBSERVATIONS SPATIALES
[nmol/mol] pour les couches, unités de [1,3 · 1015 molécules/cm2] pour la colonne totale. Unités
de mesure de l'incertitude: [nmol/mol] pour les couches, [1,3 · 1015 molécules/cm2] pour la
colonne totale.
Définition: Champ 3D de la fraction molaire de ClO dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de CO2 dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M) + colonne totale. Unités physiques:
[nmol/mol] pour les couches, unités de [1,3 · 1015 molécules/cm2] pour la colonne totale. Unités
de mesure de l'incertitude: [nmol/mol] pour les couches, [1,3 · 1015 molécules/cm2] pour la
colonne totale.
Définition: Champ 3D de la fraction molaire de COS dans l'air sec – de la surface à la basse
stratosphère (couches: LT, HT, LS). Unité physique: [nmol/mol]. Unité de mesure de l'incertitude:
[nmol/mol].
Définition: Champ 3D de la fraction molaire de H2O dans l'air sec (espèce chimique pertinente
aux analyses de la chimie de l'atmosphère) – de la surface à la couche supérieure de l'atmosphère
(couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de mesure de l'incertitude:
[nmol/mol].
Méthode 4: Occultation radio GNSS – principe: réfraction atmosphérique des signaux dans la
bande L des satellites de navigation du GNSS captés par un satellite en orbite basse pendant la
phase d'occultation. Applicable uniquement sur orbite basse.
Définition: Champ 3D de la fraction molaire de HCl dans l'air sec – de la troposphère moyenne à la
couche supérieure de l'atmosphère (couches: HT, LS, HS&M). Unité physique: [nmol/mol]. Unité
de mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de HDO (vapeur d'eau dont l'un des noyaux
d’hydrogène est remplacé par du deutérium) dans l'air sec – de la basse stratosphère à la couche
supérieure de l'atmosphère (couches: LS et HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de HNO3 dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M) + colonne totale. Unités physiques:
[nmol/mol] pour les couches, unités de [1,3 · 1015 molécules/cm2] pour la colonne totale. Unités
de mesure de l'incertitude: [nmol/mol] pour les couches, [1,3 · 1015 molécules/cm2] pour la
colonne totale.
Définition: Champ 3D de la fraction molaire de N2O dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de N2O5 dans l'air sec – troposphère (couches: LT,
HT). Unité physique: [v]. Unité de mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de NO2 dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M) + colonne totale. Unités physiques:
[nmol/mol] pour les couches, unités de [1,3 · 1015 molécules/cm2] pour la colonne totale. Unités
de mesure de l'incertitude: [nmol/mol] pour les couches, [1,3 · 1015 cm–2] pour la colonne totale.
Définition: Champ 3D de la fraction molaire d'OH dans l'air sec – de la surface à la couche
supérieure de l'atmosphère (couches: LT, HT, LS, HS&M). Unité physique: [nmol/mol]. Unité de
mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de SF6 dans l'air sec – de la basse stratosphère à la
couche supérieure de l'atmosphère (couches: LS et HS&M). Unité physique: [nmol/mol]. Unité
de mesure de l'incertitude: [nmol/mol].
Définition: Champ 3D de la fraction molaire de SO2 dans l'air sec – de la surface à la basse
stratosphère (couches: LT, HT, LS) + colonne totale. Unités physiques: [nmol/mol] pour les
couches, unités de [1,3 · 1015 molécules/cm2] pour la colonne totale. Unités de mesure de
l'incertitude: [nmol/mol] pour les couches, [1,3 · 1015 cm–2] pour la colonne totale.
Cette catégorie englobe les variables qui caractérisent la météorologie de l'espace Ces variables
sont classées ci‑dessous en trois grandes catégories:
Tableau 5.8 – Observations satellitaires axées sur la surveillance des processus solaires
Image du flux Flux radioélectrique reçu du disque solaire W · m–2 · Hz–1 · arcsec–2
radioélectrique solaire
Tableau 5.9. Observations satellitaires axées sur l'espace interplanétaire Soleil‑Terre et sur le
vent solaire
Ions lourds [2(He) < Z ≤ 26(Fe)] Spectre du flux angulaire particules · m–2 · s–1 · sr–1
d'énergie (MeV/nucléon) –1
Flux intégral directionnel particules · m–2 · s–1 · sr–1
Contenu total d'électrons de Nombre d'électrons entre deux points Unités TEC
l'ionosphère (TECU)
Les sections suivantes présentent certains détails concernant quelques‑unes des variables ayant
trait à l'ionosphère et à la magnétosphère.
Définition: Nombre d'électrons se trouvant sur une trajectoire entre deux points. Observé sous
différents angles de visée afin de produire des profils verticaux par tomographie – ionosphère et
plasmasphère. Unité physique: [électrons/m2]; unité pratique: TECU = 1016 électrons/m2. Unité de
mesure de l'incertitude: [%].
Méthode 1: Occultation radio GNSS – principe: réfraction différentielle des signaux de deux
fréquences (~1,2 et 1,6 GHz) transmis par un satellite de navigation du GNSS et captés par
un satellite en orbite basse pendant la phase d'occultation. Le contenu intégré le long de
la trajectoire est mesuré à différentes hauteurs tangentielles pour établir un profil vertical.
Applicable uniquement sur orbite basse.
Méthode 2: Altimétrie radar – principe: différence de délai de phase entre les signaux émis par un
altimètre radar bifréquence (~13 GHz et ~3 ou 5 GHz). Mesure de la rotation de phase, nécessaire
surtout pour corriger les mesures de distance de l'altimètre, et servant également à déduire le
contenu total d'électrons sur la colonne totale. Applicable uniquement sur orbite basse.
Méthode 3: Délai de phase du signal GPS‑LEO – principe: différence de délai de phase entre les
signaux émis par des transmetteurs GPS bifréquences (~1,2 et 1,6 GHz) et un récepteur sur orbite
basse en utilisant le GPS pour la navigation. En principe, tout satellite équipé d'un système de
navigation GPS convient. Les informations recueillies concernent le sommet de l'ionosphère et
la plasmasphère, c'est‑à‑dire la couche qui se trouve entre l'altitude du satellite et celle du GPS
(~20 000 km). Applicable uniquement sur orbite basse.
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1113
Méthode 1: Occultation radio GNSS – principe: réfraction différentielle des signaux de deux
fréquences (~1,2 et 1,6 GHz) transmis par un satellite de navigation du GNSS et captés par un
satellite en orbite basse pendant la phase d'occultation. Dérivée par tomographie du contenu
total d'électrons. Applicable uniquement sur orbite basse.
Méthode 1: Magnétométrie – principe: plus de magnétomètres pour les mesures in situ le long de
la trajectoire du satellite. Applicable sur orbite basse, sur orbite géostationnaire et sur orbite très
elliptique.
Méthode 1: Dérive des ions – principe: mesure de l'ampleur et de la direction du flux d'ions
incident. Le champ électrique est déduit des relations entre le champ électrique, la vitesse
mesurée de la dérive des ions, et la force mesurée du champ magnétique. Mesures in situ le long
de la trajectoire du satellite. Applicable sur orbite basse et sur orbite très elliptique.
ANNEXE. QUALITÉ RÉALISABLE DES PRODUITS SATELLITAIRES
La présente annexe décrit la qualité réalisable des divers produits satellitaires exprimée
en termes d'erreur type1, de résolution horizontale (Δx), de résolution verticale (Δz) et du
cycle d’observation (Δt), compte tenu d'une série d'hypothèses concernant le nombre de
satellite requis pour mener à bien le cycle d’observation indiqué Δt, ainsi que des principales
conditions ou limites possibles d'observation. Ces estimations de la qualité sont fondées sur les
caractéristiques des instruments les plus perfectionnés en cours de développement au moment
de la rédaction du présent guide et qui devraient être mis en service d'ici 2020.
Ces estimations sont réalisées en tenant compte de chacun des principes applicables de
télédétection pour les variables géophysiques appartenant aux huit grandes catégories
suivantes:
b) Nuages et précipitations;
c) Aérosols et rayonnement;
f) Solide terrestre;
g) Chimie de l'atmosphère;
h) Météorologie de l'espace.
1
Prière de noter que l'erreur type utilisée dans la présente partie correspond approximativement à une incertitude
élargie assortie d'un facteur de couverture k = 1, tandis que dans le reste du Guide, un facteur de couverture k = 2 est
généralement utilisé (voir la section 1.6.4.3 du chapitre 1 de la partie I et le document intitulé Évaluation des données
de mesure ‑ Guide pour l’expression de l’incertitude de mesure (JCGM 100:2008)).
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1115
Incertitude Δx Δz Δt Nbre de
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) sat.
Troposphère LEO Spectroscopie IR 1K 20 1 4 3 Air clair
(à ~500 hPa)
GEO Spectroscopie IR 1K 20 1 0,5 6 Air clair
LEO Radiométrie 4K 30 4 4 3 –
MW/submil.
Tableau 5.A.1.2. Qualité potentielle estimée du produit «humidité spécifique» (d'ici 2020)
Incertitude Δx Δz Δt Nbre de
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) sat.
Troposphère LEO Spectroscopie IR 10 % 20 1,5 4 3 Air clair
(à ~500 hPa)
GEO Spectroscopie IR 10 % 20 2 0,5 6 Air clair
Incertitude Δx Δz Δt Nbre de
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) sat.
Stratosphère LEO Spectroscopie IR 15 % 20 4 4 3 –
(à ~30 hPa)
GEO Spectroscopie IR 20 % 20 5 0,5 6 –
Tableau 5.A.1.3. Qualité potentielle estimée du produit «vent (horizontal)» (d'ici 2020)
Incertitude Δx Δz Δt Nbre de
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) sat.
Troposphère LEO Lidar Doppler 1 m · s–1 50 0,5 180 1 Air clair
(à ~500 hPa) (non balayeur)
Tableau 5.A.1.4. Qualité potentielle estimée du produit «vecteur vent au‑dessus de la surface
(horizontal)» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Lidar de
LEO rétrodiffusion (non 0,1 km 50 – 360 1 Air clair
balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Lidar de rétrodiffusion Air clair
LEO 0,1 km 50 – 360 1
(non balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Basé sur sondage IR 2K 20 – 4 3 Air clair
2. NUAGES ET PRÉCIPITATIONS
Hauteur du sommet Épaisseur optique des Rayon effectif des Intensité des précipitations à
des nuages nuages particules de glace des la surface (liquides ou solides)
nuages
Type de nuages Teneur en eau liquide Hauteur du niveau de Précipitations cumulées (sur
des nuages congélation dans les 24 h)
nuages
Tableau 5.A.2.1. Qualité potentielle estimée du produit «température au sommet des nuages»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie IR 2K 1 – 4 3 –
Tableau 5.A.2.2. Qualité potentielle estimée du produit «hauteur du sommet des nuages»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie IR 0,5 km 1 – 4 3 –
Spectroscopie De jour
LEO 0,3 km 4 – 8 3
dans la bande A
Spectroscopie De jour
GEO 0,3 km 8 – 0,25 6
dans la bande A
Tableau 5.A.2.3. Qualité potentielle estimée du produit «type de nuages» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Canaux VIS
LEO Radiométrie VIS/IR 10 classes 4 – 4 3 indisponibles de
nuit
s.o.
Canaux VIS
GEO Radiométrie VIS/IR 8 classes 12 – 0,1 1 indisponibles de
nuit
1120 PARTIE III. OBSERVATIONS SPATIALES
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Basé sur 10 % 10 6 4 3 À l'intérieur de
sondage IR l'IFOV sondé
Tableau 5.A.2.5. Qualité potentielle estimée du produit «hauteur de la base des nuages»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radar de détection
Orbites
s.o. LEO des nuages (non 0,3 km 50 – 360 1
multiples
balayeur)
Tableau 5.A.2.6. Qualité potentielle estimée du produit «épaisseur optique des nuages»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Lidar de Orbites
LEO rétrodiffusion (non 0,1 50 – 360 1 multiples
balayeur)
Colonne Polarimétrie ondes De jour
totale LEO 0,5 20 – 48 1
courtes
Tableau 5.A.2.7. Qualité potentielle estimée du produit «teneur en eau liquide des nuages»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Radar de 10 % 50 0,3 360 1 Orbites
détection des multiples
nuages (non
balayeur)
Tableau 5.A.2.8. Qualité potentielle estimée du produit «rayon effectif des gouttelettes de
nuages» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Tropo- LEO Radar de 3 µm 50 0,3 360 1 Nuages non
sphère détection des précipitants
nuages (non
balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Colonne LEO Radar de 3 µm 50 – 360 1 Orbites multiples
totale détection des
nuages (non
balayeur)
Tableau 5.A.2.9. Qualité potentielle estimée du produit «glace des nuages» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Radar de 10 % 50 0,3 360 1 Nuages non
détection des précipitants
nuages (non
balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Colonne LEO Radar de 20 g · m–2 50 – 360 1 Nuages non
totale détection des précipitants
nuages (non
balayeur)
Tableau 5.A.2.10. Qualité potentielle estimée du produit «rayon effectif des particules de
glace des nuages» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Radar de 3 µm 50 0,3 360 1 Nuages non
détection des précipitants
nuages (non
balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Colonne LEO Radar de 3 µm 50 – 360 1 Orbites multiples
totale détection des
nuages (non
balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radar de détection des
LEO 0,3 km 5 – 120 1 –
précipitations
s.o.
LEO Sondage MW/submil. 1,5 km 30 – 4 3 –
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radar de détection des
LEO 0,3 km 5 – 120 1 –
précipitations
s.o.
LEO Sondage MW/submil. 1,5 km 30 – 4 3 –
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radar de détection
LEO 10 % 5 0,3 120 1 –
des précipitations
Très
8
LEO Sondage MW/submil. 30 % 20 3 3 dépendant
Troposphère (GPM)
des modèles
Très
GEO Sondage MW/submil. 30 % 30 3 0,5 6 dépendant
des modèles
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radar de détection des
LEO 0,5 mm h–1 5 – 120 1 –
précipitations
Très
8
LEO Sondage MW/submil. 1 mm h–1 10 – 3 dépendant
(GPM)
des modèles
Très
Surface GEO Sondage MW/submil. 1,5 mm h–1 10 – 0,5 6 dépendant
des modèles
Convection
GEO Radiométrie VIS/IR 5 mm h–1 10 – 0,1 6
seulement
Produit issu
Fusion LEO/MW
GEO 2,5 mm h–1 10 – 0,1 6 de la fusion
+ GEO/IR
des données
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Produit issu de
Fusion LEO/MW
GEO 5 mm 10 – 3 3 (LEO) + 6 (GEO) la fusion des
+ GEO/IR
Surface données
Tableau 5.A.2.16. Qualité potentielle estimée du produit «détection de la foudre» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Cartographie
LEO 0,10/0,95 FAR/HR 5 – 12 3 –
de la foudre
s.o.
Cartographie
GEO 0,15/0,90 FAR/HR 10 – 0,01 6 –
de la foudre
1126 PARTIE III. OBSERVATIONS SPATIALES
3. AÉROSOLS ET RAYONNEMENT
Tableau 5.A.3.1. Qualité potentielle estimée du produit «épaisseur optique des aérosols»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Lidar de Air clair
LEO rétrodiffusion 0,01 50 – 360 1
(non balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Lidar de 1% 50 0,1 360 1 Air clair
(à ~500 hPa) rétrodiffusion
(non balayeur)
Tableau 5.A.3.3. Qualité potentielle estimée du produit «rayon effectif des aérosols»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Lidar de 0,2 µm 50 0,3 360 1 Air clair
rétrodiffusion
(non balayeur)
Tableau 5.A.3.4. Qualité potentielle estimée du produit «type d'aérosols» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Lidar de 6 classes 50 0,3 360 1 Air clair
rétrodiffusion
(non balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Colonne LEO Lidar de 6 classes 50 – 360 1 Air clair
totale rétrodiffusion
(non balayeur)
Tableau 5.A.3.5. Qualité potentielle estimée du produit «cendres volcaniques» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Lidar de 1% 50 0,1 360 1 Air clair
rétrodiffusion
(non balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Stratosphère LEO Lidar de 2% 50 0,5 360 1 Air clair
rétrodiffusion
(non balayeur)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Couche
supérieure Radiomètre Intégration sur
LEO 0,2 W · m–2 s.o. – 24 1
de à cavité plusieurs orbites
l'atmosphère
Couche
supérieure Radiomètre Intégration
GEO 0,15 W · m–2 s.o. – 24 6
de à cavité quotidienne
l'atmosphère
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1131
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(unit) (km) (km) (h) de sat.
Couche 50 – 720 1 Sans balayage
supérieure
Spectroscopie
de LEO 100 SNR
SW+LW 10 – 168 1 Fauchée limitée
l'atmo-
sphère
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Couche Radiométrie
LEO 4 W · m–2 20 – 4 3 –
supérieure à large bande
de l'atmo- Radiométrie
sphère GEO 4 W · m–2 30 – 0,25 6 –
à large bande
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie Avec l'aide
Couche LEO à large bande 10 W · m–2 20 – 4 3 d'un
supérieure modèle
de Radiométrie Avec l'aide
l'atmosphère GEO à large bande 15 W · m–2 30 – 0,25 6 d'un
modèle
Tableau 5.A.3.10. Qualité potentielle estimée du produit «réflectance des nuages de courtes
longueurs d'onde» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Couche Radiométrie
LEO 5% 4 – 4 3 –
supérieure ondes courtes
de Radiométrie
l'atmosphère GEO ondes courtes
7% 8 – 0,1 6 –
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Basé sur Avec l'aide
LEO 10 W · m–2 20 – 4 3
sondage IR/MW d'un modèle
Surface
Basé sur Avec l'aide
GEO 10 W · m–2 20 – 0,5 6
sondage IR/MW d'un modèle
1132 PARTIE III. OBSERVATIONS SPATIALES
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie ondes Air clair, avec
LEO courtes 20 W · m–2 4 – 4 3 l'aide d'un
modèle
Surface
Radiométrie ondes Air clair, avec
GEO courtes 30 W · m–2 8 – 0,1 6 l'aide d'un
modèle
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie Air clair, avec
LEO ondes courtes à 1% 10 – 168 1 l'aide d'un
visées multiples modèle
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie
Surface LEO ondes courtes 3% 8 – 168 1 Air clair
à visées multiples
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, avec
Radiométrie à large
LEO 15 W · m–2 20 – 4 3 l'aide d'un
bande
modèle
Surface
Air clair, avec
Radiométrie à large
GEO 15 W · m–2 30 – 0,25 6 l'aide d'un
bande
modèle
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1133
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie IR 3% 4 – 168 3 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, avec
LEO Radiométrie VIS 10 W · m–2 4 – 4 3 l'aide d'un
modèle
Surface
Air clair, avec
GEO Radiométrie VIS 10 W · m–2 8 – 0,1 6 l'aide d'un
modèle
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, avec
LEO Radiométrie VIS 10 % 4 – 4 3 l'aide d'un
modèle
Surface
Air clair, avec
GEO Radiométrie VIS 10 % 8 – 0,1 6 l'aide d'un
modèle
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, de jour,
Radiométrie
LEO 0,1 mg · m–3 4 – 8 3 avec l'aide
VIS
d'un modèle
Surface
Air clair, de jour,
Radiométrie
GEO 0,2 mg · m–3 8 – 0,25 6 avec l'aide
VIS
d'un modèle
Tableau 5.A.4.2. Qualité potentielle estimée du produit «matière organique dissoute colorée»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, de jour,
LEO Radiométrie VIS 0,01 m–1 4 – 8 3 avec l'aide
d'un modèle
Surface
Air clair, de jour,
GEO Radiométrie VIS 0,02 m–1 8 – 0,25 6 avec l'aide
d'un modèle
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, de jour,
LEO Radiométrie VIS 0,05 g · m–3 4 – 8 3 avec l'aide
d'un modèle
Surface
Air clair, de jour,
GEO Radiométrie VIS 0,1 g · m–3 8 – 0,25 6 avec l'aide
d'un modèle
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Air clair, de jour,
LEO Radiométrie VIS 0,5 m–1 4 – 8 3 avec l'aide
d'un modèle
Surface
Air clair, de jour,
GEO Radiométrie VIS 1 m–1 8 – 0,25 6 avec l'aide
d'un modèle
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1135
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie VIS/NIR Air clair,
LEO 15 % 4 – 8 3
de jour
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie IR 0,4 K 8 – 4 3 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Tous temps,
Radiométrie
intégration dans
Surface LEO hyperfréquences 0,3 USP 200 – 240 1
l'espace et dans le
(bande L)
temps
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Altimétrie radar
Surface LEO 3 cm 50 – 240 2 Tous temps
(sans balayage)
Tableau 5.A.4.9. Qualité potentielle estimée du produit «niveau de la mer à proximité des
côtes (marées)» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Altimétrie radar
Surface LEO 3 cm 50 – 240 2 Tous temps
(sans balayage)
1136 PARTIE III. OBSERVATIONS SPATIALES
Tableau 5.A.4.10. Qualité potentielle estimée du produit «hauteur significative des vagues»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Altimétrie radar
LEO 0,1 m 50 – 240 2 Tous temps
(sans balayage)
Surface Basé sur
LEO spectrométrie 0,5 m 50 – 240 2 Tous temps
RSO
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Basé sur
Surface LEO spectrométrie 10 degrés 50 – 240 2 Tous temps
RSO
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Basé sur
Surface LEO spectrométrie 10 s 50 – 240 2 Tous temps
RSO
Tableau 5.A.4.13. Qualité potentielle estimée du produit «spectre directionnel des vagues»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Basé sur
Surface LEO spectrométrie 0,1 m2 · Hz–1 · rad–1 50 – 240 2 Tous temps
RSO
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie VIS/IR 10 % 5 – 48 3 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Altimétrie radar Tous temps
LEO 25 cm 30 – 720 1
(sans balayage)
Tableau 5.A.4.16. Qualité potentielle estimée du produit «type de glace de mer» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Diffusiométrie radar 5 classes 20 – 12 3 Tous temps
Tableau 5.A.5. Variables géophysiques entrant dans la catégorie «surfaces des terres
émergées (y compris couverture neigeuse)»
Humidité du sol en surface Indice différentiel Couverture neigeuse Couverture des glaciers
normalisé de
végétation
Humidité du sol (dans la zone Proportion des terres Équivalent en eau de la Topographie des glaciers
racinaire) incendiées couverture de neige
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (km) de sat.
LEO Radiométrie IR 2K 8 – 4 3 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie Tous temps,
LEO hyperfréquences 0,05 m3 · m–3 30 – 8 3 sensible à la
végétation
Tableau 5.A.5.3. Qualité potentielle estimée du produit «humidité du sol (dans la zone
racinaire)» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie Tous temps,
LEO hyperfréquences 0,05 m3 · m–3 50 0,0001 72 1 avec l'aide
(bande L) d'un modèle
Surface
Imagerie RSO Tous temps,
LEO (bande L) 0,1 m3 · m–3 0,1 0,0001 1 440 1 avec l'aide
d'un modèle
Tableau 5.A.5.4. Qualité potentielle estimée du produit «fraction des terres couvertes de
végétation» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Imagerie Air clair, de jour
LEO optique haute 10 % 1 – 168 4
Surface résolution
Tableau 5.A.5.5. Qualité potentielle estimée du produit «type de végétation» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Imagerie
LEO optique haute 20 classes 0,1 – 2 160 4 Air clair, de jour
Surface résolution
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie ondes
LEO 10 % 2 – 168 3 Air clair, de jour
courtes
Radiométrie ondes
GEO 10 % 4 – 72 6 Air clair, de jour
Surface courtes
Imagerie optique
LEO 10 % 0,1 – 168 4 Air clair, de jour
haute résolution
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie VIS/NIR Air clair,
LEO 5% 2 – 168 3
de jour
Tableau 5.A.5.8. Qualité potentielle estimée du produit «proportion des terres incendiées»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie VIS/IR Canaux VIS
LEO 12 % 4 – 4 3 indisponibles de
nuit
Imagerie optique
LEO 10 % 0,1 – 168 4 Air clair, de jour
haute résolution
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie IR 10 K 2 – 4 3 Air clair
Surface
GEO Radiométrie IR 20 K 6 – 0,1 6 Air clair
1140 PARTIE III. OBSERVATIONS SPATIALES
Tableau 5.A.5.10. Qualité potentielle estimée du produit «énergie radiative des incendies»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie IR 10 kW · m–2 2 – 4 3 Air clair
Surface
GEO Radiométrie IR 20 kW · m–2 6 – 0,1 6 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie 8
LEO 0,15/0,90 FAR/HR 10 – 3 Tous temps
Surface hyperfréquences (GPM)
Tableau 5.A.5.12. Qualité potentielle estimée du produit «couverture neigeuse» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Radiométrie VIS/IR 10 % 5 – 48 3 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Radiométrie Tous temps
LEO 20 mm 10 – 8 3
hyperfréquences
Surface
LEO Diffusiométrie radar 20 mm 20 – 12 3 Tous temps
Tableau 5.A.5.14. Qualité potentielle estimée du produit «type de sols» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Imagerie optique
LEO 20 classes 0,01 – 8 760 4 Air clair, de jour
Surface haute résolution
Tableau 5.A.5.15. Qualité potentielle estimée du produit «couverture terrestre» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Imagerie optique
LEO 20 classes 0,01 – 8 760 4 Air clair, de jour
Surface haute résolution
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Stéréoscopie VIS
LEO 2m 0,01 – 8 760 4 Air clair, de jour
haute résolution
Interférométrie par
LEO 1m 0,01 – 8 760 2 Tous temps
RSO
Surface
Altimétrie radar
LEO 0,2 m 0,2 – 43 800 1 Tous temps
(sans balayage)
Tableau 5.A.5.17. Qualité potentielle estimée du produit «couverture des glaciers» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Imagerie optique Air clair, de jour
LEO 10 % 0,01 – 8 760 4
Surface haute résolution
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Interférométrie
Surface LEO 100 cm 0,01 – 8 760 2 Tous temps
par RSO
6. SOLIDE TERRESTRE
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Altimétrie radar Tous temps,avec
LEO 10 cm 500 – 8 760 2
(sans balayage) l'aide d'un modèle
Surface
Champ Tous temps, avec
LEO 1 cm 100 – 17 520 1
gravitationnel l'aide d'un modèle
Tableau 5.A.6.2. Qualité potentielle estimée du produit «position des plaques tectoniques»
(d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Télémétrie laser 2 cm 500 – 8 760 5 De nuit, air clair
Surface
LEO Récepteur GPS 2 cm 100 – 8 760 24 Tous temps
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
LEO Télémétrie laser 2 mm · a–1 500 – 8 760 5 De nuit, air clair
Surface
LEO Récepteur GPS 2 mm · a–1 100 – 8 760 24 Tous temps
Tableau 5.A.6.4. Qualité potentielle estimée du produit «champ gravitationnel» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Changement
LEO Gradiométrie 2 mGal 300 – 8 760 1 d'orbite pendant la
Altitude mission
de
l’orbite Changement
Télémétrie
LEO 2 mGal 300 – 8 760 2 d'orbite pendant la
satellite‑satellite
mission
Tableau 5.A.6.5. Qualité potentielle estimée du produit «gradients de gravité» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Gradiométrie Changement
LEO 0,1 E 300 – 8 760 1 d'orbite pendant la
Altitude mission
de
l'orbite Télémétrie Changement
LEO satellite‑satellite 0,1 E 300 – 8 760 2 d'orbite pendant la
mission
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1143
7. CHIMIE DE L'ATMOSPHÈRE
Nitrate de
O3 C 2H2 CFC–11 CH2O ClO CO COS HCl HNO3 N2O5 NO2 SF6
peroxyacétyle
Présence de nuages
BrO C 2H6 CFC–12 CH4 ClONO2 CO2 H2O HDO N2O NO OH stratosphériques SO2
polaires
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie ondes 10 nmol mol–1 20 3 8 3 Air clair,
(à ~500 hPa) courtes (balayage de jour
transversal)
LEO DIAL (non balayeur) 3 nmol mol–1 50 0,5 360 1 Air clair
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Colonne LEO Spectroscopie ondes 6 UD 20 – 8 3 Air clair,
totale courtes de jour
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie UV 40 nmol · mol–1 50 5 8 3 Air clair,
(à ~500 hPa) (balayage de jour
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie TIR
LEO (balayage 30 nmol · mol–1 50 3 4 3 Air clair
Troposphère transversal)
(à ~500 hPa) Spectroscopie TIR
GEO (balayage 50 nmol · mol–1 50 4 0,5 6 Air clair
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie TIR
LEO (balayage 30 nmol · mol–1 50 4 4 3 Air clair
Troposphère transversal)
(à ~500 hPa) Spectroscopie TIR
GEO (balayage 50 nmol · mol–1 50 5 0,5 6 Air clair
transversal)
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1145
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 10 nmol · mol–1 50 4 4 3 Air clair
(à ~500 hPa) (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 10 nmol · mol–1 50 4 4 3 Air clair
(à ~500 hPa) (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie UV 25 nmol · mol–1 50 3 8 3 Air clair,
(à ~500 hPa) (balayage de jour
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Colonne LEO Spectroscopie UV 1,5 · 1,3 · 1015 cm–2 20 – 8 3 Air clair,
totale de jour
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 10 nmol · mol–1 50 4 8 3 Air clair,
(à ~500 hPa) ondes courtes de jour
(balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie 40 nmol · mol–1 50 5 8 3 Air clair,
(à ~500 hPa) UV (balayage de jour
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 10 nmol · mol–1 50 4 4 3 Air clair
(à ~500 hPa) (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 20 nmol · mol–1 50 3 8 3 Air clair,
(à ~500 hPa) ondes courtes de jour
(balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 10 nmol · mol–1 100 3 8 3 Air clair,
(à ~500 hPa) ondes courtes de jour
(balayage
transversal)
LEO DIAL (non 0,3 · 1,3 · 1015 cm–2 500 – 8 760 1 Air clair
balayeur)
1150 PARTIE III. OBSERVATIONS SPATIALES
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie TIR 10 nmol · mol–1 50 3 4 3 Air clair
(à ~500 hPa) (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie ondes 5 nmol · mol–1 10 3 8 3 Air clair,
(à ~500 hPa) courtes (balayage de jour
transversal)
LEO DIAL (non balayeur) 2 nmol · mol–1 50 0,5 360 1 Air clair
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1151
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Stratosphère LEO Spectroscopie ondes 15 nmol · mol–1 10 5 8 3 De jour
(à ~30 hPa) courtes (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie
Stratosphère
LEO submil. 30 nmol · mol–1 300 2 72 1 –
(à ~30 hPa)
(balayage au limbe)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie
Stratosphère
LEO submil. 15 nmol · mol–1 300 2 72 1 –
(à ~30 hPa)
(balayage au limbe)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 30 nmol · mol–1 50 3 4 3 Air clair
(à ~500 hPa) (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Stratosphère LEO Spectroscopie IR 50 nmol · mol–1 50 6 4 3 –
(à ~30 hPa) (balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie IR 10 nmol · mol–1 50 3 8 3 Air clair,
(à ~500 hPa) ondes courtes de jour
(balayage transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie TIR
LEO (balayage 30 nmol · mol–1 50 3 4 3 Air clair
Troposphère transversal)
(à ~500 hPa) Spectroscopie TIR
GEO (balayage 50 nmol · mol–1 50 4 0,5 1 Air clair
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie 20 nmol · mol–1 50 3 8 3 Air clair,
(à ~500 hPa) ondes courtes de jour
(balayage
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie ondes 20 nmol · mol–1 50 3 8 3 Air clair,
(à ~500 hPa) courtes (balayage de jour
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie submil.
LEO 30 nmol · mol–1 300 2 72 1 –
Stratosphère (balayage au limbe)
(à ~30 hPa) Spectroscopie FIR
LEO 20 nmol · mol–1 300 2 72 1 –
(balayage au limbe)
CHAPITRE 5. OBSERVATION DES VARIABLES GÉOPHYSIQUES DEPUIS L’ESPACE 1155
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie TIR
LEO (balayage 30 nmol · mol–1 50 3 4 3 Air clair
Troposphère transversal)
(à ~500 hPa) Spectroscopie TIR
GEO (balayage 40 nmol · mol–1 50 4 0,5 6 Air clair
transversal)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie
ondes courtes 0,30/0,80
LEO 50 4 8 3 De jour
(balayage FAR/HR
transversal)
Spectroscopie
ondes courtes 0,40/0,70
GEO 50 4 8 6 De jour
(balayage FAR/HR
transversal)
Stratosphère Spectroscopie
(à ~30 hPa) ondes courtes 0,20/0,85
LEO 300 2 144 1 De jour
(balayage au FAR/HR
limbe)
Spectroscopie IR
0,25/0,80
LEO (balayage au 300 2 72 1 –
FAR/HR
limbe)
Lidar de
0,10/0,95
LEO rétrodiffusion (visée 50 0,1 360 1 –
FAR/HR
nadir)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Spectroscopie TIR
LEO (balayage 25 nmol · mol–1 50 6 4 3 –
transversal)
Spectroscopie TIR
Stratosphère
GEO (balayage 30 nmol · mol–1 50 8 0,25 6 –
(à ~30 hPa)
transversal)
Spectroscopie TIR
LEO (balayage au 15 nmol · mol–1 300 2 72 1 –
limbe)
1156 PARTIE III. OBSERVATIONS SPATIALES
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Troposphère LEO Spectroscopie UV 20 nmol · mol–1 50 3 8 3 Air clair,
(à ~500 hPa) (balayage de jour
transversal)
8. MÉTÉOROLOGIE DE L'ESPACE
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Occultation Altitude
LEO 5% 300 3 12 12
radio GNSS 90‑800 km
Tableau 5.A.8.2. Qualité potentielle estimée du produit «densité électronique» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Altitude
Ionosphère LEO Occultation radio GNSS 10 % 300 10 12 12
90‑800 km
Tableau 5.A.8.3. Qualité potentielle estimée du produit «champ magnétique» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Limité à l'orbite
LEO Magnétométrie 0,3 nT 100 – 240 1
du satellite
Magnétosphère
Limité à l'orbite
GEO Magnétométrie 1 nT 100 – 0,25 6
du satellite
Tableau 5.A.8.4. Qualité potentielle estimée du produit «champ électrique» (d'ici 2020)
Incertitude Δx Δz Δt Nbre
Couche Orbite Technique Conditions
(RMS) (km) (km) (h) de sat.
Limité à l'orbite
LEO Dérive d'ions 10 mV·m–1 100 – 240 1
du satellite
Magnétosphère
Limité à l'orbite
GEO Dérive d'ions 10 mV·m–1 100 – 0,25 6
du satellite
TABLE DES MATIÈRES DU CHAPITRE
Page
6.1.1 Introduction
L'étalonnage est l'opération qui établit une définition quantitative de la réponse de l'instrument
satellitaire à des signaux d'entrée connus et contrôlés1. Les informations d'étalonnage se trouvent
dans une formule d'étalonnage ou dans des coefficients d'étalonnage qui servent à convertir
les lectures instrumentales («visées», originalement sous forme de «signaux analogiques») en
unités physiques (par exemple, valeur de luminance énergétique). L'étalonnage de l'instrument
est une opération préalable essentielle à tout traitement ultérieur des données, en particulier
pour dériver des produits quantitatifs ou pour fusionner les données issues d'instruments
différents (par exemple, pour la production d'images composites). Dans le cas des applications
climatologiques, la nécessité d'un étalonnage précis revêt une importance particulière2 puisque
la détection de tendances légères qui se dégagent sur de longues périodes de temps exige
qu'on puisse comparer les mesures effectuées à l'aide d'instruments différents embarqués
sur des satellites différents et utilisés à des moments différents. L'établissement de jeux de
données climatologiques homogènes dépend de la stabilité des opérations d'étalonnage et de
caractérisation des erreurs.
Les considérations qui suivent s'appliquent à la fois aux instruments passifs et actifs.
L'étalonnage fondé sur des cibles terrestres stables et aux caractéristiques bien définies (appelé
«étalonnage vicariant») peut servir de solution de rechange lorsqu'un instrument satellitaire ne
peut être relié directement à un étalon de référence3 à cause, par exemple, de l'absence à bord
du satellite d'un dispositif d'étalonnage fiable. Il est possible de réétalonner rétrospectivement
les données produites par d'anciens instruments lorsque des informations supplémentaires sur
l'état de ces instruments deviennent disponibles, en recourant par exemple à une comparaison
avec des séries chronologiques anciennes bien connues et soumises à un nouveau traitement.
1
Définition retenue par le Groupe de travail sur l’étalonnage et l’homologation du Comité sur les satellites
d'observation de la Terre (CSOT). (Les termes définis dans la présente partie diffèrent dans certains cas de ceux
définis dans Comité commun pour les guides en métrologie (JCGM, 2012).)
2
Voir par exemple Ohring (2007).
3
Pour en savoir plus sur les normes de référence, voir par exemple Fox (2010).
1160 PARTIE III. OBSERVATIONS SPATIALES
Dans le cas des instruments à infrarouge, si on suppose que la réponse des détecteurs du
radiomètre est linéaire, le voltage de sortie sera défini par la formule suivante:
V = α R + V0
où R désigne la radiance d'entrée, α la réceptivité du radiomètre, et V0 la tension de décalage du
système. L'étalonnage consiste à déterminer les valeurs de α et de V0, ce que l'on fait en exposant
le radiomètre à au moins deux cibles de référence présentant des températures de luminance
significativement différentes.
Pour les instruments infrarouges et hyperfréquences, une des cibles de référence est l'espace
lointain, avec une température de 2,725 K. L'observation en visée directe de l'espace lointain
n'est pas toujours possible pour les instruments embarqués sur une plate-forme satellitaire. Par
exemple, les instruments à balayage longitudinal orientés en permanence vers la surface de la
Terre ont besoin d'être équipés d'un sous-réflecteur pour être en mesure de fournir à intervalles
une visée de l'espace lointain. Une source aux caractéristiques bien définies dont la température
se situe dans la portion moyenne à supérieure de la gamme dynamique peut habituellement
servir de deuxième cible. Il s'agit souvent d'un corps noir dont les mesures sont idéalement
rapportées au Système international d'unités (SI) — par exemple, une échelle de luminance
fournie par un institut national de métrologie.
Pour les instruments dans l’ultraviolet, le visible et le proche infrarouge, l'étalonnage à bord
présente des difficultés supplémentaires puisqu'il subira l'influence de plusieurs facteurs. À
l'extrémité inférieure du spectre de puissance des signaux, l'espace lointain constitue une
référence utile à condition que les effets perturbateurs (par exemple, réflexions d'autres
parties du satellite) soient évités. À l'extrémité supérieure du spectre, une source absolue est
généralement remplacée par des diffuseurs solaires qui procurent une référence assez stable. La
Lune peut aussi servir de cible de référence, et présente l'avantage d'être observable sans l'aide
d'un atténuateur; dans ce cas, il faut cependant utiliser en même temps un modèle précis de
la luminance lunaire. Ni le diffuseur solaire ni la Lune ne fournissent un étalon absolu. Un autre
système souvent utilisé consiste en un ensemble de sources lumineuses linéaires d'intensité bien
maîtrisée. Il convient enfin de tenir également compte des effets de polarisation dépendants du
spectre induits par les surfaces réfléchissantes des éléments optiques de l'instrument.
L'étalonnage à bord présente une autre difficulté: il arrive souvent que la structure de
l'instrument ne permette pas l'illumination entière des éléments optiques primaires par les
sources de référence. Par exemple, un radiomètre en orbite géostationnaire stabilisé par rotation
utilise un corps noir interne qui nécessite le recours à un modèle des contributions du télescope
et des éléments optiques d'entrée au rayonnement de fond. Souvent, la source de référence
n'illumine qu'une fraction des éléments optiques de l'instrument, et on l'utilise en conséquence
davantage pour le contrôle de la stabilité que pour l'étalonnage absolu.
L'étalonnage à bord peut être complété par le recours à des cibles stables au sol, utilisées en
guise de cibles de référence dans le cadre d'un processus appelé étalonnage vicariant. La cible
doit être correctement caractérisée pour permettre de déduire la luminance énergétique émise
ou réfléchie dans l'espace. Les effets combinés de la géométrie de visée et, dans le cas des
ondes courtes, de la fonction de distribution de la réflectance bidirectionnelle de la surface et
de l'atmosphère doivent être pris en compte. Il importe également de connaître précisément
le transfert radiatif à travers l'atmosphère, entre le satellite et la source de référence au sol, au
moment du passage du satellite. Dans les cas d'observations en ciel clair, le spectre à ondes
courtes est particulièrement touché par les effets des aérosols, tandis que le spectre à grandes
longueurs d'onde est particulièrement influencé par la présence de vapeur d'eau.
1162 PARTIE III. OBSERVATIONS SPATIALES
L'étalonnage vicariant peut faire appel à divers types de cibles: champs de glace polaires
servant de corps noir pour les radiomètres hyperfréquences; champs de neige, reflet solaire,
régions désertiques homogènes et sommet des nuages de convection profonde pour la portion
supérieure de la gamme dynamique visible; océans exempts de toute couverture nuageuse
servant de cibles foncées dans le visible; miroirs de type «coins de cube» pour les radars à
synthèse d’ouverture; étendues de forêt pluviale servant de corps noir pour les diffusiomètres
radar; etc. Les sites d'étalonnage équipés d'instruments d'observations in situ servent à
l'étalonnage d'instruments satellitaires à haute résolution spatiale. Au moment de la mise en
service initiale de la charge utile ou à intervalles réguliers, le survol synchronisé d'une zone cible
par un aéronef et par le satellite constitue un moyen de recueillir des données supplémentaires
d'étalonnage vicariant.
L'interétalonnage des instruments satellitaires est fondé sur le rapport des mesures effectuées à
l'aide de deux instruments distincts. Cette procédure vise deux objectifs:
b) Intégrer les données produites par plusieurs instruments pour générer des séries
chronologiques cohérentes.
b) Les états atmosphériques différents dans la ligne de visée, y compris la présence d'aérosols
et de nuages;
Il convient de noter que les observations simultanées de deux satellites héliosynchrones ne sont
réalisables qu'aux intersections de leurs plans orbitaux, lesquelles correspondent toujours à un
temps solaire local donné et à une latitude donnée généralement haute, au nord ou au sud4.
6.1.7 Correction des erreurs systématiques dans les registres de données à long
terme
Une autre méthode d'interétalonnage des instruments qui exige moins de calculs et qui
s'applique a posteriori aux longues séries de données consiste à simplement comparer la
4
Pour une inclinaison de 98°, la latitude de croisement est supérieure à 70° lorsque les heures de passage au-dessus
de l'équateur (ECT) des deux orbites s'écartent de moins de 8 heures; cette latitude ne diminue sensiblement que
lorsque la différence d'ECT augmente pour s'approcher de 12 heures.
CHAPITRE 6. ÉTALONNAGE ET VALIDATION 1163
Pour les applications qui exigent un haut degré d'exactitude et de cohérence entre les divers
registres de données, une correction supplémentaire peut venir s'ajouter à l'étalonnage
opérationnel pour prendre en compte les résultats des plus récentes activités d'interétalonnage.
Le GSICS fournit de telles corrections. Les coefficients d'étalonnage corrigés peuvent être
inclus dans les formats de données de niveau 1b/1.5 à titre d'informations d'étalonnage
supplémentaires.
Bien que l'interétalonnage puisse assurer la cohérence des mesures effectuées par les
différents instruments satellitaires, il n'en assure pas nécessairement la traçabilité au SI, sauf
si un instrument de référence en orbite est rattaché au SI. Il est très difficile de parvenir à
une traçabilité par rapport au SI en orbite puisque la plupart des capteurs se détériorent
physiquement pendant et après le lancement; cette difficulté pose des défis majeurs de
conception des instruments et continue de faire l'objet de recherches pour presque tous les types
de mesures.
1164 PARTIE III. OBSERVATIONS SPATIALES
La mission CLARREO (Climate Absolute Radiance and Refractivity Observatory) proposée par
le Conseil national de recherche des États-Unis d'Amérique fait appel à un interféromètre
infrarouge de haute précision doté d'un corps noir de référence d'émissivité élevée utilisant de
multiples cellules de changement de phase pour un thermomètre d’étalonnage rattaché au SI,
un spectromètre dans l’ultraviolet, le visible et le proche infrarouge étalonné par visées solaires
et lunaires, un radiomètre cryogénique à cavité active, et des mesures d'occultation radio. Cette
série d'instruments vise à fournir des mesures absolument identifiables de l'ensemble du spectre
du rayonnement solaire émis et réfléchi par la Terre. La mise en œuvre et le maintien en service
d'une telle mission pourrait servir de point d'ancrage à l'étalonnage et à la traçabilité de la
constellation entière de radiomètres d'exploitation.
Pour assurer la traçabilité des mesures, il convient de tirer parti des instruments qui ne
dépendent pas d'un étalonnage radiométrique, comme les capteurs à occultation radio et les
capteurs à occultation du Soleil ou des étoiles (voir les sections 2.2.4.3 et 2.2.5.1 du chapitre 2 de
la partie III).
La validation est l'opération qui sert à évaluer par des moyens indépendants la qualité des
produits tirés des mesures effectuées par les instruments satellitaires5. La validation des produits
devrait être effectuée par leurs concepteurs, après l'étalonnage des instruments, et sa mise en
œuvre devrait faire l'objet de plans détaillés adaptés aux instruments utilisés. On trouvera dans le
cadre «assurance de la qualité» pour l’observation de la Terre (QA4EO) des directives concernant
les informations à fournir sur la qualité des produits.
Les produits géophysiques sont élaborés à partir des données satellitaires (souvent des mesures
de luminance énergétique) par l'application d'un algorithme physique ou empirique. La
comparaison des produits déduits et des tendances qu'ils laissent deviner aux observations
in situ ou aux résultats de la modélisation représente une étape importante du processus
consistant à évaluer et attester la fiabilité des algorithmes d'extraction et à en définir le domaine
d'application.
Une tendance particulière peut être liée à la performance de l'instrument utilisé, et il convient
donc de procéder à une analyse minutieuse de l'étalonnage de l'instrument satellitaire et des
données environnementales avant de pouvoir procéder à toute correction empirique.
5
Définition retenue par le Groupe de travail sur l'étalonnage et l'homologation du CSOT.
CHAPITRE 6. ÉTALONNAGE ET VALIDATION 1165
Il convient de noter qu'il peut arriver, pour certains produits satellitaires, qu'aucune mesure
indépendante de validation ne soit disponible, et qu'il faille alors s'en remettre à une évaluation
de l'impact du produit au moment de son utilisation dans une application (par exemple, lors de
l'assimilation dans un modèle de prévision numérique du temps).
Les méthodes de validation des produits dérivés des satellites devraient être conformes aux
meilleures pratiques et reposer sur des protocoles dépendants des variables — par exemple, ceux
mis au point par le Groupe de travail sur l’étalonnage et l’homologation du CSOT. La validation
des paramètres et produits dérivés des satellites peut être réalisée en utilisant les sources
suivantes:
Par exemple, pour faciliter l’élaboration validée de produits satellitaires combinés de température
de surface de la mer, le Groupe sur les données de température de surface de la mer en haute
résolution a élaboré une stratégie de validation complète6 incluant une description détaillée des
protocoles, des stratégies d'harmonisation des concepts de validation adaptés aux différents
capteurs embarqués à bord de satellites et participant à la mesure de la température de surface
de la mer, des besoins en matière de mesures in situ (bouées) servant de sources de données in
situ, et des mesures de contrôle de la qualité des produits.
L'expérience démontre que les résultats de la validation directe sont moins significatifs pour
certains produits dérivés des satellites que pour d'autres. Comme les tests de validation
combinent les effets de diverses sources d'erreurs (produit satellitaire, mesures au sol, méthode
de comparaison), l'erreur due au produit satellitaire lui-même risque d'être difficile à isoler. Pour
certaines variables géophysiques, les mesures au sol risquent d'être plutôt inexactes. Pour les
autres, il est possible que la méthode de comparaison soit trop dépendante de l'environnement
d'observation.
Une méthode possible d'évaluation d'un produit par rapport à une application particulière
consiste donc à évaluer l'impact sur les capacités de l'application. Dans ce cas, l'évaluation reflète
la qualité du produit associée à l'aptitude de l'application à l'utiliser. Par exemple, les modèles
de prévision numérique du temps fondés sur des sondages de la température et de l'humidité
ont pendant quelques décennies laissé conclure à un impact marginal; on n'a commencé à parler
d'un impact positif significatif qu'à partir de l'avènement de l'assimilation directe de la luminance
6
https://w ww.ghrsst.org/products-and-services/product-validation/
1166 PARTIE III. OBSERVATIONS SPATIALES
énergétique. Inversement, l'assimilation des vents déduits des mouvements des nuages a au
départ laissé constater un fort impact positif malgré les résultats décevants des exercices de
validation initiaux.
En résumé, la validation nécessite une analyse rigoureuse de toutes les sources d'erreurs et de
toutes les étapes de la méthode de comparaison. Si cette analyse laisse conclure à l'impossibilité
d'isoler l'erreur due au produit satellitaire, l'analyse d'impact demeure un mécanisme de
validation envisageable.
RÉFÉRENCES ET AUTRES LECTURES
Comité commun pour les guides en métrologie (JCGM), 2012: Vocabulaire international de métrologie –
Concepts fondamentaux et généraux et termes associés (VIM), JCGM 200:2012.
Fox, N., 2010: QA4EO – A Quality Assurance Framework for Earth Observation: A guide to “reference standards” in
support of Quality Assurance requirements of GEO (M.C. Greening, dir.).
QA4EO‑QAEO‑GEN‑DQK‑003, Groupe sur l'observation de la Terre (consultable à l’adresse
http://www.qa4eo.org/docs/QA4EO- QAEO- GEN-DQK- 0 03_v4.0.pdf).
Ohring, G. (dir.), 2007: Achieving Satellite Instrument Calibration for Climate Change (ASIC3). Report of a
workshop organized by the National Oceanic and Atmospheric Administration, National
Institute of Standards and Technology, National Aeronautics and Space Administration,
National Polar-orbiting Operational Environmental Satellite System-integrated Program Office,
and Space Dynamics Laboratory of Utah State University, 16–18 mai 2006, Lansdowne,
Virginie.
TABLE DES MATIÈRES DU CHAPITRE
Page
a) Les observations passives de la surface terrestre (par les fenêtres atmosphériques) et des
gaz de l’atmosphère dans les bandes d’absorption;
b) Les observations actives par radar (altimètres, diffusomètres, radars à synthèse d'ouverture
(RSO));
L'utilisation du spectre des fréquences radioélectriques est coordonnée à l'échelle du globe par
l’Union internationale des télécommunications (UIT). Le Règlement des radiocommunications
est mis à jour par les États membres de l’UIT lors de la Conférence mondiale des
radiocommunications, qui se tient tous les quatre ans. L'UIT réglemente l’attribution de bandes
de fréquences radioélectriques aux différentes applications, connues sous le nom de services,
comme les services de télécommunications fixes et mobiles, les applications mobiles large bande,
la radionavigation, les radars au sol, les dispositifs à courte portée et le reportage électronique
d'actualités. L'UIT classe les applications liées à l'observation de la Terre en deux grandes
catégories: le service d'exploration de la Terre par satellite (SETS) et le service de météorologie
par satellite (Metsat). Bien que certaines bandes soient attribuées à un service sur une base
exclusive, la plupart sont attribuées à plusieurs services, sous certaines conditions (telles que la
limitation du nombre, de la puissance d'émission et de la répartition géographique des sources)
qui visent à éviter les interférences préjudiciables.
Étant donné l'expansion rapide du secteur des télécommunications et ses besoins de spectre
croissants, la protection des fréquences requises pour le STES et le service Metsat a pris une
importance considérable. Diverses préoccupations sont à prendre en compte à cet égard:
a) Le brouillage causé par les émissions incontrôlées dans la bande de fréquences exclusives
du SETS ou du service Metsat, ou par les émissions hors bande voisines des fréquences de la
bande passante;
b) Le partage de bandes de fréquences dans des conditions qui ne sont pas assez rigoureuses
pour garantir une protection fiable;
c) Le désir d'autres services d’utiliser des bandes attribuées auparavant au SETS ou au service
Metsat;
d) La nécessité pour le STES ou le Metsat d'utiliser de nouvelles bandes du fait des avancées
technologiques dans le domaine de la télédétection (par exemple, hyperfréquences
au‑delà de 300 GHz), de l'augmentation du débit des données ou de l'augmentation de la
largeur de bande requise pour les télécommunications.
Pour répondre à ces préoccupations, il convient de se rappeler que les fréquences utilisées pour
les mesures passives ne peuvent être choisies dans n'importe quel segment du spectre: leur
choix est déterminé par des impératifs physiques, et doit correspondre aux crêtes d’absorption
des composantes atmosphériques ou aux canaux fenêtres. Les émissions naturelles sont
1170 PARTIE III. OBSERVATIONS SPATIALES
extrêmement faibles comparativement à celles de la plupart des sources artificielles, et sont donc
facilement brouillées. En conséquence, il convient de considérer les bandes radiométriques de
mesures passives comme un patrimoine naturel à préserver.
Le domaine spectral utilisé pour les observations terrestres s'étend de ∼1,4 GHz (par exemple,
pour la mesure de la salinité de l'eau des océans) à ∼2 500 GHz et au‑delà. Les principaux
problèmes se posent pour les fréquences inférieures à 300 GHz. On commence à peine à
utiliser les fréquences supérieures à ∼300 GHz; de plus, comme le continuum de la vapeur d'eau
empêche l'observation de la basse troposphère, la plupart des instruments fonctionnant à
ces fréquences sont conçus pour l'analyse de la chimie de l’atmosphère et utilisent le sondage
au limbe, ce qui les rend moins sensibles aux brouillages émanant de sources au sol. L'UIT a
recensé un nombre limité de bandes attribuées au SETS et dont l'utilisation active est interdite
ou limitée. À mesure que le spectre des fréquences radioélectriques devient plus encombré et
que le débit des données transmises par les utilisateurs augmente, les pressions exercées par la
demande pour les plus hautes fréquences ne cessent d'augmenter, ce qui pousse l'UIT à partager
les bandes du SETS avec les services actifs. Seules quelques bandes étroites sont attribuées
au SETS sur une base exclusive assurant une protection juridique fiable. Cette situation a les
conséquences suivantes:
a) Il arrive souvent que la position des canaux hyperfréquences attribués ne coïncide pas avec
le pic de sensibilité pour la variable géophysique requise, ou avec une région spectrale
exempte de contamination causée par d'autres effets;
b) La largeur de bande protégée peut être étroite au point de donner un piètre rapport
signal‑bruit, ce qui peut obliger les intéressés à envisager l'utilisation d'une bande plus
large, mais non protégée, et à courir ainsi le risque de brouillage.
Malheureusement, les pressions exercées par d'autres utilisateurs du spectre, y compris les
services commerciaux et mobiles, ne cessent d'augmenter. Les groupes d'experts de l'OMM, le
Groupe de coordination pour les satellites météorologiques et les agences spatiales doivent ainsi
suivre l'évolution de la situation à chacune des mises à jour du règlement de l'UIT.
L'attribution des fréquences pour les communications des satellites au sol constitue un autre
enjeu très important. Comme il s'agit d'un usage actif, le règlement de l'UIT est très restrictif en
ce qui concerne les fréquences, les largeurs de bande et la puissance d'émission autorisées. Ces
restrictions ont les conséquences que voici:
a) Coûts d'exploitation plus élevés des stations de réception au sol qui utilisent de faibles
signaux;
CHAPITRE 7. QUESTIONS TRANSSECTORIELLES 1171
b) Coût plus élevé puisque l'absence de bandes passantes suffisamment larges pour la
transmission de hauts débits de données oblige à recourir à des bandes de fréquences plus
hautes qui présentent des défis technologiques plus lourds et exigent plus de précautions
en ce qui a trait à l'orientation de l'antenne;
Quoi qu'il en soit, la protection des fréquences est difficile à garantir, et les utilisateurs
rencontrent des difficultés, en particulier dans les zones industrialisées. Le tableau de la présente
section répertorie les bandes de fréquences attribuées pour la transmission des données
à destination et en provenance des satellites météorologiques (OMM/UIT, 2008). Il tient
également compte de la bande 7 850–7 900 MHz, ajoutée après la Conférence mondiale des
radiocommunications de 2012).
7 450 ‑7 550 Espace vers Terre, attribution à titre primaire, satellites géostationnaires uniquement
8 025 ‑8 400 Espace vers Terre, attribution à titre primaire, pour satellites d'exploration de la Terrea
18 000 ‑18 300 Espace vers Terre dans la Région 2b, attribution à titre primaire,
satellites géostationnaires uniquement
18 100 ‑18 400 Espace vers Terre dans les Régions 1 et 3b, attribution à titre primaire,
satellites géostationnaires uniquement
25 500 ‑27 000 Espace vers Terre, attribution à titre primaire, pour satellites d'exploration de la Terrea
Notes:
a Metsat faisant partie du SETS, les applications de Metsat peuvent profiter des bandes attribuées au SETS
(25 500 à 27 000 MHz, par exemple).
b Il s’agit des Régions de l’UIT.
Le Groupe de coordination pour les satellites météorologiques (CGMS) met l'accent sur les
missions soutenues à long terme. Conformément au mandat convenu, il assure la coordination
des constellations de satellites géostationnaires et de satellites à orbite basse à l’appui de
l’OMM et des programmes coparrainés. Mis sur pied en 1972 pour assurer principalement
la surveillance des conditions météorologique par les satellites géostationnaires aux fins des
prévisions météorologiques, le CGMS a dans un premier temps défini des normes communes
1172 PARTIE III. OBSERVATIONS SPATIALES
pour la diffusion d'images de faible résolution en format fac‑similé (WEFAX) et pour le système
international de collecte de données à l'appui des stations mobiles vues par les différents
satellites. Le mandat du CGMS a été élargi en 1992 pour couvrir les satellites météorologiques
à défilement, et le Groupe porte désormais de plus en plus d'attention aux principaux enjeux
des observations climatologiques. Le mandat convenu décrit les missions à poursuivre à long
terme; il sert de référence pour les contributions prévues des membres participants au Système
mondial d'observation (SMO) conformément aux perspectives d'évolution du SMO à l'horizon
2025 définies par l'OMM. Le CGMS définit des normes techniques, ou pratiques optimales, pour
assurer l'interopérabilité du système global. Il a élaboré des plans d'intervention d'urgence qui
établissent les mesures à prendre en cas de panne de satellite ou d'autres situations imprévues
qui pourraient faire obstacle à la mise en œuvre complète du mandat convenu.
Le Comité sur les satellites d'observation de la Terre (CSOT) a été mis sur pied en 1984 par
le groupe des sept pays les plus industrialisés du monde (G7). Contrairement au Groupe de
coordination pour les satellites météorologiques, il a d'abord mis l'accent sur les satellites
d’observation de la Terre (d'abord Landsat, puis le satellite pour l’observation de la Terre (SPOT)
et le satellite de télédétection de l'Inde (IRS)) en s'intéressant particulièrement aux nouvelles
technologies comme celle des radars à synthèse d’ouverture. Il a ensuite élargi la portée de son
action à l'ensemble des programmes d'observation de la Terre, mais en accordant cependant
moins d'attention à la météorologie, jusqu'à ce que les enjeux climatiques contribuent à
susciter son intérêt pour cette question. Depuis sa mise sur pied, il joue un rôle très actif dans les
domaines de l'étalonnage et de l'homologation par le biais du Groupe de travail sur l'étalonnage
et l'homologation. Les autres groupes de travail du CSOT sont le Groupe de travail sur les
systèmes et services d’information, le Groupe de travail sur le renforcement des capacités et la
démocratie des données, et le nouveau Groupe de travail CSOT/CGMS sur le climat.
a) Composition de l'atmosphère;
d) Précipitations;
Dans les premiers temps de la météorologie satellitaire, le cycle de vie des missions des satellites
météorologiques ne s'étendait que sur quelques années. Les étapes de la définition des missions,
de la conception des satellites, de l'élaboration des systèmes et de la démonstration scientifique
exigeaient chacune un ou deux ans. La période d'exploitation était courte, et le secteur terrien
était souvent sous‑dimensionné.
Phase 0: détermination des besoins des utilisateurs, en collaboration avec la collectivité des
utilisateurs, et définition des spécifications relatives à la mission, c'est‑à‑dire définition des
techniques qui pourront satisfaire aux besoins des utilisateurs. Cette phase s'étend sur 3 à
4 ans environ;
Phase D: intégration de tous les sous‑systèmes, essai du système et lancement. Cette phase
est d'ordinaire accomplie en un an.
Si on ajoute le temps requis pour les processus de prise de décisions et d'approbation ainsi que
pour la mise en service sur orbite, la phase d’élaboration entière s’étend d’ordinaire sur une
quinzaine d’années.
Phase E: la phase d'exploitation s’étend d’ordinaire sur une quinzaine d’années pour un
programme opérationnel utilisant une série de trois ou quatre satellites, incluant une
certaine redondance en cas d'imprévus (la durée de vie typique d'un satellite en orbite
basse est de cinq ans; celle d'un satellite géostationnaire est de sept ans). La durée d'une
génération de satellites est le résultat d'un compromis entre, d’une part, la nécessité
de recueillir de longues séries de données pour amortir le coût de développement et
rentabiliser la courbe d’apprentissage des utilisateurs et, d’autre part, la nécessité de mettre
au point une nouvelle génération d'instruments satellitaires intégrant les derniers progrès
de la technologie.
1174 PARTIE III. OBSERVATIONS SPATIALES
La continuité des observations spatiales est devenue un impératif crucial pour la constellation
des satellites météorologiques géostationnaires à partir du moment où la prévision immédiate
et la prévision des phénomènes météorologiques violents, y compris la prévision des cyclones
tropicaux, ont commencé à dépendre de la surveillance par satellite. La transmission des
images GEO en continu nécessite un fonctionnement vingt‑quatre heures sur vingt‑quatre,
une disponibilité élevée, une capacité de transmission en temps quasi réel des données et
une continuité sur le long terme garantis par un programme robuste prévoyant de surcroît
la disponibilité d'équipements de réserve en orbite. Lorsque la constellation de satellites à
défilement a été mise en service et que les modèles de prévision numérique du temps ont
commencé à dépendre de plus en plus des données de sondage par satellite (infrarouges,
hyperfréquences et occultation radio) et d'autres observations satellitaires cruciales, comme
les vents à la surface de l'océan, la continuité opérationnelle s'est imposée également aux
capacités de sondage des satellites sur les orbites du matin et de l'après‑midi, qui sont devenus
la constellation météorologique centrale de satellites en orbite polaire. Une configuration de
base du système d'observation spatiale a été définie et adoptée par les opérateurs de satellites
contribuant aux programmes de l'OMM.
Bien que les opérateurs de satellites aient promis de tout faire pour maintenir la continuité des
observations en orbite géostationnaire et en orbite polaire héliosynchrone, le CGMS a élaboré
un plan de secours à l’échelle du globe (voir la section 7.2.1 et l'encadré ci‑dessous) fournissant
un cadre technique et juridique pour la mise en œuvre de mesures d'urgence fondées sur le
principe de l'«aide aux voisins» en cas de défaillance d'un des éléments de la configuration
opérationnelle.
Pour les satellites géostationnaires, l'assistance d'urgence peut être déployée si le nombre de
satellites en service est suffisant et s'ils sont répartis adéquatement autour de l'équateur (voir par
exemple la figure 4.1 du chapitre 4 de la partie III). Le déplacement d'un satellite d'une longitude
à l'autre exige peu de carburant s'il est effectué suffisamment lentement. En vertu du plan de
secours, plusieurs satellites sont maintenus en position de réserve et peuvent être déplacés au
besoin pour combler un vide grâce à une manœuvre qui s'étalera sur quelques jours ou quelques
semaines, selon le degré d'urgence et la quantité de carburant disponible à bord. Plusieurs
opérations de ce genre ont déjà été réalisées: un satellite Meteosat de secours a été déplacé pour
couvrir l'ouest de l'Atlantique lorsque la mise en service du système de satellite géostationnaire
d'exploitation pour l'étude de l'environnement (GOES) a été retardée au début des années 1990;
un GOES de secours a été utilisé pour couvrir l’ouest du Pacifique pendant la transition du
satellite météorologique géostationnaire (GMS) au satellite de transport plurifonctionnel
(MTSAT), au début des années 2000; et l'océan Indien a été couvert à plusieurs reprises aux cours
des deux dernières décennies par des satellites GOES et Meteosat.
CHAPITRE 7. QUESTIONS TRANSSECTORIELLES 1175
La planification d'urgence est plus complexe dans le cas des satellites héliosynchrones. Il faut
beaucoup de carburant pour modifier le plan orbital d'un satellite, et ce type d'opération n'est
pas envisagé sauf en cas de dérive naturelle due à la précession, ou d'interventions destinées
à corriger cette dérive. Le plan d'urgence met donc l'accent sur la disponibilité de satellites de
réserve sur chaque plan orbital, et sur l'espacement régulier des heures de passage au‑dessus de
l'équateur des satellites sur orbites héliosynchrones.
Lorsque l'OMM a adopté les perspectives d'avenir du SMO à l'horizon 2025, la portée du
système opérationnel d'observation par satellite a été élargie pour englober la surveillance du
climat, reflétant à la fois la nécessité de surveiller l'évolution du climat sur une base continue, et la
maturité des systèmes spatiaux, qui étaient passés du stade de la recherche‑développement au
stade opérationnel. Dans la foulée, le CGMS a adopté une nouvelle base de référence incorporant
un certain nombre de missions axées sur la surveillance du climat. La continuité est aussi
cruciale pour la surveillance du climat qu'elle l'est pour les services opérationnels de prévisions
météorologiques. Cependant, les exigences sont différentes puisque l'évolution du climat
s'observe sur des échelles de temps différentes. Tout d’abord, la disponibilité en temps quasi réel
et la prise en compte des lacunes à court terme du cycle d'observation quotidien ne sont pas des
exigences essentielles. Ensuite, il convient d'accorder une attention particulière à la continuité
à long terme et à la stabilité des méthodes de mesure d'une décennie à l'autre. Les principes
élaborés par le Système mondial d'observation du climat (SMOC) pour la surveillance du climat
exigent de prévoir une période de fonctionnement parallèle des satellites qui se succèdent afin
de permettre l'interétalonnage et la traçabilité des données. La stabilité et la traçabilité peuvent
également être assurées en maintenant une mission de référence hautement sécurisée, avec
un satellite de réserve qui sert d'étalon de référence pour tous les autres (voir la section 6.1.9
du chapitre 6 de la partie III). Ce type de mesure devrait constituer un élément primordial de
l’architecture spatiale pour la surveillance du climat.
L’évolution des besoins des utilisateurs de données satellitaires et les avancées technologiques
spectaculaires dans le domaine de l'espace et de la télédétection exigent une amélioration
constante des systèmes et des instruments satellitaires.
En même temps, les fortes pressions exercées sur les ressources rappellent l'urgence de
chercher à optimiser les efforts déployés à l'échelle mondiale pour garantir la disponibilité d'un
système d'observation exhaustif et pour éviter les redondances au‑delà des marges requises à
1176 PARTIE III. OBSERVATIONS SPATIALES
des fins de fiabilité. L'optimisation est également requise dans les domaines de l'élaboration,
de l'homologation et de la transformation viable de produits dérivés, et nécessite le partage,
l'interopérabilité et l'assurance de la qualité des données. L'OMM s'occupe de la coordination
mondiale qui permettra d'assurer une telle optimisation dans le contexte global du Système
mondial intégré des systèmes d'observation de l'OMM (WIGOS), grâce à l’étude continue
des besoins, aux orientation de haut niveau qui guident l’évolution générale du SMO, aux
déclarations d'orientation pour chaque champ d'application et au Plan de mise en œuvre
pour l’évolution des systèmes mondiaux d’observation, lequel regroupe les recommandations
formulées à l'intention des exploitants de systèmes d'observation. Un autre projet digne de
mention est celui de l’architecture pour la surveillance du climat depuis l’espace appuyé par
l'OMM, le CSOT et le CGMS. Ce projet vise à ce que les systèmes d'observation depuis l'espace
puissent satisfaire l'ensemble des besoins en matière de surveillance du climat.
RÉFÉRENCES ET AUTRES LECTURES
Agence spatiale européenne: Sharing Earth Observation Resources (consultable à l’adresse https://
directory.eoportal.org/web/eoportal/satellite‑missions; actualisation régulière).
Bizzarri, B., 1982: Satellite data for numerical weather prediction. Rivista di Meteorologia Aeronautica,
42(4):369–382.
———, 1986: Basic principles of remote sensing. Proceedings of the Course on Satellite Meteorology and its
Extension to Agriculture (dir.: Erice). EUMETSAT, EUM P03, p. 1–10.
Bizzarri, B. et C. Tomassini, 1976: Retrieval of information from high‑resolution images. Proceedings of the
Symposium on Meteorological Observations from Space, Comité de la recherche spatiale,
Philadelphie, p. 140–144.
Chander, G., T.J. Hewison, N. Fox, X. Wu, X. Xiong et W.J. Blackwell, 2013: Overview of intercalibration of
satellite instruments. IEEE Transactions on Geoscience and Remote Sensing, 51(3):1056–1080.
Comité commun pour les guides en métrologie (JCGM), 2012: Vocabulaire international de métrologie –
Concepts fondamentaux et généraux et termes associés (VIM), JCGM 200: 2012.
Comité sur les satellites d'observation de la Terre: Mission, Instruments and Measurements database online
(consultable à l’adresse http://database.eohandbook.com; actualisation annuelle).
Datla, R.V., J.P. Rice, K.R. Lykke, C. Johnson, J.J. Butler et X. Xiong, 2009: Best Practice Guidelines for Pre‑launch
Characterization and Calibration of Instruments for Passive Optical Remote Sensing. NIST IR 7637,
National Institute of Standards and Technology.
Fox, N., 2010: QA4EO – A Quality Assurance Framework for Earth Observation: A guide to “reference standards” in
support of Quality Assurance requirements of GEO (dir.: M.C. Greening).
QA4EO‑QAEO‑GEN‑DQK‑003, Groupe sur l'observation de la Terre (consultable à l’adresse
http://www.qa4eo.org/docs/QA4EO‑QAEO‑GEN‑DQK‑003_v4.0.pdf).
Klein, M. et A.J. Gasiewski, 2000: The sensitivity of millimeter and sub‑millimeter frequencies to
atmospheric temperature and water vapor variations. Journal of Geophysical Research:
Atmospheres, 13:17481–17511.
Kramer, H.J., 2002: Observation of the Earth and its Environment – Survey of Missions and Sensors, Springer
(CD‑ROM incluant l’étude sur les capteurs embarqués et les campagnes d’étalonnage en vol).
Ohring, G. (dir.), 2007: Achieving Satellite Instrument Calibration for Climate Change (ASIC3). Report of a
workshop organized by the National Oceanic and Atmospheric Administration, National
Institute of Standards and Technology, National Aeronautics and Space Administration,
National Polar‑orbiting Operational Environmental Satellite System‑integrated Program Office,
and Space Dynamics Laboratory of Utah State University, 16–18 mai 2006. Lansdowne,
Virginie.
Organisation météorologique mondiale, 2001: Applications with Meteorological Satellites (W.P. Menzel).
SAT‑28 (WMO/TD‑No. 1078), Genève.
———, 2014: Observing Systems Capability Analysis and Review (OSCAR) database and tool (consultable à
l’adresse http://www.wmo‑sat.info/oscar/; actualisation régulière).
Organisation météorologique mondiale/Union internationale des télécommunications (UIT), 2008: Manuel
– Utilisation du spectre radioélectrique pour la météorologie: surveillance et prévisions concernant le
climat, le temps et l'eau, Genève.
Parkinson, C.L., A. Ward et M.D. King (dir.), 2006: Earth Science Reference Handbook. NASA Goddard Space
Flight Center.
Tobin, D.C., H.E. Revercomb, R.O. Knuteson, F.A. Best, W.L. Smith, N.N. Ciganovich, R.G. Dedecker,
S. Dutcher, S.D. Ellington, R.K. Garcia, H.B. Howell, D.D. LaPorte, S.A. Mango, T.S. Pagano,
J.K. Taylor, P. van Delst, K.H. Vinson et M.W. Werner, 2006a: Radiometric and spectral
validation of Atmospheric Infrared Sounder observations with the aircraft‑based Scanning
High‑Resolution Interferometer Sounder. Journal of Geophysical Research: Atmospheres,
111(D09S02).
Tobin, D.C., H.E. Revercomb, C.C. Moeller et T.S. Pagano, 2006b: Use of Atmospheric Infrared Sounder
high‑spectral resolution spectra to assess the calibration of Moderate Resolution Imaging
Spectroradiometer on EOS Aqua. Journal of Geophysical Research: Atmospheres, 111(D09S05).
PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES
SYSTÈMES D’OBSERVATION
TABLE DES MATIÈRES DE LA PARTIE
Page
1.1 GÉNÉRALITÉS
Gestion de la qualité
La gestion de la qualité inclut les principes et le cadre méthodologique des opérations et permet
de coordonner les activités de gestion et de contrôle d’une organisation en matière de qualité.
L’assurance de la qualité et le contrôle de la qualité font partie de tout système pratique de
gestion de la qualité. L’assurance de la qualité, qui a pour but de veiller à ce que les exigences en
matière de qualité soient respectées, inclut toutes les activités planifiées et systématiques lancées
au sein d’un système de gestion de la qualité de façon à ce que ces exigences soient respectées
pour un produit ou un service donné. Le contrôle de la qualité, associé aux éléments employés
pour que les exigences en matière de qualité soient respectées, inclut l’ensemble des techniques
et des activités opérationnelles utilisées dans ce but. Le présent chapitre concerne la gestion
de la qualité associée au contrôle et à l’assurance de la qualité et à la reconnaissance formelle
d’activités de laboratoire, en particulier du point de vue des observations météorologiques du
temps et des variables atmosphériques.
Nous présentons ici la série de normes ISO 9000 pour permettre aux intéressés de comprendre
la marche à suivre pour mettre en place un système de gestion de la qualité dans un Service
météorologique et hydrologique national (SMHN). Cette série contient les processus minimaux
à intégrer dans un tel système pour répondre aux conditions de la norme ISO 9001. Nous
présentons ensuite la notion de management total de la qualité selon les directives ISO 9004
en soulignant l’opinion des usagers et des parties intéressées et donnons un aperçu de la
norme ISO/CEI 17025. Nous énonçons les avantages, pour les SMHN et les centres régionaux
d’instruments, d’une accréditation par le biais de cette norme et la nécessité d’un processus
d’accréditation.
Vu que tous les systèmes d’information intègrent des composantes informatiques, la norme
ISO/CEI 20000, concernant la gestion des services informatiques, est également présentée ici.
Des données sont de bonne qualité lorsqu’elles satisfont les besoins exprimés et les besoins
implicites. Ailleurs dans le présent guide figurent, de façon explicite ou implicite, les exigences
en matière d’exactitude, de résolution et de représentativité s’appliquant aux données
météorologiques, principalement pour les applications synoptiques. Il est aussi possible de
présenter des exigences analogues pour d’autres applications. Quelle que soit l’application,
il faut supposer qu’un coût total minimal est aussi une exigence explicite ou implicite. Vouloir
gérer la qualité, c’est veiller à ce que les données répondent, au coût le plus bas possible, à des
exigences (quant à l’incertitude, la résolution, la continuité, l’homogénéité, la représentativité,
le respect des délais, la présentation, etc.) déterminées en fonction de l’application. Toutes les
données recueillies sont imparfaites, mais si leur qualité est connue et vérifiable, elles peuvent
être utilisées à bon escient.
Il n’est pas simple de produire des données météorologiques de bonne qualité et cela ne peut
se faire sans système de gestion de la qualité. Les meilleurs de ces systèmes fonctionnent en
continu et interviennent pour tous les aspects de l’ensemble du système d’observation: de
l’organisation du réseau et de la formation professionnelle associée, en passant par les opérations
d’installation et le fonctionnement des stations, à la transmission et à l’archivage des données.
Ils permettent une rétroaction et un suivi à diverses échelles de temps: des données en temps
CHAPITRE 1. GESTION DE LA QUALITÉ 1183
réel aux analyses annuelles et aux processus de bout en bout. Les ressources qu’exige une bonne
gestion de la qualité sont proportionnelles au coût de fonctionnement d’un système ou d’un
réseau d’observation, soit en général quelques points de pourcentage du coût global. Sans cette
dépense supplémentaire, les données étant d’une qualité qu’il faut considérer comme inconnue,
leur utilité en sera réduite.
Un système efficace de gestion de la qualité permet de gérer les rapports entre les moyens en
vue de la collecte de données, la collecte de données proprement dite, l’assurance de la qualité
des données et leur diffusion auprès des usagers afin que ceux-ci en reçoivent la quantité voulue.
Pour un grand nombre de données météorologiques, il existe divers cycles de production, de
collecte et vérification de la qualité depuis le terrain jusqu’à la distribution finale aux usagers. Il
est essentiel que tous ces cycles soient identifiés et que le risque de divergence par rapport à la
quantité demandée soit réduit au minimum. Nombre de ces cycles sont liés si étroitement qu’on
peut les considérer comme ne constituant qu’un seul cycle. La plupart des problèmes surgissent
lorsqu’il existe divers cycles et qu’on les considère comme indépendants les uns des autres.
Lorsqu’on obtient une donnée à partir d’un processus de mesure, elle reste une donnée de ce
processus. D’autres processus ultérieurs permettent d’en vérifier la valeur en tant que quantité
demandée, d’utiliser cette donnée dans un processus d’ajustement afin d’obtenir la qualité
voulue ou de la rejeter. Cependant, aucun de ces processus ultérieurs ne modifie la donnée issue
du processus de mesure. Le contrôle de la qualité est le processus visant à vérifier si les processus
aboutissant à la diffusion de la donnée sont corrects et à réduire au minimum le risque de refus
ou d’ajustement de la donnée résultante.
L’assurance de la qualité inclut un contrôle explicite des facteurs qui influent directement
sur les données recueillies et traitées avant d’être diffusées auprès des usagers. Pour les
observations et les mesures, elle inclut le matériel, l’exposition, les procédures de mesure,
l’entretien, l’inspection, l’étalonnage, la création d’algorithmes, la redondance des mesures,
la recherche appliquée et la formation professionnelle. Du point de vue de la transmission de
données, l’assurance de la qualité est le processus établi afin que, pour des données transmises
ultérieurement à une base de données utilisateurs, on établisse des protocoles garantissant que
les usagers ne recueilleront que des données acceptables.
Le contrôle de la qualité est, pour les systèmes de gestion de la qualité, la composante la plus
connue et celle qui en constitue le minimum incompressible. Ce contrôle, qui se compose de tous
les processus mis en place pour susciter la confiance et pour que les données produites aient la
qualité voulue, inclut l’examen des données dans les stations et les centres de données en vue de
vérifier que celles‑ci respectent les objectifs du système de gestion de la qualité et de détecter les
erreurs afin que les données soient étiquetées comme non fiables, corrigées ou, dans le cas des
erreurs importantes, supprimées. Un système de gestion de la qualité devrait comprendre des
procédures de réinsertion dans le processus de mesure et de contrôle de la qualité pour éviter
la répétition des erreurs. L’assurance de la qualité peut s’appliquer en temps réel aux mesures
différées et peut s’intégrer au processus de contrôle de la qualité pour le processus suivant du
système de gestion de la qualité, mais, en général, elle se déroule en temps non réel.
Le contrôle de la qualité en temps réel a lieu habituellement dans la station et dans les centres
d’analyse des données météorologiques. Le contrôle différé de la qualité peut avoir lieu dans
des centres d’analyse, quand il s’agit d’établir une base de données affinée, ou encore dans
des centres climatologiques ou dans des banques de données à des fins d’archivage. Dans
tous les cas, il convient d’adresser les résultats du contrôle de la qualité aux responsables des
observations afin qu’ils puissent leur donner les suites voulues.
1.2 SÉRIE ISO 9000, ISO/CEI 17025, ISO/CEI 20000 ET CADRE DE RÉFÉRENCE
DE L’OMM POUR LA GESTION DE LA QUALITÉ
Le présent chapitre détaille les normes ISO et les rapports qui existent entre elles.
La série ISO 9000 a été conçue pour aider des organisations de tous les types et de toutes les
tailles à mettre en œuvre et à exploiter des systèmes de management de la qualité. Cette série
de normes présente les principes fondamentaux des systèmes de gestion de la qualité et en
définit les conditions (par exemple, exigences et satisfaction de la clientèle). Le concept de
base de cette série est illustré par la figure 1.1. La norme ISO 9001 spécifie les exigences d’un
système de management de la qualité susceptible d’être certifié conformément à cette norme.
La norme ISO 9004 donne des directives en vue de l’amélioration continue du système de
management de la qualité, pour obtenir un système de management total de la qualité. La
norme ISO 19011 donne des orientations pour l’audit du système de management de la qualité.
Toutes ces normes sont présentées plus en détail dans les documents pertinents du cadre de
référence de l’OMM pour la gestion de la qualité.
Le lecteur trouvera ci‑dessous les huit principes de gestion de la qualité sur lesquels repose
implicitement la réussite des SMHN de toutes les tailles et l’amélioration continue de leurs
performances:
a) Souci de la clientèle;
b) «Leadership»;
d) Approche processus;
f) Amélioration continue;
CHAPITRE 1. GESTION DE LA QUALITÉ 1185
ISO 19011
Système de
ISO 9000
management
Système de management
de la qualité:
de la qualité: Principes
Lignes directrices
essentiels et vocabulaire
pour l’audit des
systèmes de
management de
la qualité et/ou
ISO 9004
de l’environnement
Systèmes de management de la qualité:
ISO 9001
Modèles
Systèmes de management
d’excellence
de la qualité:
Certification – EFQM
Exigences
– Malcolm
Capacité à répondre aux
Baldridge
besoins des clients
Lignes directrices pour
l’amélioration du rendement EFQM: Fondation européenne pour
la gestion de la qualité
Tous ces principes doivent être documentés et mis en pratique de façon à respecter les exigences
des normes ISO 9000 et 9001 en vue de l’obtention d’une certification. Le principe central de ces
normes est l’approche processus, qu’on peut définir simplement comme étant les activités faisant
appel à des ressources pour transformer les intrants en extrants.
Le système de gestion de la qualité fondé sur les processus est modélisé de façon simple dans la
figure 1.2. L’idée de base est que le mécanisme est susceptible de permettre une amélioration
continue du système et la satisfaction de la clientèle grâce à la mesure des indices des processus
(par exemple, calcul de la durée d’un modèle GME, satisfaction de la clientèle, temps de réaction,
etc.), à l’évaluation des résultats, à la prise de décisions administratives en vue d’améliorer la
gestion des ressources et à l’obtention de produits nécessairement meilleurs.
Amélioration continue
A
Gestion Mesure, analyse
P C
des ressources D et amélioration
Indices
Création
Produits
Besoins du produit Satisfaction
Cette norme indique les exigences de base concernant un système de gestion de la qualité, y
compris les processus d’amélioration et de gestion des plaintes et les analyses de la gestion.
Normalement, ces processus sont intégrés dans le manuel de la qualité. La norme ISO 9001 porte
sur les attributions en matière de gestion plutôt que sur les activités techniques.
Pour obtenir une certification au titre de la norme ISO 9001, l’organisation (SMHN) doit définir et
documenter six processus:
d) Mesures correctives;
e) Mesures préventives;
f) Audit interne.
Il doit en outre exister un manuel de la qualité qui indique la politique (par exemple, le but est
de parvenir à être le chef de file régional en matière de prévision du temps) et les objectifs de
l’organisation (par exemple, amélioration de la prévision du temps: réduction de la probabilité
d’avis erronés) et décrive les cadres des processus et leurs interactions. Des déclarations doivent
être faites concernant:
a) La gestion;
c) L’amélioration continue;
Des exclusions peuvent être prononcées, par exemple en ce qui concerne le développement
(si l’organisation ne réalise aucune activité de développement).
Enfin, les instructions contenues dans la norme ISO 9001 donnent des informations détaillées
sur les étapes à référencer dans la description des processus (par exemple, le lancement
d’une formation sur une station météorologique automatique). Les formulaires et les listes de
vérification sont des outils utiles pour réduire le risque d’oubli de tâches à accomplir.
CHAPITRE 1. GESTION DE LA QUALITÉ 1187
1.2.3 ISO 9004: Gestion des performances durables d'un organisme – Approche
de management par la qualité
La norme ISO 9004 présente des directives pour le développement des systèmes de gestion de
la qualité déjà mis en place, afin d’aboutir à l’excellence commerciale. Le principal aspect de la
norme est le passage de la position de la clientèle à la position de parties concernées. Divers
modèles d’excellence peuvent être élaborés au titre des directives ISO 9004, comme le modèle
de la Fondation européenne pour la gestion de la qualité (EFQM)1 ou le Malcolm Baldrige
National Quality Award2. Ces deux modèles sont établis et reconnus dans tous les pays du
monde.
a) «Leadership»;
b) Personnes;
c) Politique et stratégie;
d) Partenariats et ressources;
e) Processus;
i) Performances clefs.
Le modèle Malcolm Baldrige contient sept critères semblables à ceux du modèle de la Fondation,
comme suit:
a) «Leadership»;
b) Planification stratégique;
Manuel de qualité
Descriptions
de processus
Instructions,
formulaires,
listes de contrôle
1
Voir le site Web de la Fondation, à l’adresse http://w ww.efqm.org.
2
Voir le site Web du NIST, à l’adresse http://w ww.nist.gov/baldrige/.
1188 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
g) Résultats.
Il n’existe pas de processus de certification pour cette norme, mais une évaluation extérieure
permet d’établir des comparaisons avec d’autres organisations selon le modèle d’excellence
employé (voir aussi la figure 1.1).
1.2.4 ISO 19011: Lignes directrices pour l’audit des systèmes de management
Cette norme, qui sert de guide pour procéder à l’audit des systèmes de management, n’a
pas de caractère réglementaire. Les activités détaillées suivantes servent à réaliser l’audit de
l’organisation:
c) Activités d’audit (lancement de l’audit, préparation et réalisation d’activités d’audit sur site,
préparation du rapport d’audit);
La façon dont un audit est réalisé dépend des objectifs et de la portée de celui‑ci, déterminés par
la direction du client de l’audit. L’objectif principal du premier audit est de vérifier si le système
de management de la qualité est conforme aux exigences de la norme ISO 9001. Dans les audits
ultérieurs, on donne la priorité aux interactions et aux interfaces des processus.
La planification de l’audit publiée par l’organisation devrait indiquer les services concernés de
l’organisation ainsi que les critères, les objectifs, l’endroit, la date et l’heure de l’audit pour en
garantir la mission.
Cet ensemble d’exigences s’applique aux installations, y compris aux laboratoires et aux sites
d’essais, qui souhaitent obtenir une accréditation extérieure de leur compétence en matière de
processus de mesure et d’essai.
La norme ISO/CEI 17025 aligne ses exigences en matière de gestion sur celles de la norme
ISO 9001. Cette norme se divise en deux grandes parties: exigences en matière de gestion et
exigences techniques. Ainsi, le système de gestion de la qualité doit respecter les exigences de
la norme ISO 9001, qui incluent les processus décrits ainsi qu’un manuel de gestion établissant
un lien entre processus et objectifs et énoncé de principes, ces points devant faire l’objet d’audits
réguliers. Tous les processus de laboratoire doivent être approuvés, vérifiés et validés de façon
correcte pour respecter les exigences. En outre, le rôle du représentant de la gestion de la qualité
(gestionnaire de la qualité) et du chef du laboratoire doit être déterminé.
CHAPITRE 1. GESTION DE LA QUALITÉ 1189
La mise au point d’analyses d’incertitude pour chacun des processus de mesure, y compris une
traçabilité documentée et vérifiée par rapport aux normes internationales de la métrologie, est
une composante essentielle des exigences techniques.
Les SMHN font appel à un matériel informatique pour obtenir des réseaux de mesure des
données à utiliser dans les modèles GME/LM et pour offrir aux prévisionnistes des sorties de
ces modèles. Les recommandations issues de cette norme sont utiles pour la mise en œuvre
de services informatiques fiables. La nouvelle norme ISO/CEI 20000 résume l’ancienne norme
britannique BS‑15000 et les recommandations de l’IT Infrastructure Library (ITIL). La répartition
des exigences suit la structure de l’ITIL.
Les éléments de l’ITIL se divisent en prestation de services et soutien logistique, avec les
processus suivants:
Prestation de services:
b) Gestion financière;
d) Gestion de la disponibilité;
e) Gestion de la capacité.
Soutien logistique:
Une attention particulière a été portée au processus de gestion des changements, qui peut
englober la gestion des déblocages et la gestion des configurations. Normalement, la gestion
des incidents et des problèmes passe par la mise en place d’un service de soutien technique aux
usagers.
Le cadre de référence est un guide pour les SMHN, et surtout pour ceux qui ont peu d’expérience
d’un système formel de gestion de la qualité. La mise en place d’un système de gestion de
la qualité n’est décrite que brièvement dans la section suivante, sachant que l’OMM ne peut
procéder à aucune certification au titre de la norme ISO 9001.
Les cadres supérieurs définissent une politique et des objectifs en matière de qualité (y compris
un engagement en faveur de la gestion de la qualité) et le personnel doit être suffisamment
formé à la gestion de la qualité pour comprendre le fondement du processus de cette gestion
(voir la section 1.2.2). Chose la plus importante, il faudrait créer une équipe chargée du projet
pour qu’elle gère le passage à un système formel de gestion de la qualité, y compris la définition
et l’analyse des processus employés par l’organisation.
Pour aider l’équipe chargée du projet, on peut donner au personnel responsable de la définition
du processus des instructions comprenant normalement les points suivants:
d) Indiquer ce qui peut être fait pour améliorer constamment les processus.
Vu que la documentation indique ce que fait l’organisation, il faut que les principaux processus
traduisent les fonctions de l’organisation des SMHN. Ces processus peuvent faire partie des
processus cités (voir la figure 1.4), par exemple:
Même si ces processus correspondent aux besoins particuliers des SMHN et donnent naissance à
des sous‑processus, il devrait y avoir des dispositions pour faire face aux incidents (par exemple
les pannes système ou les accidents du personnel).
CHAPITRE 1. GESTION DE LA QUALITÉ 1191
techniques
Systèmes
Installation, exploitation et mise
au point de systèmes techniques,
6 x services de consultation
Production de données,
Activités internationales
Ressources Développement
Veille de l’atmosphère
Conception et mise en œuvre de
Processus
gestion de données
procédures et de méthodes
météorologique
d’appui Conception de modèles de prévision
météorologique numérique et de
la méthodologie correspondante
Développement de l’organisation
et instruments de contrôle
Gestion du personnel, des finances
et des achats
Figure 1.4. Description des processus d’un SMHN (exemple: DWD, OMM 2005a)
Les processus doivent être introduits dans l’organisation avec des objectifs clairs en matière
de qualité et l’ensemble du personnel doit être formé de façon à comprendre ces processus, et
notamment l’emploi de procédures et de listes de vérification et la mesure des indicateurs de
processus.
Avant de faire une demande de certification, il faut examiner le système de gestion de la qualité
en procédant à des audits internes des départements et des divisions de l’organisation, pour
vérifier que le système de gestion de la qualité, tel qu’il a été énoncé et promulgué, est conforme.
Ces examens documentés peuvent être effectués sur des produits par des vérificateurs spécialisés
et bien formés. Les exigences et les recommandations concernant ces examens sont présentées
dans la norme ISO 19011 (voir la section 1.2.4).
a) Résultats d’audits;
b) Réactions de la clientèle;
L’accréditation exige des processus et une documentation supplémentaires et, chose la plus
importante, des preuves que le personnel du laboratoire a reçu une formation et maîtrise les
processus et les méthodes à accréditer.
d) Des instructions de travail pour toutes les étapes partielles des processus et des méthodes;
Comme les procédures et les méthodes sont susceptibles de changer plus fréquemment que les
aspects de l’accréditation relatifs à la gestion, les méthodes ne sont généralement pas citées dans
le manuel de gestion. Toutefois, il est fait explicitement référence aux procédures et méthodes
employées dans le manuel de gestion.
Comme il est improbable que tous les aspects de l’accréditation soient couverts lors de la mise en
place du système de gestion de la qualité, il est recommandé de procéder à un audit préalable et
de le coordonner avec l’établissement qui procède à la certification. Lors d’une telle opération, il
est normal que cet établissement:
c) Vérifie la documentation;
a) La documentation;
g) Les analyses d’incertitude concernant des quantités données, les résultats d’essais et les
étalonnages;
h) Des documents servant de preuves (par exemple que le personnel a reçu une formation et
que les quantités sont traçables);
i) Des dossiers (par exemple la correspondance avec la clientèle, les certificats d’étalonnage
produits).
Le groupe d’experts externes peut demander d’autres documents, tous les aspects de la norme
ISO/CEI 17025 étant vérifiés, et ce de façon plus détaillée que dans le cas d’une certification au
titre de la norme ISO 9001.
Outre une inspection des méthodes de travail et du matériel associé, l’évaluation des installations
comprises dans l’accréditation inclura:
b) Une évaluation de l’infrastructure d’appui aux méthodes de travail (bâtiments, accès, etc.).
Il convient aussi de vérifier les points suivants lors de l’évaluation pour s’assurer qu’ils
correspondent aux objectifs imposés par la direction en vue d’une accréditation:
a) Structure organisationnelle;
b) Qualification du personnel;
d) Souci de la clientèle.
Grâce à une accréditation initiale par un établissement de certification indépendant, les SMHN
prouvent leurs compétences en matière de méthodes de mesures et d’essais météorologiques
au titre d’une norme reconnue. Une fois l’accréditation établie, on procède à un audit extérieur
périodique qui donne une preuve supplémentaire que les normes ont été respectées et qui,
chose plus importante, permet à l’organisation de vérifier qu’elle fait face à ses exigences internes
en matière de qualité.
Une accréditation ayant une portée appropriée donne des possibilités commerciales
d’étalonnage, de vérification et d’évaluation des appareils de mesure.
Les avantages de l’accréditation sont importants pour les organisations qui ne disposent pas
d’un système de gestion de la qualité. Premièrement, l’accréditation certifie le système de
l’organisation et ensuite elle permet d’entamer un processus d’analyse pour accroître l’efficacité
de l’organisation. Par exemple, un élément d’accréditation au titre de la norme ISO/CEI 17025
1194 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
exige des analyses d’incertitude pour chaque étalonnage et essai de vérification. Ces analyses
quantitatives donnent des informations sur les points pour lesquels on peut obtenir un maximum
d’avantages en employant un minimum de ressources.
Une accréditation ou une certification au titre de tout cadre de gestion de la qualité exige un
enregistrement et des audits périodiques par des experts externes et par l’établissement chargé
de la certification. Ces opérations, qui impliquent des coûts supplémentaires pour l’organisation,
dépendent de la portée de l’accréditation et de la certification.
Si l’on cherche à obtenir une accréditation avant qu’un système efficace de gestion de la
qualité soit en place, on emploie de plus en plus de ressources et des ressources existantes sont
détournées pour établir ce système. On peut aussi prévoir des frais périodiques supplémentaires
pour les audits.
Il existe divers outils bien connus qui facilitent le processus du système de gestion de la qualité
et son amélioration constante. On trouvera ci‑après trois exemples de tels outils: la carte de
pointage équilibrée (Balanced Score card), l’analyse des modes de défaillance et de leurs effets et
Six Sigma.
L’analyse des modes de défaillance et de leurs effets est un moyen d’étudier les causes
manquantes et les anomalies éventuelles ainsi que la probabilité de leur apparition. Cette
méthode peut être utilisée pour analyser les processus de production et les spécifications des
produits. L’objet du processus d’optimisation est de réduire l’ordre de priorité des risques.
La méthode Six Sigma, élaborée dans le secteur des communications, fait appel au contrôle de
processus statistiques pour améliorer la production. Elle a pour objet de réduire les défaillances
des processus au‑dessous d’une valeur donnée.
Différentes étapes jalonnent l’historique d’un instrument en service sur le terrain, notamment
la planification à partir des exigences des utilisateurs, la sélection et l’installation du matériel,
le fonctionnement, l’étalonnage, l’entretien et la formation. Pour obtenir des données qui
répondent à des critères de qualité établis, il faut prendre les mesures nécessaires à chacune de
ces étapes. Dans la présente section, nous décrivons brièvement les facteurs ayant une influence
sur la qualité des données. Le lecteur pourra obtenir davantage de renseignements dans d’autres
chapitres du Guide et dans d’autres guides et manuels de l’OMM.
Exigences des utilisateurs: Il est possible d’évaluer la qualité d’un système de mesure en comparant
les exigences exprimées par les utilisateurs et la capacité du système à répondre à ces exigences.
Il convient de prendre en compte la compatibilité entre les exigences des utilisateurs quant à la
qualité des données et les performances d’un instrument, non seulement au cours des étapes
de conception et de planification d’un projet, mais aussi tout au long de l’exploitation. Il faut
en outre organiser la mise en œuvre de manière à optimiser les rapports coûts‑avantages et
coûts‑performances. À ce sujet, les utilisateurs, les spécialistes des instruments et les logisticiens
se partagent la responsabilité de faire concorder les facteurs techniques avec la réalité financière.
CHAPITRE 1. GESTION DE LA QUALITÉ 1195
En particulier, les spécialistes des instruments doivent étudier les exigences des utilisateurs en
matière de qualité des données afin de pouvoir proposer des caractéristiques réalistes, compte
tenu de l’état actuel de la technique. Cette étape importante de la conception s’appelle l’analyse
de la valeur. Lorsqu’on néglige cette étape, comme c’est souvent le cas, on court le risque de ne
pas pouvoir respecter les critères de coût ou de qualité, voire les deux, et parfois même de faire
échouer le projet, des efforts étant alors déployés inutilement.
Choix des instruments: Il convient de choisir les instruments avec soin, en tenant compte des
exigences en matière d’incertitude, de portée et de résolution (voir les définitions du chapitre 1
de la partie I), des conditions climatologiques et environnementales à prévoir en fonction des
applications des utilisateurs, des conditions de fonctionnement et de l’infrastructure technique
disponible pour la formation professionnelle, l’installation et l’entretien. En cas de mauvais
choix, on risque d’obtenir des données de piètre qualité, sans l’avoir anticipé, ce qui peut causer
beaucoup de difficultés lorsqu’on s’en apercevra. Par exemple, en cas de sous‑estimation des
caractéristiques, il peut s’ensuivre une usure et une dérive excessives. D’une manière générale, il
ne faudrait utiliser, pour les besoins de la météorologie, que des instruments de qualité élevée.
Le lecteur se reportera aux informations correspondantes dans divers chapitres du présent guide.
De plus amples détails sur les performances de plusieurs instruments figurent en outre dans les
comptes rendus des comparaisons internationales d’instruments organisées par l’OMM, dans les
rapports des sessions de la Commission des instruments et des méthodes d’observation et dans
les actes d’autres conférences internationales sur les instruments et les méthodes d’observation.
Essais de réception: Avant l’installation et la réception, il est indispensable de veiller à ce que les
instruments correspondent bien aux caractéristiques établies à l’origine. Les fabricants devraient
publier les performances des instruments et leur sensibilité à divers facteurs, que certifient parfois
des laboratoires d’étalonnage. Toutefois, les comparaisons d’instruments qu’organise l’OMM
montrent que les instruments peuvent aussi perdre de leur qualité en raison de facteurs pouvant
apparaître au cours des étapes de production et de transport. Il est difficile, voire impossible, de
déceler des erreurs d’étalonnage lorsqu’on ne dispose pas des étalons, des installations et des
moyens d’essai et d’étalonnage voulus. Dans le cadre d’une bonne gestion, on accordera une
place de première importance aux essais à exécuter dans des conditions d’exploitation avant que
les instruments entrent en service. Ces essais serviront tant à déterminer les caractéristiques d’un
modèle donné qu’à vérifier la qualité réelle de chaque instrument.
En cas d’achat de matériel, il faudrait envisager d’imposer au fournisseur de mettre en place des
procédures certifiées d’assurance de la qualité au sein de son organisation, selon les exigences
des SMHN, ce qui réduirait la nécessité d’un essai de réception par la suite. Un prix d’achat
relativement élevé peut alors se justifier compte tenu des moindres dépenses à consacrer
aux essais en interne ou à l’entretien en exploitation ou encore compte tenu de la qualité du
fonctionnement en service ainsi garantie.
Erreurs instrumentales: Pour obtenir des données de bonne qualité, il est indispensable de bien
choisir les instruments de mesure, mais cela ne suffit pas. Aucune méthode de mesure n’est
parfaite et tous les instruments produisent diverses erreurs systématiques et aléatoires. Il faudrait
donc réduire l’effet de ces erreurs sur les données pour atteindre un niveau de qualité acceptable
en prenant les mesures préventives et correctives utiles. Ces erreurs varient en fonction du type
d’observation; il en est question dans les paragraphes qui traitent des causes d’erreurs dans
divers chapitres du Guide (voir la partie I).
Acquisition de données: La qualité des données dépend non seulement de la qualité des
instruments, du choix de leur emplacement et de leur exposition, mais aussi des techniques
et méthodes utilisées pour obtenir les données et les convertir en données représentatives.
Il y a lieu d’établir une distinction entre les mesures automatisées et celles exécutées par des
observateurs. Il convient d’adapter les procédures d’échantillonnage et de calcul de moyennes
aux caractéristiques techniques d’un capteur, et notamment à sa constante de temps. Pour
éliminer les erreurs dues à des sources externes d’interférences et de bruits électriques, il
convient d’utiliser un conditionneur de signal placé entre le capteur et le système d’acquisition
de données. Le lecteur se reportera aux chapitres 1 et 2 de la partie II, qui présentent
l’échantillonnage et le filtrage. Dans le cas de relevés d’instruments manuels, il est possible que
les erreurs de mesure correspondent à des erreurs de conception, de réglage ou de résolution
ou découlent d’une formation inadéquate des observateurs. Quant aux observations visuelles
ou subjectives, les erreurs peuvent provenir d’une mauvaise interprétation des phénomènes
météorologiques due à l’inexpérience des observateurs.
Traitement des données: Des erreurs peuvent aussi provenir des méthodes de conversion ou des
calculs utilisés pour convertir les données d’un capteur en données météorologiques de niveau
II ou III. Citons notamment le calcul de l’humidité à partir de l’humidité relative ou du point de
rosée mesuré et la réduction de la pression au niveau moyen de la mer. Des erreurs se produisent
également lors du codage ou de la transcription de messages météorologiques, surtout s’ils sont
effectués par un observateur.
Contrôle de la qualité en temps réel: La qualité des données dépend des procédures de contrôle de
la qualité en temps réel qu’on applique lors de l’acquisition et du traitement des données et de la
préparation des messages afin d’éliminer les principales sources d’erreurs. Ces procédures sont
particulières à chaque type de mesure, mais elles incluent en général des contrôles grossiers à la
recherche de valeurs plausibles et de taux d’évolution et en vue de comparaisons avec d’autres
instruments (par exemple, le point de rosée ne peut être supérieur à la température). Des
contrôles spéciaux s’appliquent aux observations effectuées et aux messages météorologiques
rédigés manuellement. Dans les stations météorologiques automatiques, un matériel et des
logiciels spécialement conçus peuvent détecter des erreurs matérielles précises. L’application de
ces procédures est très importante, car certaines erreurs introduites lors du processus de mesure
ne peuvent pas être éliminées ultérieurement. On trouvera un aperçu des méthodes manuelles et
automatiques employées dans d’autres paragraphes du présent chapitre, dans le chapitre 1 de la
partie II et dans OMM (1993a, 2010a, 2010b, 2010c).
Contrôle des performances: Étant donné que les procédures de contrôle de la qualité en temps
réel ont des limites et que certaines erreurs peuvent ne pas être détectées, comme les dérives
à long terme des capteurs et les erreurs de transmission de données, les centres d’analyse
météorologique et les administrateurs de réseaux doivent procéder à un contrôle des
CHAPITRE 1. GESTION DE LA QUALITÉ 1197
performances au niveau des réseaux. Ce contrôle est présenté dans la section 1.8 du présent
chapitre. On trouvera également des informations dans le chapitre 1 de la partie II et dans
OMM (2010a). Il importe d’établir des procédures de liaison efficaces entre les responsables
des contrôles et pour l’entretien et l’étalonnage, afin de favoriser une réaction rapide en cas de
rapports d’anomalies ou de pannes par le système de contrôle.
Entretien: L’entretien peut être correctif (en cas de panne), préventif (nettoyage, graissage,
etc.) ou adaptatif (suite à une modification des besoins ou en cas d’obsolescence). La qualité
des données fournies par un instrument dépend en grande partie de la qualité de l’entretien
qui, elle‑même, est principalement fonction des compétences du personnel d’entretien et des
principes de l’entretien. Les capacités, le personnel et le matériel de l’organisme ou du service
chargé de l’entretien doivent correspondre aux types d’instruments et de réseaux à entretenir.
Il y a lieu de prendre en compte plusieurs facteurs tels que le programme d’entretien, qui doit
faire état des trois formes d’entretien (correctif, préventif et adaptatif), de la gestion logistique et
des moyens et installations de réparation, d’essai et de soutien. Il convient de noter que le coût
de l’entretien peut largement dépasser le prix d’achat d’un équipement (voir le chapitre 1 de la
partie II).
Enseignement et formation professionnelle: La qualité des données dépend aussi des compétences
du personnel technique chargé des essais, de l’étalonnage et de l’entretien et de celles des
observateurs. Il faudrait donc organiser les programmes d’enseignement et de formation
professionnelle rationnellement pour qu’ils répondent aux besoins des utilisateurs et
spécialement à ceux de l’entretien et de l’étalonnage ébauchés ci‑dessus, et qu’ils soient
adaptés au système. Cela importe particulièrement dans le cas des stations météorologiques
automatiques. Dans les contrats d’achat de systèmes, il faudrait exiger des fabricants qu’ils
fournissent une documentation technique et opérationnelle exhaustive et qu’ils organisent
des cours de formation technique et d’exploitation au sein des SMHN (voir le chapitre 5 de la
partie IV).
Le document OMM (2010c) établit qu’il convient d’appliquer certaines procédures de contrôle
de la qualité à toutes les données météorologiques destinées à un échange international. Il
faut aussi y assujettir toutes les données de niveau I et celles de niveau II ainsi que la conversion
d’un niveau à l’autre. Selon le document OMM (2010b), il faut que les centres de traitement
des données météorologiques appliquent le contrôle de la qualité à la plupart des messages
météorologiques faisant l’objet d’un échange international pour éliminer les erreurs de chiffrage
1198 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
et en vérifier la cohérence interne ainsi que la cohérence sur les plans temporel et spatial
et compte tenu des limites physiques et climatologiques. Ce document indique en outre la
fréquence minimale et les horaires du contrôle de la qualité.
Le document OMM (2010a) présente des directives générales quant aux procédures. Il souligne
l’importance que revêt le contrôle de la qualité effectué dans les stations, puisque certaines
erreurs introduites à ce niveau ne peuvent être corrigées par la suite, et fait valoir les grands
avantages liés à l’automatisation. Le document OMM (1993a) propose des descriptions assez
détaillées des procédures que peuvent utiliser les centres d’analyse numérique, donne des
directives concernant les limites climatologiques, les types de vérification de cohérence interne
et les comparaisons avec les stations voisines ainsi qu’avec des analyses et des pronostics, et
présente de brèves remarques sur les probabilités de rejet de données correctes et d’acceptation
de données erronées compte tenu de la distribution statistique connue des erreurs.
Le contrôle de la qualité tel qu’il est précisément défini à la section 1.1 s’applique en temps
réel ou quasi réel au processus d’acquisition et de traitement des données. Dans la pratique,
la responsabilité de ce contrôle est affectée à différents points du processus. Il peut s’agir
de stations, lorsque l’acquisition comporte une opération manuelle, ou de divers centres de
traitement des données.
Des procédures d’assurance de la qualité doivent être introduites et réévaluées lors des étapes de
mise au point de nouveaux capteurs ou systèmes d’observation (voir la figure 1.5).
Il est attendu de l’observateur ou du responsable de la station qu’il veille à ce que les données
transmises aient bien subi un contrôle de la qualité. Il convient à ce sujet de mettre en place des
procédures établies devant lui permettre d’assumer cette responsabilité. Il s’agit là d’une fonction
bien précise qui s’ajoute à celles relatives à l’entretien et à la tenue des documents:
c) Il convient d’effectuer des vérifications temporelles pour s’assurer que l’évolution depuis
la dernière observation est vraisemblable, surtout lorsque les observations n’ont pas été
effectuées par le même observateur;
d) Il convient de bien vérifier tous les calculs arithmétiques ainsi que toutes les consultations
de tables;
e) Il convient de vérifier le contenu des messages et autres relevés par comparaison avec les
données d’origine.
CHAPITRE 1. GESTION DE LA QUALITÉ 1199
Dans les stations météorologiques automatiques, il faudrait faire appel au logiciel pour exécuter
quelques‑unes des vérifications citées ci‑dessus ainsi que des vérifications techniques sur les
performances du système. Le chapitre 1 de la partie II traite ce sujet.
Pour l’essentiel, les procédures de contrôle de la qualité s’appliquant aux données de surface
s’appliquent aussi aux données aérologiques. Des contrôles devraient être effectués afin
d’obtenir une cohérence interne (tels les gradients et les cisaillements), climatologique et
temporelle, en harmonie avec les observations de surface normales. Pour les opérations
de radiosondage, il est crucial que l’étalonnage de référence soit vérifié explicitement et
délibérément. Le message doit également être vérifié avec les données observées.
Contrôle
Stratégie
des SMN
Usagers/
Clients
internes/
externes
Processus Évaluation
des SMN des besoins
Non
À changer
?
QA: Mesures
préventives Développement
Essais Vérification
QC: Maintenance
préventive des Acquisition/
stations production Validation
météorologiques de données
automatiques
QC: Contrôle
Gestion/
des câbles de
transfert
transmission
des données
de données
Archivage
L’automatisation du contrôle de la qualité dans une station est particulièrement utile pour les
données d’observation en altitude.
Il convient que les données subissent une vérification en temps réel ou la plus proche possible
du temps réel à la première étape et aux étapes suivantes où elles sont reçues et utilisées. Il est
fortement conseillé d’appliquer les mêmes vérifications urgentes à toutes les données, qu’elles
soient utilisées ou non en temps réel, car un contrôle de la qualité effectué ultérieurement tend
à être moins efficace. Lorsqu’on dispose de procédures automatiques, il faudrait évidemment
les utiliser. Il est cependant possible d’effectuer certains contrôles de la qualité sans l’aide d’un
ordinateur ou seulement avec une assistance informatique partielle. Le principe est qu’il convient
de vérifier chaque message, de préférence à chaque étape du cheminement des données.
Habituellement, les vérifications déjà effectuées dans une station sont répétées dans les
centres de données, éventuellement sous une forme plus élaborée faisant appel à des moyens
automatiques. De plus, les centres de données ont en général accès à d’autres données du
réseau, ce qui rend possible une vérification spatiale par comparaison avec les observations
provenant de stations voisines ou encore avec les champs analysés ou prévus. Il s’agit là d’une
méthode très efficace, qui constitue la contribution distinctive d’un centre de données au
contrôle de la qualité.
Lorsque des erreurs sont décelées, il convient de rejeter des données ou de les corriger en
consultant l’expéditeur ou encore de les corriger dans le centre même par déduction. Cette
dernière solution risque évidemment d’introduire des erreurs supplémentaires, mais elle est
néanmoins acceptable dans de nombreux cas. Dans la base de données, il convient d’adjoindre
un indicateur aux données ainsi corrigées. Ces données ne devraient être utilisées qu’avec
prudence.
Le processus de contrôle de la qualité produit des données de qualité établie que l’on peut
ensuite utiliser pour l’exploitation en temps réel et pour alimenter une banque de données. Par
ailleurs, ce processus devrait permettre de regrouper les informations sur les erreurs décelées.
Il est bon de mettre en place, lors de la première étape du traitement des données ou à l’étape
suivante, un système permettant, en cas d’erreur, d’envoyer immédiatement en retour une
information vers le point d’origine des données et d’établir un rapport que l’administrateur
réseau utilisera lors du contrôle des performances dont il est question ci‑après. Il vaut mieux
qu’une telle opération soit effectuée par un centre régional disposant d’un accès immédiat aux
stations.
Les procédures détaillées décrites dans OMM (1993a) servent de guide en ce qui concerne
le contrôle de la qualité des données destinées à un échange international, selon les
recommandations figurant dans OMM (2010b).
Un certain degré de qualité ne peut être maintenu qu’à condition qu’il soit possible de remonter
à la source des erreurs pour prendre des mesures correctives. Dans le cas des données provenant
de stations dotées de personnel, cette opération donne de très bons résultats en temps quasi
réel, non seulement parce qu’il est possible de corriger les erreurs, mais aussi parce le personnel
peut en déceler la source et empêcher qu’elles se répètent.
Dans les centres de données ou d’autres centres d’exploitation, il convient de charger une
personne de maintenir la communication en temps quasi réel avec les stations ainsi que
d’entretenir de bons rapports de travail avec le personnel des stations, ce qui est fort utile lorsque
des données erronées sont détectées.
CHAPITRE 1. GESTION DE LA QUALITÉ 1201
Un registre des performances régulièrement tenu, généralement tous les jours et tous les mois,
constitue un outil particulièrement important pour la gestion d’un réseau ou d’une station.
L’objectif du contrôle des performances est la vérification continue de la qualité des stations
d’observation et de chaque système d’observation, comme dans le cas de la mesure de la
pression ou du réseau de radiosondage.
a) Il convient, à partir des avis diffusés par les centres de données, d’enregistrer le nombre et
le type des erreurs détectées grâce au contrôle de la qualité;
b) Il convient de regrouper les données de chaque station en ensembles synoptiques pour des
périodes données, puis d’utiliser ces ensembles pour déceler des différences systématiques
entre stations voisines, tant dans les champs spatiaux que dans les séries chronologiques
comparatives. Il est utile d’établir des statistiques concernant les différences moyennes et
les différences dispersées, sachant que les analyses graphiques donnent de bons résultats
dans ces cas;
c) Il convient d’obtenir des stations d’observation des comptes rendus sur les défauts du
matériel ou sur d’autres aspects relatifs aux performances.
Ces types de renseignements permettent de déceler avec beaucoup d’efficacité les défauts
systématiques propres aux performances, mais aussi de choisir des mesures correctives adaptées.
Ce sont des indicateurs efficaces de nombreux facteurs ayant une influence sur la qualité des
données, tels que les modifications d’exposition ou d’étalonnage, la détérioration du matériel,
les variations de qualité des consommables ou la nécessité de perfectionner le personnel. Ils sont
particulièrement importants en tant qu’indicateurs de confiance pour le matériel automatique.
Il convient d’utiliser les résultats du contrôle des performances pour informer les stations
d’observation en retour, ce qui est un élément important pour maintenir un bon niveau de
motivation. Ces résultats indiquent aussi quand il y a lieu de réparer ou d’améliorer le matériel
d’observation.
Autrefois, on créait des réseaux d’observation principalement pour répondre aux besoins
en données de la prévision du temps. Le contrôle de la qualité en exploitation visait
principalement à déceler les valeurs aberrantes et comportait rarement des vérifications
portant sur l’homogénéité des données et sur la cohérence des séries chronologiques. L’intérêt
majeur accordé aux changements climatiques, surtout en raison de l’inquiétude suscitée par
l’augmentation des gaz à effet de serre dans l’atmosphère, a modifié cette situation. Des tests
d’homogénéité des données ont révélé que, parmi les changements climatiques apparents,
beaucoup pouvaient être attribués aux inhomogénéités des séries chronologiques, qui
découlaient uniquement de modifications touchant l’exploitation des systèmes d’observation.
Dans la présente section, nous tentons de résumer les causes de ces inhomogénéités et nous
1202 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
proposons quelques lignes directrices relatives aux informations sur les données, appelés
métadonnées, dont il faudrait disposer pour pouvoir veiller à l’homogénéité des données et faire
des recherche sur les changements climatiques.
L’étude concernant les changements apportés aux radiosondes (OMM, 1993b) illustre la gravité
du problème et donne un bon exemple du travail minutieux qu’il faut accomplir pour apporter
des solutions.
Les changements dans les relevés de la température en surface lorsque des stations dotées de
personnel sont remplacées par des stations météorologiques automatiques, et dans les relevés
aérologiques lorsqu’on remplace des radiosondes, sont des causes particulièrement importantes
d’inhomogénéité des données. On en est à présent tout à fait conscient et l’on peut en principe
les anticiper et les corriger. On peut néanmoins utiliser le contrôle des performances pour
confirmer l’efficacité des corrections apportées, voire pour élaborer de telles corrections.
1.9.2 Métadonnées
Une base de métadonnées contient des renseignements sur l’installation initiale et sur les mises
à jour correspondant aux changements intervenus. Les principaux éléments en sont notamment
les suivants:
vii. Observateur;
xi. Qualité des données (sous la forme d’un indicateur ou d’une incertitude).
Le document OMM (1994) présente une analyse fort utile des exigences en la matière,
comprenant des exemples relatifs aux effets des changements sur les procédures d’observation et
une explication des avantages qu’apportent des métadonnées de bonne qualité pour obtenir, à
3
Il convient de joindre des cartes et des plans d’échelle adaptée.
1204 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
partir de jeux de données discontinus, un relevé climatologique fiable. Il est possible de résumer
comme suit les éléments fonctionnels fondamentaux du système de gestion d’une base de
métadonnées:
c) Il convient d’établir une libre communication entre les personnes chargées de la collecte
de données et les chercheurs afin de mettre en place des mécanismes de rétroaction
permettant de repérer les problèmes touchant les données, de les corriger ou du moins
de les documenter et d’améliorer la documentation ou de la compléter afin de répondre
aux besoins des utilisateurs qui n’avaient pas été prévus au départ (groupes de travail, par
exemple);
d) Il convient d’établir une documentation détaillée, commode et facilement disponible sur les
procédures, les justifications, les essais, les hypothèses et les problèmes connus relatifs à la
construction d’ensembles de données à partir de mesures.
Tous les facteurs ayant une influence sur la qualité des données, décrits dans la section 1.6,
concernent la gestion des réseaux. Il convient en particulier d’y intégrer les mesures correctives à
prendre en fonction des performances qui ressortent des procédures de contrôle de la qualité et
du contrôle des performances.
Les réseaux sont définis dans OMM (2010c) et des directives générales quant à leur gestion
sont présentées dans OMM (2010a), y compris la structure et les fonctions d’un service chargé
de la gestion d’un réseau. Les pratiques de la gestion de réseaux varient grandement selon les
dispositions administratives locales.
L’administrateur du réseau devrait suivre de très près les procédures ainsi que les résultats
obtenus en ce qui concerne tous les facteurs ayant une influence sur la qualité dont il est question
dans la section 1.6, en tenant compte des considérations suivantes:
a) Les systèmes de contrôle de la qualité présentés à la section 1.1 constituent des éléments
essentiels au bon fonctionnement de tout réseau météorologique et devraient représenter
une priorité pour les utilisateurs de données et l’administrateur du réseau;
c) L’inspection des stations d’observation, décrite ci‑après, constitue aussi une composante de
la gestion des réseaux;
d) L’entretien du matériel peut faire partie des fonctions relevant directement du service
chargé de la gestion d’un réseau. Dans le cas contraire, le service en question et le bureau
chargé du matériel devraient travailler en collaboration très étroite;
1.10.1 Inspections
Les rapports d’inspection comprennent une partie des résultats découlant du contrôle des
performances.
Il est tout à fait conseillé d’établir des procédures d’inspection complètes et systématiques, de
les décrire de façon exhaustive dans des manuels d’inspection et d’entretien et de demander aux
inspecteurs de les appliquer. De telles procédures devraient inclure des rapports détaillés des
visites d’inspection précédentes et des mesures de suivi.
L’inspecteur devrait veiller en particulier aux aspects suivants du fonctionnement d’une station:
a) Performances des instruments: il convient d’étalonner les instruments qui en ont besoin
à l’aide d’un étalon approprié. Cela s’applique en tout premier lieu aux instruments de
mesure de la pression atmosphérique, puisque tous les baromètres des stations peuvent
présenter une certaine dérive. Il convient de vérifier les appareils enregistreurs mécaniques
et électriques selon des procédures bien définies. Il convient de soumettre le matériel
complexe, tel que stations météorologiques automatiques et radars, à divers tests de
vérification physiques et électriques. Les anémomètres et les abris météorologiques sont
particulièrement sujets à divers types de détériorations, ce qui risque de nuire à la qualité
des données. Il convient de vérifier l’état physique de l’ensemble du matériel, et notamment
son état de propreté, de corrosion, etc.;
c) Exposition: il convient de consigner par écrit toute modification des alentours de la station
et de la corriger en temps utile, si cela est possible. Il faut parfois envisager un changement
d’emplacement.
1206 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Parmi les objectifs d’un programme d’inspection des stations dotées de personnel figure la
nécessité de maintenir l’intérêt et l’enthousiasme des observateurs. L’inspecteur doit faire preuve
de tact et d’enthousiasme, exercer une fonction d’information et savoir obtenir le concours
d’autrui.
Il est essentiel d’enregistrer par écrit, en indiquant la date, toutes les modifications observées au
cours d’une inspection, de manière à ce qu’il soit possible d’établir l’historique de la station, ce
qui servira ultérieurement dans les études climatologiques et d’autres applications.
En général, on ne peut pas déterminer la fréquence optimale des visites d’inspection, même pour
un type donné de station. Cela dépend des compétences des observateurs et de la qualité du
matériel, de la rapidité avec laquelle le matériel et l’exposition de la station se détériorent et aussi
des changements de personnel et d’installations dans la station. Ainsi, un intervalle de deux ans
peut être suffisant pour une station bien établie, tandis qu’un intervalle de six mois peut convenir
pour une station météorologique automatique. Certains types de stations requièrent des critères
d’inspection spéciaux.
Selon ses compétences, l’inspecteur ou l’équipe d’inspection peut être appelé à effectuer
une partie de l’entretien du matériel. En général, l’entretien devrait être organisé suivant un
programme, tout comme le sont les inspections. Cette question n’est pas examinée ici, car les
exigences et les types de programmes pouvant y répondre sont très divers.
RÉFÉRENCES ET AUTRES LECTURES
Deming, W.E., 1986: Out of the Crisis: Quality, Productivity and Competitive Position. University of Cambridge
Press, Cambridge.
Kaplan, R.S. et D.P. Norton, 1996: The Balanced Scorecard: Translating Strategy into Action. Harvard Business
School Press, Boston.
Miller, P.A. et L.L. Morone, 1993: Real time quality control of hourly reports from the automated surface
observing system. Preprints of the Eighth Symposium on Meteorological Observations and
Instrumentation. American Meteorological Society, Boston, p. 373‑378.
Organisation internationale de normalisation, 2005: Systèmes de management de la qualité – Principes
essentiels et vocabulaire, ISO 9000:2005, Genève.
———, 2008: Systèmes de management de la qualité – Exigences, ISO 9001:2008, Genève.
———, 2009: Gestion des performances durables d'un organisme – Approche de management par la qualité,
ISO 9004:2009, Genève.
———, 2011: Lignes directrices pour l'audit des systèmes de management, ISO 19011:2011, Genève.
Organisation internationale de normalisation/Commission électrotechnique internationale, 2005: Exigences
générales concernant la compétence des laboratoires d'étalonnages et d'essais, ISO/CEI 17025:2005,
Genève.
———, 2011: Technologies de l'information – Gestion des services – Partie 1: Exigences du système de management
des services, ISO/CEI 20000‑1:2011, Genève.
———, 2012: Technologies de l'information – Gestion des services – Partie 2: Guide pour l'application des systèmes
de management des services, ISO/CEI 20000‑2:2012, Genève.
Organisation météorologique mondiale, 1988: Practical experience of the operation of quality evaluation
programmes for automated surface observations both on land and over the sea (M. Field et
J. Nash). Papers Presented at the WMO Technical Conference on Instruments and Methods of
Observation (TECO‑1988). Instruments and Observing Methods Report No. 33
(WMO/TD‑No. 222), Genève.
———, 1993a: Guide du Système mondial de traitement des données (OMM‑N° 305), Genève.
———, 1993b: Historical Changes in Radiosonde Instruments and Practices (D.J. Gaffen). Instruments and
Observing Methods Report No. 50 (WMO/TD‑No. 541), Genève.
———, 1994: Homogeneity of data and the climate record (K.D. Hadeen et N.B. Guttman). Papers Presented
at the WMO Technical Conference on Instruments and Methods of Observation (TECO‑94).
Instruments and Observing Methods Report No. 57 (WMO/TD‑No. 588), Genève.
———, 2005a: WMO Quality Management Framework (QMF). First WMO Technical Report (édition révisée)
(WMO/TD‑No. 1268), Genève.
———, 2005b: Guidelines on Quality Management Procedures and Practices for Public Weather Services. PWS‑11
(WMO/TD‑No. 1256), Genève.
———, 2010a: Guide du Système mondial d’observation (OMM‑N° 488), Genève.
———, 2010b: Manuel du Système mondial de traitement des données et de prévision (OMM‑N° 485), Volume I,
Genève.
———, 2010c: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
TABLE DES MATIÈRES DU CHAPITRE
Page
2.1 GÉNÉRALITÉS
Le présent chapitre est une initiation à ce domaine complexe, à l’intention des non‑spécialistes
qui ont besoin de suffisamment de connaissances pour le comprendre de façon générale et saisir
l’importance des techniques pertinentes.
b) On peut se livrer à une étude plus fouillée en faisant appel à la théorie de l’analyse des séries
chronologiques, à la notion de spectre des fluctuations et au comportement des filtres; la
démarche s’impose afin de résoudre le problème plus complexe que constitue l’emploi
d’instruments aux temps de réponse relativement courts pour mesurer convenablement la
moyenne ou le spectre d’une grandeur fluctuant rapidement — dont le vent est l’exemple
type.
Il est donc logique de commencer par des exposés sur les séries chronologiques, les spectres
et les filtres (sections 2.2 et 2.3). La section 2.4 contient des conseils pratiques touchant
l’échantillonnage. Les indications données reposent le plus souvent sur l’hypothèse que les
intéressés ont les moyens d’appliquer des techniques numériques et de traitement automatique.
Il faut avoir présent à l’esprit qu’on n’échantillonne jamais une grandeur atmosphérique
elle‑même, mais les sorties du capteur avec lequel on la mesure. La distinction est importante
parce que les capteurs ne reproduisent pas exactement la variable observée. Ils réagissent en
général plus lentement que l’atmosphère ne change et ils ajoutent un bruit au signal d’entrée.
Leur fonctionnement présente des particularités généralement gênantes, comme la dérive de
l’étalonnage ou le fait qu’ils répondent de manière non linéaire, qu’ils influent sur la grandeur
qu’ils mesurent et qu’ils tombent plus souvent en panne qu’ils ne le devraient, mais on se limitera
ici à l’analyse de la réponse du capteur et à l’addition du bruit.
Il existe de nombreux ouvrages résumant ce qu’il y a lieu de savoir sur la conception des systèmes
d’échantillonnage ou sur l’analyse des données échantillonnées; le lecteur consultera par
1210 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
exemple avec profit ceux de Bendat et Piersol (1986), d’Otnes et Enochson (1978), ou encore de
Pasquill et Smith (1983), de Stearns et Hush (1990), de Kulhánek (1976) et de Jenkins et Watts
(1968).
2.1.1 Définitions
Les définitions ci‑après ont été retenues aux fins du présent chapitre:
Échantillonnage. Processus par lequel s’obtient une suite discrète de mesures d’une grandeur.
Échantillon. Mesure isolée, extraite généralement d’une série de lectures ponctuelles d’un
capteur. Cette définition diffère de celle ordinairement utilisée par les statisticiens: jeu de
nombres ou de mesures appartenant à une population.
Mesurage. Selon l’ISO, «ensemble d’opérations ayant pour but de déterminer la valeur d’une
grandeur». Dans son acception courante, ce terme, souvent remplacé par mesure, peut servir à
désigner la valeur soit d’un échantillon, soit d’une observation.
Lissage. Processus consistant à atténuer les composantes à hautes fréquences du spectre sans
modifier sensiblement les basses fréquences; le but visé est généralement d’éliminer le bruit
(erreurs aléatoires et fluctuations dépourvues d’intérêt pour l’application considérée).
Filtre. Dispositif servant à atténuer ou sélectionner toute fréquence choisie; le lissage s’effectuant
avec un filtre passe‑bas, on emploie souvent indistinctement les deux termes lissage et filtrage en
ce sens. Il existe cependant aussi des filtres passe‑haut et passe‑bande. Le filtrage peut provenir
d’une caractéristique de l’instrument, telle que son inertie, ou s’opérer électroniquement ou
numériquement.
Pour que les observations soient représentatives, les capteurs sont installés à des hauteurs
normalisées en des endroits bien dégagés et les échantillons sont traités de manière à établir
des valeurs moyennes. Dans quelques cas, les capteurs, tels que les transmissomètres, procurent
intrinsèquement des moyennes spatiales et cela contribue à la représentativité de l’observation.
L’observation humaine de la visibilité en fournit une autre illustration. On ne reviendra cependant
plus à partir d’ici sur l’échantillonnage spatial, pour se concentrer sur l’échantillonnage dans le
temps de mesures ponctuelles.
La portée de ces échelles est limitée dans l’atmosphère. À l’une des extrémités du spectre, les
échelles horizontales ne peuvent pas être plus longues que la circonférence de la Terre, soit
environ 40 000 km. Pour la météorologie, les échelles verticales ne dépassent pas quelques
dizaines de kilomètres. Dans la dimension temporelle par contre, les échelles les plus longues
sont climatologiques et, théoriquement, illimitées, mais en pratique la plus longue période
n’excède pas la durée des relevés existants. À l’autre extrémité, la dissipation visqueuse de
l’énergie de turbulence en chaleur fixe une limite inférieure. Près de la surface de la Terre, cette
limite se situe à une longueur d’onde de quelques centimètres et croît avec l’altitude pour
atteindre quelques mètres dans la stratosphère. Dans la dimension temporelle, ces longueurs
d’onde correspondent à des fréquences de dizaines d’Hertz. Il est exact de dire que les variables
atmosphériques sont limitées en bande passante.
La figure 2.1 représente schématiquement le spectre d’une grandeur météorologique, telle que la
vitesse du vent, hypothétiquement mesurée à un endroit et un moment particuliers. L’ordonnée,
communément appelée énergie ou densité spectrale, est liée à la variance des fluctuations du
vent à chaque fréquence n. Dans ce spectre, l’énergie est minimale pour l’échelle moyenne à
environ un cycle par heure, entre des pics pour l’échelle synoptique à environ un cycle en quatre
jours et à la microéchelle au voisinage d’un cycle par minute. Les plus petites longueurs d’onde
sont de quelques centimètres et les fréquences les plus élevées de plusieurs dizaines d’Hertz.
La présente section est destinée à initier le profane aux principes directeurs de l’analyse des
séries chronologiques qui sont la base d’une bonne pratique de l’échantillonnage. Ils revêtent
dans le contexte du Guide un intérêt particulier pour la mesure du vent, mais les mêmes
questions se posent à l’égard de la température, de la pression et d’autres grandeurs. Leur
importance pour les observations météorologiques courantes s’est accrue avec l’apparition du
mesurage automatique car il est alors devenu possible d’obtenir fréquemment et rapidement
des échantillons. Si la conception des systèmes laisse à désirer, cela peut être à l’origine de graves
erreurs dans les estimations de la moyenne, des extrêmes et du spectre.
1212 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
S(n)
Bien que la mesure des spectres ne fasse pas partie des activités ordinaires, elle a de nombreuses
applications. Le spectre du vent est important pour les travaux d’ingénierie, et pour la dispersion,
diffusion et la dynamique de l’atmosphère. Les notions exposées ci‑dessous sont également
utilisées pour l’analyse quantitative des données de satellite (dans la dimension spatiale
horizontale) ainsi qu’en climatologie et en micrométéorologie.
b) Selon le théorème de Nyquist, il est possible de déterminer précisément une grandeur qui
fluctue constamment à partir d’une série d’échantillons à l’espacement constant, s’ils sont
assez proches les uns des autres;
c) Si la fréquence des échantillonnages est trop faible, des fluctuations aux fréquences
non échantillonnées les plus hautes (supérieures à la fréquence de Nyquist définie à la
section 2.2.1 ci‑dessous) affecteront l’estimation de la valeur moyenne; elles affecteront de
surcroît le calcul des basses fréquences et fausseront le spectre mesuré. Cet effet, appelé
repliement de spectre, peut engendrer de graves erreurs si on le méconnaît et si on n’en
tient pas compte dans la conception des systèmes;
e) Les filtres peuvent être numériques ou analogiques; un capteur dont le temps de réponse
est suffisamment long se comporte comme un filtre.
Pour bien maîtriser l’échantillonnage il faut être familiarisé avec les spectres de puissance, le
théorème de Nyquist, le filtrage et l’inertie des instruments. Il s’agit là de sujets hautement
spécialisés dont l’abord exige de solides connaissances sur les caractéristiques des capteurs
employés, la manière dont les sorties du capteur sont conditionnées, traitées et enregistrées, les
caractéristiques physiques des éléments à mesurer et les fins auxquelles les données analysées
CHAPITRE 2. ÉCHANTILLONNAGE DES VARIABLES MÉTÉOROLOGIQUES 1213
doivent servir. Cela requiert en conséquence des compétences qui s’étendent à la physique des
instruments, au fonctionnement des systèmes électroniques, de traitement et d’enregistrement,
aux mathématiques, à la statistique et à la météorologie des phénomènes observés — et sortent
donc largement du cadre de cet exposé.
Un profane peut néanmoins comprendre quelles sont les bonnes pratiques à respecter
pour mesurer convenablement les moyennes et les extrêmes et acquérir une juste vision des
problèmes associés à la mesure des spectres.
Il est nécessaire de considérer que les signaux s’inscrivent dans les domaines soit du temps, soit
de la fréquence. L’analyse spectrale repose essentiellement sur le concept des transformations
de Fourier. Une fonction f(t), définie entre t = 0 et t = τ, peut être transformée en la somme d’un
ensemble de fonctions sinusoïdales:
∞
f (t ) = ∑ A j sin ( jωt ) + B j cos ( jωt ) (2.1)
j =0
où ω = 2 π/τ. Le second membre de l’équation est une série de Fourier. Aj et Bj expriment
les amplitudes des contributions des composantes aux fréquences nj = jω. Cela constitue la
transformation fondamentale entre les domaines du temps et de la fréquence. Les coefficients
de Fourier Aj et Bj se rapportent directement à la fréquence jω et peuvent être associés aux
contributions spectrales à f(t) dans ces fréquences. Dès lors qu’on connaît la réponse en
fréquence d’un instrument, c’est‑à‑dire de combien il amplifie ou atténue certaines fréquences,
ainsi que de combien ces fréquences contribuent au signal original, on peut calculer l’effet de la
réponse en fréquence sur le signal de sortie. La contribution de chaque fréquence se caractérise
par deux paramètres que, pour plus de commodité, il est loisible d’assimiler à l’amplitude et à
la phase de la composante fréquentielle. Si donc on donne à l’équation 2.1 sa deuxième forme
possible:
∞
f (t ) = ∑ α j sin ( jωt + φ j ) (2.2)
j =0
l’amplitude et la phase associées à chaque contribution spectrale sont αj et ϕj. Toutes deux
peuvent être affectées par l’échantillonnage et le traitement.
La fonction f(t) a été jusqu’ici supposée connue sans interruption sur toute l’étendue de la
gamme t = 0 à t = τ; en réalité c’est rarement le cas: les variables météorologiques sont mesurées
en des points discrets d’une série chronologique composée de N échantillons prélevés à des
intervalles égaux Δt durant une période spécifiée τ = (N–1)Δt. On suppose également que les
échantillons sont prélevés instantanément, ce qui n’est pas tout à fait vrai car tous les dispositifs
de mesure mettent un certain temps à déterminer la valeur qu’ils mesurent. Dans la plupart des
cas, ce temps est court comparativement à l’intervalle Δt entre les échantillons. Même s’il ne l’est
pas, il reste possible de tenir compte du temps de réponse dans l’analyse, mais on n’en traitera
pas ici.
Si l’on considère les données que fournirait l’échantillonnage d’une fonction sinusoïdale à des
intervalles de temps Δt, on constate que la plus haute fréquence détectable est 1/(2Δt) et qu’en
fait toute sinusoïde de fréquence supérieure susceptible de figurer dans la série chronologique se
trouve représentée dans les données comme ayant une fréquence inférieure. La
fréquence 1/(2Δt) est appelée fréquence de Nyquist et désignée ici par ny. On l’appelle aussi
parfois fréquence de repliement, par référence au biais d’analyse des données schématisé
dans la figure 2.2. Quand on effectue l’analyse spectrale d’une série chronologique, en raison
du caractère discret des données, la contribution de fréquence n à l’estimation contient aussi
les contributions de fréquences plus élevées, à savoir celles de 2 jny ± n (j = 1 à ∞). L’une des
façons de se représenter la distorsion est d’imaginer que le domaine des fréquences se replie
sur lui‑même comme le soufflet d’un accordéon à n = 0 et n = ny, et ainsi de suite par pas de ny.
L’estimation spectrale à chaque fréquence de la gamme est la somme de toutes les contributions
des hautes fréquences qui s’y superposent.
1214 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Les effets concrets du repliement de spectre sont étudiés à la section 2.4.2. Il s’agit
potentiellement d’un gros problème et il faudrait en tenir compte dans la conception des
systèmes d’instruments. On peut l’éviter en minimisant, ou ramenant à zéro, la puissance du
signal aux fréquences supérieures à ny. Il existe deux façons d’y parvenir. La première consiste
à inclure dans le système un filtre passe‑bas qui atténue les contributions aux fréquences
supérieures à ny avant que le signal ne soit numérisé; le seul inconvénient est que l’instant de
survenue et l’ampleur des changements rapides seront mal enregistrés, voire pas enregistrés
du tout. La seconde consiste à choisir Δt assez court pour que les contributions au‑dessus de la
fréquence de Nyquist soient insignifiantes, ce qui est possible parce que le spectre de la plupart
des variables météorologiques s’affaisse très rapidement aux très hautes fréquences. La seconde
démarche n’est cependant pas toujours applicable: si, par exemple, Δt est de l’ordre de plusieurs
heures pour des mesures de température effectuées toutes les 3 heures, les ordonnées spectrales
des petites fluctuations de quelques minutes ou quelques secondes seront relativement grandes
et le repliement très prononcé. Dans ce cas, il vaut mieux employer la première méthode.
La densité spectrale, du moins telle qu’on l’estime à partir de séries chronologiques, se définit
par:
( ) (
S n j = A2j + B 2j )n y = α 2j n y (2.3)
Il existe aussi différentes façons de procéder à l’analyse spectrale d’une série chronologique.
La plus évidente est de lui faire subir une transformation de Fourier directe. Comme la série
n’a qu’une longueur finie, la transformation ne comprend qu’un nombre fini de composantes
fréquentielles. Si la série se compose de N termes, l’analyse donnera N/2 fréquences. Le
calcul direct étant une opération laborieuse, d’autres méthodes ont été mises au point. La
première fut celle de Blackman et Tukey (1958) qui consistait à établir le rapport entre la
fonction d’autocorrélation et des estimations de diverses fonctions spectrales (la fonction
d’autocorrélation r(t) est le coefficient de corrélation calculé entre des termes de la série
chronologique séparés par un intervalle de temps t). Imposée par la faible puissance des
moyens informatiques disponibles dans les années 1950 et 1960, elle a depuis cédé le pas à
la transformation de Fourier rapide (TFR) qui tire parti de la plus grande vitesse de calcul des
ordinateurs modernes. Sa principale faiblesse est que la série chronologique doit contenir
2k termes, où k est un nombre entier. Ce n’est en général pas trop gênant puisqu’on possède dans
la plupart des cas assez de données pour organiser aisément la série jusqu’à une telle longueur.
On peut aussi, avec certains logiciels TFR, utiliser un nombre arbitraire de termes et ajouter des
données artificielles pour parvenir à 2k.
Les méthodes décrites ci‑dessus font de plus en plus partie intégrante des systèmes
météorologiques, et pas uniquement pour l’analyse des données. Comme on l’imagine sans
peine, les spectres qu’on rencontre en météorologie revêtent des formes très différentes
selon qu’ils représentent, à une extrémité de la gamme, les plus basses fréquences associées
à l’évolution du climat, à l’autre extrémité la turbulence ou l’agitation moléculaire, en passant
par les changements annuels et saisonniers, les conditions synoptiques durant des périodes de
plusieurs jours, les variations journalières ou semi‑journalières et les phénomènes à moyenne
échelle locaux. Ce qui offre de l’intérêt pour la plupart des applications météorologiques, y
compris l’analyse synoptique, sont les laps de temps allant de quelques secondes à quelques
minutes, où le spectre décroît très rapidement avec la fréquence. Sur des périodes inférieures
à la minute, le spectre prend souvent des valeurs proportionnelles à n–5/3, si bien que les
contributions des fréquences supérieures à 1 Hz y demeurent relativement faibles.
∫ S ( n ) dn = σ
2
(2.5)
0
Il ressort des équations 2.4 et 2.5 que les modifications du spectre provoquées, notamment par le
système d’instruments, affecteront la valeur de σ 2 et par conséquent les propriétés statistiques de
la sortie relativement à l’entrée. Ce peut être un point important à considérer dans la conception
des instruments et dans l’analyse des données.
On notera aussi que le premier membre de l’équation 2.5 représente la surface sous la courbe
de la figure 2.2. Le repliement du spectre ne modifie pas cette zone, et donc pas la variance, si la
série chronologique est stationnaire, c’est‑à‑dire si son spectre ne change pas au cours du temps.
Les capteurs, et les circuits électroniques qu’on leur adjoint éventuellement afin de former un
système d’instruments, ont des temps de réponse et exercent un effet de filtrage qui influent sur
les observations.
Dans un système du premier ordre, comme un capteur ordinaire ou le plus rudimentaire des
circuits de filtrage passe‑bas, le rythme auquel change la valeur indiquée par l’instrument est
directement proportionnel à la différence entre celle‑ci et la valeur vraie de la variable mesurée.
Si donc la valeur vraie à l’instant t est s(t) et la valeur enregistrée par l’instrument s0(t), le système
se décrit par l’équation différentielle du premier ordre:
ds0 ( t ) s ( t ) − s0 ( t )
= (2.6)
dt TI
où T I est une constante, qui a la dimension d’un temps, caractéristique du système. La réponse
d’un système du premier ordre à une fonction échelon est proportionnelle à exp(–t/T I) et on
observe que T I est le laps de temps qu’il faut au système, après toute variation d’un échelon,
pour atteindre 63 % de la lecture finale qu’on aurait en régime établi. L’équation 2.6 s’applique à
de nombreux capteurs tels que les thermomètres.
1216 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
L1
(S)
S(n)
K1
(a) a
K2
(b)
L2 b
(c) c
Figure 2.2. Représentation schématique du repliement d’un spectre calculé à partir d’une
série chronologique stationnaire. On ne peut calculer le spectre que dans la plage comprise
entre la fréquence zéro et la fréquence de Nyquist ny. Les valeurs vraies des énergies aux
fréquences plus élevées sont représentées par les secteurs a, b et c qui se trouvent «repliés»
sur le secteur allant de n = 0 à ny de la manière indiquée par les tracés en pointillé (a), (b) et
(c). Le spectre calculé, matérialisé par le pointillé en trait gras (S), en contient la somme.
Un anémomètre à coupelles constitue un instrument du premier ordre, à ceci près que T I n’est
pas constant mais varie avec la vitesse du vent. En fait, on dénomme constante de distance le
paramètre s0T I parce qu’il est, lui, presque constant. L’équation 2.6 n’est plus dès lors une égalité
simple du premier ordre car elle devient non linéaire et sa solution très compliquée. Une autre
difficulté provient de ce que T I n’est pas le même selon que la vitesse de rotation des coupelles
croît ou décroît, c’est‑à‑dire selon que le deuxième membre de l’équation est positif ou négatif.
L’explication en est que le coefficient de résistance des coupelles est plus faible quand le vent
arrive de face que quand il vient de derrière.
La girouette s’apparente à un système du deuxième ordre parce que, comme cela est vrai de
tout corps oscillant, un pendule par exemple, la rapidité avec laquelle elle se place dans la
direction véritable du vent est proportionnelle à la distance qui l’en sépare. Le mouvement des
girouettes est amorti à la fois naturellement et en raison de leur dessin par une force de résistance
proportionnelle et opposée au rythme de ce mouvement. L’équation différentielle rendant
compte de leur comportement s’écrit par conséquent:
d 2φ0 ( t ) dφ0 ( t )
= k1 φ0 ( t ) − φ ( t ) − k2 (2.7)
dt 2 dt
où ϕ est la direction véritable du vent, ϕ 0 est la direction de la girouette, et k1 et k2 sont des
constantes. Sa solution est une oscillation amortie à la fréquence naturelle de la girouette
(déterminée par la constante k1). L’amortissement, gouverné par la constante k2, joue bien sûr un
rôle primordial. S’il est trop faible, la girouette oscille simplement à la fréquence naturelle; s’il est
trop fort, elle ne réagit pas aux changements de direction du vent.
CHAPITRE 2. ÉCHANTILLONNAGE DES VARIABLES MÉTÉOROLOGIQUES 1217
1,0
0,6
0,4
0,2
Temps
Figure 2.3. Réponse d’un système du premier ordre à un changement d’un échelon
À l’instant TI, le système a atteint 63 % de sa valeur finale.
Il est instructif d’examiner la façon dont ces deux systèmes répondent à un changement d’un
échelon du signal d’entrée car elle est exemplaire de ce qui se passe dans la réalité. Les figures 2.3
et 2.4 matérialisent les réponses à ce changement, données par la solution analytique des
équations 2.6 et 2.7. On notera que ce n’est dans aucun des deux cas la valeur réelle de l’élément
que mesure le système, et aussi que le choix des valeurs attribuées aux constantes k1 et k2 peut
influer grandement sur les sorties.
2,0
0,1
1,5
Réponse relative
0,7
1,0
2,0
0,5
pN 2pN
Temps
Figure 2.4. Réponse d’un système du deuxième ordre à un changement d’un échelon. pN est la
période naturelle, liée à k1 dans l’équation 2.7, qui pour une girouette dépend de la vitesse du
vent. Les courbes correspondent aux facteurs d’amortissement 0,1 (très léger), 0,7 (critique,
optimal pour la plupart des fins) et 2 (fort). Le facteur d’amortissement est lié à k2 dans
l’équation 2.7.
1218 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
où les indices out et in désignent les spectres de l’entrée et de la sortie. On remarquera qu’en
vertu de la relation établie dans l’équation 2.5, la variance de la sortie dépend de H(n). H(n)
définit les effets de filtrage exercés par le capteur (section ci‑dessous). Leurs modes de calcul ou
de mesure forment l’objet de la section 2.3.
2.2.4 Filtres
La présente section traite des propriétés des filtres et offre quelques exemples de la façon dont ils
peuvent influer sur les données.
Le filtrage est le processus consistant à traiter une série chronologique (continue ou discrète,
à savoir échantillonnée) de sorte que la valeur assignée à un instant donné soit pondérée par
les valeurs qui se sont établies à d’autres instants. Dans la plupart des cas, ces derniers seront
immédiatement voisins de l’instant donné. C’est ainsi que, dans une série chronologique discrète
de N échantillons numérotés de 0 à N ayant les valeurs yi, la valeur de l’observation filtrée ӯ i peut
se définir par:
m
yi = ∑ w j yi + j (2.9)
j =− m
Le filtre contient en l’occurrence 2m + 1 termes, numérotés de –m à +m par la variable binaire j,
et ӯ i est centrée à j = 0. Quelques données sont rejetées au début et à la fin de la période
d’échantillonnage. wj est communément appelée fonction de pondération et d’ordinaire:
m
∑ wj = 1 (2.10)
j =− m
si bien qu’au moins la valeur moyenne de la série filtrée sera la même qu’avant le filtrage.
L’exemple ci‑dessus se rapporte à un filtrage numérique. On obtient les mêmes effets avec
un dispositif électronique (par exemple, résistance et condensateur) ou par le biais des
caractéristiques du capteur (cas de l’anémomètre étudié précédemment). Qu’il soit numérique
ou analogique, le filtre est caractérisé par H(n). S’il est numérique, H(n) peut se calculer; s’il est
analogique, H(n) s’obtient par l’une des méthodes décrites dans la section 2.3.
Comparons par exemple un filtre du premier ordre dont le temps de réponse est T I à un filtre
rectangulaire («boxcar») de longueur Ts sur une série chronologique discrète provenant d’un
capteur qui répond bien plus rapidement. La figure 2.5 montre la forme des deux filtres.
Tout se passe avec le premier comme si l’instrument était doté d’une mémoire maximale à
l’instant présent, mais faiblissant exponentiellement à mesure que les données deviennent plus
anciennes. Tous les coefficients de pondération du filtre rectangulaire sont égaux jusqu’au temps
Ts, nuls au‑delà. La figure 2.6 représente les fonctions de réponse en fréquence H(n) des deux
filtres.
Dans cette figure, les fréquences ont été mises à l’échelle pour faire ressortir la similarité des
deux fonctions de réponse. On constate qu’un instrument dont le temps de réponse est, par
exemple, de 1 s produit sur une entrée à peu près le même effet qu’un filtre rectangulaire
appliqué pendant 4 s. Il convient toutefois de noter qu’un filtre rectangulaire, qui se calcule
numériquement, ne se comporte pas simplement: il n’élimine pas toutes les fréquences
supérieures à celle de Nyquist et ne peut être utilisé valablement que si le spectre s’affaisse
rapidement au‑delà de ny. (Remarque: le filtre rectangulaire de la figure 2.6 est une solution
analytique du cas où w est une fonction continue; si le nombre d’échantillons présents dans le
filtre est petit, la coupure est moins brutale et les pics de haute fréquence indésirables sont plus
importants.)
CHAPITRE 2. ÉCHANTILLONNAGE DES VARIABLES MÉTÉOROLOGIQUES 1219
Fonction de
pondération
rectangulaire
Facteur de pondération w
Fonction de
pondération
exponentielle
Temps
Figure 2.5. Facteur de pondération pour une fonction de pondération du premier ordre
(exponentielle) et une fonction de pondération rectangulaire. Dans le second cas, Ta = Ts , la
période d’échantillonnage, et w = 1/N. Dans la fonction de premier ordre, Ta = TI , la
constante de temps du filtre, et w(t) = (1/TI) exp (–t/TI).
1,0
0,8
Filtre exponentiel Filtre rectangulaire
0,6
H(n)
0,4
0,2
Exponentielle
0,01 0,1 1,0
nTI
Figure 2.6. Fonctions de réponse en fréquence pour une fonction de pondération du premier
ordre (exponentielle) et une fonction de pondération rectangulaire. Pour le filtre du premier
ordre, la fréquence est normalisée par TI , la constante de temps, et pour le filtre rectangulaire
par Ts , la période d’échantillonnage.
1220 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
0,1
4
H(n)
2
0,7
2,0
1 2 3
n/nN
Figure 2.7. Fonctions de réponse en fréquence pour un système du deuxième ordre tel qu’une
girouette. La fréquence est normalisée par nN , la fréquence naturelle, qui dépend de la vitesse
du vent. Les courbes correspondent aux facteurs d’amortissement 0,1 (très léger), 0,7
(critique, optimal pour la plupart des fins) et 2 (fort).
Le lecteur trouvera dans Acheson (1968) des avis pratiques sur les filtres rectangulaires, le filtrage
exponentiel et une comparaison de leurs effets.
La figure 2.7, représentant la fonction de réponse d’un système du deuxième ordre, une girouette
en l’occurrence, montre comment l’amortissement joue le rôle de filtre passe‑bande.
On voit que le traitement des signaux par les systèmes peut avoir des effets considérables sur les
données de sortie et qu’il demande un grand savoir‑faire.
Les filtres peuvent aussi modifier la signification statistique des données, ainsi qu’on l’a indiqué
précédemment et que l’illustrent les équations 2.5 et 2.8. L’équation 2.5 montre comment
l’intégrale du spectre pour toutes les fréquences donne la variance de la série chronologique,
l’équation 2.8 montre comment le filtrage, par l’effet de la fonction de transfert, modifie le
spectre mesuré. On notera que le filtrage ne diminue pas toujours la variance; pour un système
du deuxième ordre, par exemple, la fonction de transfert amplifie en certains cas des parties du
spectre et éventuellement la variance, comme dans la figure 2.7.
Pour prendre un autre exemple: quand la distribution est gaussienne, la variance constitue un
paramètre utile. Si le filtrage venait à la réduire, l’utilisateur des données sous‑estimerait les
écarts par rapport à la moyenne d’événements survenant avec des probabilités ou des périodes
de retour données.
La conception du filtre numérique peut aussi être à l’origine d’effets inattendus ou indésirables.
L’examen de la figure 2.6 révèle que la fonction de réponse du filtre rectangulaire passe par
une série de maxima à des fréquences au‑dessus desquelles elle devient nulle, ce qui, à ces
fréquences, confère une petite périodicité aux données filtrées. Dans le cas considéré, l’effet
sera minime parce que les maxima sont faibles, mais certains types de filtre peuvent engendrer
des maxima très importants. De manière empirique, le problème est d’autant plus grand que
le nombre des coefficients de pondération est petit. On a parfois attribué aux données des
périodicités qu’elles ne possédaient que parce qu’elles avaient été filtrées.
CHAPITRE 2. ÉCHANTILLONNAGE DES VARIABLES MÉTÉOROLOGIQUES 1221
Une question liée à la conception des filtres est la longueur de l’échantillon. Si le relevé s’étend
sur une période T, aucune contribution à la variabilité des données n’est possible aux fréquences
inférieures à 1/T. On peut démontrer que la longueur finie du relevé exerce l’effet d’un filtre
passe‑haut. Comme les filtres passe‑bas étudiés précédemment, un filtre passe‑haut influe sur la
signification statistique des données de sortie.
Il faut connaître les caractéristiques de filtrage d’un capteur, d’un circuit électronique ou de
l’ensemble qu’ils forment pour déterminer la fréquence d’échantillonnage convenant à la série
chronologique produite par le système. La démarche consiste à mesurer la fonction de transfert
ou de réponse H(n) dans l’équation 2.8.
La fonction de transfert s’obtient d’au moins trois façons: la mesure directe, le calcul et
l’estimation.
La réponse peut se mesurer directement par au moins deux méthodes. Première méthode:
appliquer un changement connu, d’un échelon par exemple, au capteur ou au filtre et mesurer
leur réponse temporelle; il est dès lors possible de calculer H(n). Deuxième méthode: comparer la
sortie du capteur à celle d’un autre beaucoup plus rapide. La première méthode est plus utilisée
que la seconde.
Si l’on dispose d’un autre capteur qui réagit bien plus rapidement que celui dont on veut
déterminer la réponse, on peut mesurer et comparer les entrées et sorties des deux instruments
de manière à obtenir une bonne approximation. L’outil le plus commode à cette fin est sans
doute un analyseur de spectre numérique moderne à deux canaux. On envoie dans l’un des
canaux la sortie du capteur rapide, dans l’autre celle du capteur plus lent, et la fonction de
transfert s’affiche automatiquement. Cette dernière décrit directement l’action du capteur en
tant que filtre. Si le dispositif dont on veut étudier la réponse est un circuit électronique, il est
plus facile de produire un signal d’entrée connu ou même véritablement aléatoire que de trouver
un capteur bien plus rapide. Là encore, un analyseur de spectre numérique moderne à deux
canaux est probablement l’outil le plus commode, mais d’autres instruments de vérification
électroniques sont aussi utilisables.
Il s’agit de la démarche exposée dans la section 2.2.3. Dès lors qu’on en sait suffisamment sur
la physique d’un capteur et/ou d’un filtre, on peut en déterminer soit analytiquement, soit
numériquement la réponse à une large gamme d’entrées. Il est possible de calculer et la réponse
à des entrées spécifiques, telles qu’une variation d’un échelon, et la fonction de transfert. Si
le capteur ou le circuit est linéaire (décrit par une équation différentielle linéaire), la fonction
de transfert fournit tous les renseignements nécessaires car elle rend compte des réponses en
amplitude et en phase en tant que fonction de la fréquence, autrement dit en tant que filtre. Il
n’est pas toujours pratique de considérer la réponse comme une fonction de la fréquence, mais la
fonction de transfert a son équivalent en transformée de Fourier: la réponse impulsionnelle, qui
rend l’interprétation de la réponse comme fonction de temps plus aisée. Celle‑ci est illustrée par
les figures 2.3 et 2.4.
1222 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Quand elles sont possibles, les solutions analytiques sont préférables parce qu’elles révèlent
nettement la dépendance à l’égard des différents paramètres.
Lorsqu’on connaît la fonction de réponse d’un transducteur et de tous les circuits en aval, leur
produit est la fonction de transfert du système tout entier. Si, comme c’est généralement le cas,
les fonctions de transfert sont des filtres passe‑bas, leur cumul constitue un filtre passe‑bas dont
la fréquence de coupure est inférieure à celle de n’importe lequel des filtres pris isolément.
Si l’une des fréquences de coupure prise isolément est très inférieure à n’importe laquelle des
autres, celle de l’ensemble n’est que légèrement moindre.
2.4 ÉCHANTILLONNAGE
Il convient de noter que c’est un filtre passe‑bas qui assure le lissage opéré pour des raisons
techniques durant la phase de traitement du signal, en vue d’éliminer les pointes et de stabiliser
l’électronique; il réduit le temps de réponse du capteur et supprime des hautes fréquences qui
pourraient présenter de l’intérêt. Il faudrait donc que le concepteur et l’usager soient bien avertis
de ses effets et que sa fréquence de coupure soit la plus élevée possible.
Des capteurs dits «intelligents», car ils sont couplés à un microprocesseur, peuvent effectuer
eux‑mêmes toutes les opérations susmentionnées. Le circuit de conditionnement du signal
est parfois combiné avec d’autres circuits et tous les capteurs n’en sont pas munis. S’agissant
d’instruments comme les anémomètres à coupelles ou à pales, il est parfois commode de
ne parler que d’un capteur parce qu’il s’avère malaisé de distinguer le transducteur. Dans
les rares cas où la sortie du transducteur ou du capteur est un signal dont la fréquence varie
avec la variable atmosphérique mesurée, l’échantillonneur‑bloqueur et le convertisseur
analogique‑numérique peuvent être remplacés par un compteur. Mais ce sont là des détails
secondaires. L’important dans la conception du système est de garantir que la séquence
d’échantillons représente convenablement les modifications significatives de la variable
atmosphérique mesurée.
La première condition à laquelle doivent satisfaire les systèmes schématisés dans la figure 2.8
est que le capteur réagisse assez rapidement pour suivre les fluctuations atmosphériques dont
l’observation doit rendre compte. Cette exigence est peu contraignante pour obtenir une valeur
moyenne sur 1, 2 ou 10 minutes; il faut par contre choisir le capteur avec le plus grand soin
lorsqu’il s’agit d’un aspect de la turbulence tel que la vitesse de pointe des rafales.
CHAPITRE 2. ÉCHANTILLONNAGE DES VARIABLES MÉTÉOROLOGIQUES 1223
Lorsque la fonction de réponse du capteur est appropriée, on peut se passer du filtre passe‑bas,
le prévoir uniquement à titre de précaution, ou encore l’inclure dans le système parce qu’il
améliore la qualité du signal parvenant à l’échantillonneur‑bloqueur. On s’en servira notamment
en vue de supprimer le captage de bruit au bout d’un long câble ou d’accentuer le lissage de la
sortie du capteur. Ce circuit doit évidemment réagir lui aussi assez vite pour suivre les fluctuations
atmosphériques qu’on veut mesurer.
La pratique habituelle pour les observations courantes consiste à faire une lecture ponctuelle
du capteur (un thermomètre, par exemple) en escomptant que la constante de temps de
l’instrument garantira une période d’échantillonnage à peu près convenable. Cela revient à se
Atmosphère
CAPTEUR/TRANSDUCTEUR
FILTRE PASSE-BAS
ÉCHANTILLONNEUR-SÉLECTEUR
HORLOGE
CONVERTISSEUR ANALOGIQUE-NUMÉRIQUE
PROCESSEUR
Observation
servir d’un filtre exponentiel (figure 2.6). Les stations météorologiques automatiques sont en
principe dotées de capteurs plus rapides et il faut collecter et traiter plusieurs lectures ponctuelles
pour obtenir une moyenne ordinaire (filtre rectangulaire) ou dûment pondérée.
Il a été recommandé de respecter les règles ci‑après en ce qui regarde les cadences
d’échantillonnage1:
a) Les échantillons prélevés pour calculer les moyennes devraient être recueillis à des
intervalles réguliers qui:
ii) ne soient pas supérieurs à la constante de temps d’un filtre analogique passe‑bas placé
après la sortie d’un capteur à réponse linéaire rapide; ou
iii) soient suffisamment nombreux pour que l’incertitude entachant leur moyenne soit
ramenée à un niveau acceptable, par exemple plus petit que celui correspondant à
l’exactitude requise pour la moyenne de la variable;
b) Les échantillons destinés à l’estimation de fluctuations extrêmes, les rafales de vent par
exemple, devraient être prélevés à des intervalles au moins quatre fois plus fréquents que
ceux prévus aux alinéas i) ou ii) ci‑dessus.
Pour l’obtention des moyennes, il est souvent préconisé de recourir à des fréquences
d’échantillonnage plus denses que celles indiquées en i) et ii) ci‑dessus, par exemple deux fois
par constante de temps.
Les critères i) et ii) sont utilisés pour l’échantillonnage automatique. Le critère statistique iii)
s’applique mieux aux cadences d’échantillonnage beaucoup plus faibles des observations
manuelles. L’incertitude de la moyenne est inversement proportionnelle à la racine carrée du
nombre d’observations et on peut la déterminer à partir des caractéristiques statistiques de la
grandeur mesurée.
Le critère b) met en évidence le fait que la mesure des rafales requiert des fréquences
d’échantillonnage élevées ou, plus précisément, des constantes de temps courtes. La réponse de
l’instrument lisse les rafales enregistrées et la valeur maximale de ces dernières sera moyennée
sur une période excédant de plusieurs fois la constante de temps.
Une manière très simple de se rendre compte des effets de repliement du spectre sur les
estimations de la moyenne consiste à considérer ce qui se passe quand la fréquence de l’onde
mesurée est identique à la fréquence d’échantillonnage ou un multiple de celle‑ci. La moyenne
déduite dépend alors de la répartition des échantillons dans le temps: un échantillon prélevé à
heure fixe une fois par jour ne donnera pas une bonne estimation de la température mensuelle
moyenne.
Pour illustrer l’importance des repliements dans une situation un peu plus complexe, prenons
une série chronologique d’observations de la température exécutées à des intervalles de 3 heures
avec un thermomètre ordinaire. Si la température évolue progressivement, comme elle le fait
généralement, la moyenne journalière calculée à partir de huit échantillons présente une stabilité
acceptable. En revanche, si un phénomène de moyenne échelle (un orage) a refroidi fortement
l’atmosphère pendant 30 minutes, la moyenne ainsi calculée est fausse. La fiabilité des moyennes
1
Recommandation 3 (CIMO‑X), adoptée par la Commission des instruments et des méthodes d’observation à sa
dixième session (1989).
CHAPITRE 2. ÉCHANTILLONNAGE DES VARIABLES MÉTÉOROLOGIQUES 1225
L’expression «plus haute fréquence d’amplitude significative» est vague. En donner une définition
précise est difficile parce que les signaux ne sont jamais véritablement limités en largeur de
bande. Il n’est en revanche pas difficile de faire en sorte que l’amplitude des fluctuations du
signal décroisse rapidement avec l’augmentation de la fréquence et que l’amplitude quadratique
moyenne des fluctuations au‑dessus d’une fréquence donnée reste petite comparativement soit
au bruit de quantification du convertisseur analogique‑numérique, soit à une erreur ou un niveau
de bruit acceptables dans les échantillons, ou encore fournisse une contribution négligeable à la
somme des erreurs ou des bruits entachant l’observation.
Nous avons examiné à la section 2.3 les caractéristiques que devaient avoir les capteurs et
les circuits et les ajustements qu’il était possible de leur apporter afin que l’amplitude des
fluctuations du signal diminue rapidement avec l’augmentation de la fréquence. Du fait qu’ils
ne peuvent pas répondre aux fluctuations rapides de l’atmosphère (haute fréquence) mais
reflètent fidèlement ses modifications lentes (basse fréquence), la plupart des transducteurs sont
également des filtres passe‑bas. Par définition, ces filtres limitent la largeur de bande et, en vertu
du théorème de Nyquist, limitent aussi la cadence d’échantillonnage nécessaire pour reproduire
fidèlement leurs sorties. Si par exemple l’atmosphère subit des variations réelles dont les périodes
descendent jusqu’à 100 ms, ce théorème voudrait que la fréquence d’échantillonnage atteigne
un échantillon par 50 ms, ce qui est techniquement coûteux. Si, par ailleurs, ces variations sont
vues au travers d’un capteur et d’un filtre répondant beaucoup plus lentement, par exemple avec
une constante de temps de 10 s, la cadence d’échantillonnage de Nyquist tombe à un échantillon
par 5 s, ce qui est bien plus facile, moins coûteux et préférable lorsqu’il n’est pas indispensable de
mesurer les hautes fréquences.
L’efficacité de bon nombre des techniques de contrôle qualitatif utilisées dans les stations
météorologiques automatiques repose sur la cohérence temporelle, ou persistance, des
données. Imaginons par exemple deux algorithmes de contrôle de qualité des mesures
barométriques transmises par des stations automatiques. Les échantillons sont prélevés toutes
les 10 s, des moyennes sur 60 s sont calculées toutes les minutes et l’on suppose que la pression
atmosphérique change rarement, voire jamais, de plus de 1 hPa par minute.
Le second algorithme rejette tout échantillon qui diffère de plus de 1 hPa du précédent. La
moyenne en ce cas ne contient pas d’erreur supérieure à environ 0,16 (1/6) hPa. De plus, si
l’hypothèse est vraie que la pression atmosphérique change rarement de plus de 1 hPa par
minute, on peut ramener à 0,16 hPa le seuil d’acceptation/de rejet d’échantillons contigus et
restreindre ainsi encore plus l’erreur affectant la moyenne.
L’enseignement à tirer de cet exemple est que les procédures de contrôle de la qualité fondées
sur la consistance temporelle (corrélation) des données sont d’autant plus efficaces que la
résolution temporelle (cadence d’échantillonnage) de ces dernières est forte. À l’extrémité haute
1226 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Aucun argument n’a jusqu’ici été avancé qui dissuaderait d’utiliser un capteur/filtre dont la
constante de temps serait aussi longue que la période d’établissement de la moyenne requise
pour l’observation et de cantonner cette dernière à un seul échantillon. Agir ainsi imposerait
certes une charge minimale au sous‑système numérique mais irait à l’encontre du contrôle
qualitatif des données. Les observations peuvent en effet se répartir en trois catégories, comme
suit:
Le contrôle de qualité vise à réduire le nombre à la fois des observations inexactes et des
observations manquantes. Il faut pour cela calculer chaque observation à partir d’un nombre
suffisamment grand d’échantillons de qualité contrôlée. On peut ainsi isoler et éliminer les graves
erreurs apparentes et poursuivre le calcul sans qu’il soit contaminé par l’échantillon douteux.
RÉFÉRENCES ET AUTRES LECTURES
Acheson, D.T., 1968: An approximation to arithmetic averaging for meteorological variables. Journal of
Applied Meteorology, 7:548–553.
Bendat, J.S. et A.G. Piersol, 1986: Random Data: Analysis and Measurement Procedures. Deuxième édition,
John Wiley and Sons, New York.
Blackman, R.B. et J.W. Tukey, 1958: The Measurement of Power Spectra. Dover Publications, New York.
Jenkins, G.M. et D.G. Watts, 1968: Spectral Analysis and its Applications. Holden‑Day, San Francisco.
Kulhánek, O., 1976: Introduction to Digital Filtering in Geophysics. Elsevier, Amsterdam.
MacCready, P.B. et H.R. Jex, 1964: Response characteristics and meteorological utilization of propeller and
vane wind sensors. Journal of Applied Meteorology, 3(2):182–193.
Otnes, R.K. et L. Enochson, 1978: Applied Time Series Analysis. Volume 1: Basic techniques. John Wiley and Sons,
New York.
Pasquill, F. et F.B. Smith, 1983: Atmospheric Diffusion. Ellis Horwood, Chichester.
Stearns, S.D. et D.R. Hush, 1990: Digital Signal Analysis. Prentice Hall, New Jersey.
TABLE DES MATIÈRES DU CHAPITRE
Page
3.1 GÉNÉRALITÉS
Le présent chapitre étudie dans leurs grandes lignes les procédures de traitement et/ou
de conversion s’appliquant aux données directement fournies par les instruments pour les
transformer en des informations utiles pour les utilisateurs de données météorologiques, en
particulier pour les besoins des échanges entre pays. La réduction des données faisant l’objet
d’un échange international est régie par les règles officielles établies par l’OMM (OMM, 2010c),
et l’on trouvera quelques conseils et définitions utiles au chapitre 1 de la partie I du présent
guide.
3.1.1 Définitions
Lorsqu’il est question des instruments qui servent à mesurer les variables atmosphériques, il
est utile de s’appuyer sur une classification par niveau de données. Cette classification a été
introduite dans le cadre du système de traitement des données relevant du Programme de
recherches sur l’atmosphère globale et est définie dans les publications de l’OMM (2010b,
2010c).
En général, les données de niveau I sont des relevés d’instruments exprimés en unités physiques,
et sont associées à des coordonnées géographiques. Il faut les convertir pour obtenir les valeurs
des variables météorologiques usuelles (voir le chapitre 1 de la partie I). Souvent les données du
niveau I sont elles‑mêmes obtenues par traitement de signaux électriques, tels que des tensions,
que l’on qualifie de données brutes. Il peut s’agir par exemple des valeurs de la luminance
énergétique obtenues par satellite ou de celles de tensions de vapeur d’eau.
Les données qualifiées de variables météorologiques sont, elles, de niveau II. Elles peuvent être
issues directement des instruments (notamment de divers instruments basiques) ou déduites des
données du niveau I. À titre d’exemple, un capteur ne mesure pas la visibilité, qui est de niveau II,
mais plutôt le coefficient d’extinction, qui est de niveau I.
Les données de niveau III sont celles constituées des séries de données cohérentes exprimées
généralement sous forme de points de grille. Elles ne seront pas évoquées dans ce guide.
Les stations d’observation du monde entier produisent de façon régulière et fréquente des
observations sous des formats normalisés, ce qui permet l’échange d’informations de qualité
élevée obtenues par des techniques d’observation uniformisées, et ce malgré les différents types
de capteurs pouvant être utilisés dans le monde, voire même au sein du pays lui‑même. Ce
résultat est le fruit d’un travail considérable ayant nécessité d’énormes ressources consacrées,
durant de nombreuses années, à la normalisation du contenu, de la qualité et du format
des données. L’automatisation de l’observation de l’atmosphère allant en augmentant, il est
important de continuer ce travail de normalisation et d’établir des normes complémentaires pour
convertir les données brutes en données de niveau I, ou les données brutes et de niveau I en
données de niveau II.
Le rôle des transducteurs est de convertir la mesure d’une variable atmosphérique en un signal
quantitatif approprié. Ils peuvent cependant être sensibles au milieu dans lequel ils sont utilisés,
1230 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
ce qui nécessite par exemple une variation de l’étalonnage suivant la température d’utilisation.
De plus, les valeurs qu’ils fournissent comportent diverses erreurs dues notamment à des
phénomènes comme les dérives et les bruits. Une fois qu’un système d’acquisition de données a
exécuté l’échantillonnage qui convient, il y a lieu de réduire le signal de sortie et de le linéariser
en fonction de l’étalonnage de l’ensemble du système, puis de le filtrer ou de calculer une
moyenne. À ce stade, voire même avant celui‑ci, le signal devient une donnée brute. Il faut alors
convertir la donnée en valeur de la grandeur physique que mesure le capteur, soit une donnée
de niveau I, voire une donnée de niveau II lorsqu’elle ne nécessite plus aucune conversion. Dans
certains cas des traitements supplémentaires sont réalisés. À différentes étapes du processus, les
données peuvent être affectées d’une correction pour éliminer les effets externes, tels ceux dus à
l’exposition du capteur; elles peuvent aussi faire l’objet d’un contrôle de la qualité.
Les données provenant des stations météorologiques classiques ou automatiques subissent ainsi
de nombreux traitements avant que l’on puisse les utiliser. L’ensemble du processus s’appelle
la réduction des données. Il consiste en l’exécution de plusieurs fonctions comprenant tout ou
partie des opérations suivantes:
Ces fonctions sont citées dans un ordre séquentiel approximatif. Naturellement, la première
et la dernière devraient dans tous les cas demeurer dans ces positions. La linéarisation peut
être assurée à la sortie de l’appareil ou exécutée par le transducteur, mais elle doit précéder
l’extraction d’une moyenne. Le contrôle de la qualité et l’application de corrections peuvent
intervenir à différents stades du processus de réduction des données. Suivant les applications,
les stations peuvent fonctionner à capacité réduite, sans intégrer par conséquent toutes ces
fonctions.
Les fonctions du processus de réduction des données qui importent dans le contexte du présent
guide sont le choix de procédures d’échantillonnage appropriées, l’application de corrections
d’étalonnage, la linéarisation le cas échéant, le filtrage et/ou le calcul de moyennes, la dérivation
de variables connexes, l’application de corrections, le contrôle de la qualité et la collecte des
métadonnées. Elles constituent le sujet du présent chapitre. Des détails plus explicites sur la
gestion de la qualité sont fournis dans le chapitre 1 de la partie IV et sur l’échantillonnage, le
filtrage et le calcul de moyennes dans le chapitre 2 de la partie IV.
CHAPITRE 3. RÉDUCTION DES DONNÉES 1231
Une fois réduites pour les mettre à la disposition des utilisateurs, il faut coder les données,
les transmettre et les recevoir, les afficher sur écran et aussi les archiver. Ces opérations sont
examinées dans d’autres manuels et guides de l’OMM. Un système d’observation n’est complet
que lorsqu’il est relié à d’autres systèmes qui acheminent les données jusqu’aux utilisateurs.
Dans cet enchaînement de systèmes, la qualité des données est déterminée par le maillon le plus
faible. Il convient donc d’exécuter un contrôle de la qualité à chaque étape.
Dans leur majeure partie, la technologie actuelle et les techniques manuelles normalisées pour
la réduction des données peuvent être adaptées aux stations météorologiques automatiques,
auxquelles s’appliquent cependant des exigences particulières. Les stations météorologiques
automatiques effectuent des mesures à l’aide de différents capteurs, y appliquent des calculs
normalisés pour dériver les éléments des messages et mettent également en forme ces messages.
Selon les types de capteurs, il peut s’avérer difficile de mettre au point une interface avec le
matériel automatique. Il faut alors redéfinir les expressions analytiques que renferment les tables
de calcul ou encore en découvrir de nouvelles. Il faut aussi transcrire les règles de chiffrage des
messages en langage informatique comprenant divers degrés d’exactitude, de complétude et
de cohérence que n’exigent pas les instructions en langage naturel s’adressant aux observateurs.
En outre, l’automatisation de certaines mesures, telles que l’identification des types de nuages,
apparaît impossible dans un avenir prévisible.
Le chapitre 1 de la partie II du présent guide propose une description des logiciels d’acquisition
et de traitement des données qu’utilisent les stations météorologiques automatiques qui est
à la fois relativement précise et suffisamment générale pour pouvoir se rapporter à l’ensemble
des applications des transducteurs électriques en météorologie. Quelques principes généraux
ainsi que des exemples précis relatifs à l’élaboration d’algorithmes destinés aux stations
météorologiques automatiques synoptiques sont présentés dans OMM (1987).
Pour le traitement des données météorologiques, il existe en général une bonne procédure ou
méthode ou un bon algorithme, mais il peut y avoir de nombreuses approximations plus ou
moins utiles. La pratique tend à prouver que la bonne méthode est celle qui donne les meilleurs
résultats à long terme. C’est une méthode directe, comportant peu de restrictions et qui, une
fois mise en œuvre, ne nécessite plus aucune attention. Dans les paragraphes qui suivent, on se
limitera donc surtout à examiner la seule bonne méthode, à condition que le problème étudié
admette des solutions exactes.
3.2 ÉCHANTILLONNAGE
La question de l’échantillonnage est examinée en détail dans le chapitre 2 de la partie IV. Voici un
résumé des points principaux.
L’une des questions importantes à régler dans la conception des appareils touche la fréquence
d’échantillonnage du signal de sortie du transducteur. À cette question, on peut apporter
la réponse suivante: une fréquence régulière, égale au moins au double de la fréquence de
coupure du signal de sortie du transducteur. Toutefois, il suffit habituellement d’appliquer une
règle équivalente plus simple: la période d’échantillonnage ne devrait pas dépasser la plus
grande des constantes de temps de tous les composants et circuits intervenant avant le système
d’acquisition. Lorsque la fréquence d’échantillonnage est inférieure au double de la fréquence
1232 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
de coupure, des erreurs inutiles se produisent dans la variance des données et dans toutes
les grandeurs et valeurs statistiques dérivées. Dans certains cas, une telle augmentation de la
variance peut être acceptable, mais pas toujours. Un bon échantillonnage doit toujours assurer
une variance minimale.
Pour qu’un transducteur soit bien conçu, il peut falloir l’équiper d’un filtre passe‑bas et le
doter d’une constante de temps à peu près égale à la période d’échantillonnage du système
d’acquisition de données. À titre de précaution, il convient aussi de réduire au minimum les effets
des bruits, en particulier ceux correspondant à la fréquence du réseau électrique, à savoir 50 ou
60 Hz, qui proviennent des câbles de raccordement entre les capteurs et les processeurs ainsi que
des pertes à l’alimentation.
Les règles de l’OMM (OMM, 2010c) disposent que les stations sont équipées d’instruments
convenablement étalonnés, utilisant des méthodes d’observation et de mesure adéquates, de
manière que l’exactitude des mesures et observations satisfasse les exigences de la météorologie.
Pour convertir les données brutes en variables météorologiques, il faut y appliquer des fonctions
d’étalonnage. Pour obtenir des mesures dont l’exactitude corresponde aux exigences établies,
il est essentiel d’y appliquer comme il convient les fonctions d’étalonnage et toutes autres
corrections systématiques.
Il est indispensable qu’un expert étalonne régulièrement les instruments de terrain et apporte les
révisions correspondantes aux fonctions d’étalonnage. Il ne suffit donc pas d’utiliser les données
d’étalonnage fournies avec le matériel prévu à cet effet. Tout d’abord, il est souvent impossible de
raccorder les étalons utilisés par le fabricant à un étalon national et, de toute façon, il y a lieu de
prévoir que l’étalonnage de l’instrument subira des changements durant le transport, le stockage
et l’exploitation. Il convient d’enregistrer les modifications d’étalonnage dans les fichiers de
métadonnées de la station.
3.4 LINÉARISATION
a) Une non‑linéarité intrinsèque. Les signaux de sortie de nombreux transducteurs ne sont pas
proportionnels à la variable atmosphérique mesurée. Une thermistance en est un exemple
simple;
CHAPITRE 3. RÉDUCTION DES DONNÉES 1233
c) Une non‑linéarité associée à la conversion des données de niveau I en données de niveau II.
À titre d’exemple, pour établir des estimations de la visibilité moyenne, le calcul s’effectue à
partir du coefficient d’atténuation et non pas de la visibilité ni du facteur de transmission.
Dans le premier de ces cas, la fonction d’étalonnage utilisée est souvent un polynôme. Il est alors
fortement souhaitable de disposer de capteurs normalisés auxquels s’appliquent des coefficients
d’étalonnage uniformes afin d’éviter les problèmes que soulève le remplacement des capteurs sur
le terrain. Dans les deux autres cas, il s’agit le plus souvent d’une fonction analytique qui décrit le
fonctionnement du transducteur en fonction des conditions.
On utilise en général deux types de lissage ou de calcul d’une moyenne, l’un arithmétique,
l’autre exponentiel. La moyenne arithmétique est conforme à la notion normale de moyenne
et facilement appliquée aux instruments numériques: c’est le cas du filtre d’impulsions longues
(«box car») décrit dans le chapitre 2 de la présente partie. La moyenne exponentielle correspond
au signal de sortie du filtre passe‑bas le plus simple, qui représente la réponse la plus simple
d’un capteur aux fluctuations de l’atmosphère. Elle est plus facile à appliquer dans un circuit
analogique que la moyenne arithmétique. Lorsque la constante de temps d’un filtre simple
correspond approximativement à la moitié de la période d’échantillonnage utilisée pour le calcul
d’une moyenne, il est alors impossible dans la pratique d’établir une distinction entre les valeurs
qui ont subi un lissage arithmétique et celles ayant subi un lissage exponentiel (voir le chapitre 2
de la présente partie et Acheson, 1968).
Dans le cas des capteurs à réponse rapide, les signaux de sortie variant rapidement, les
fréquences d’échantillonnage doivent être élevées pour que l’on puisse obtenir des moyennes
optimales (comportant une incertitude minimale). Pour réduire la fréquence d’échantillonnage
tout en conservant une moyenne numérique optimale, il serait possible de linéariser le signal
de sortie du transducteur (s’il y a lieu), d’y appliquer un lissage exponentiel à l’aide d’un circuit
analogique de constante de temps tc puis d’exécuter un échantillonnage numérique à intervalles
de temps tc.
De nombreux autres types de filtres complexes, élaborés à partir de calculs numériques, ont été
utilisés pour les besoins d’applications spéciales.
1234 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Le calcul d’une moyenne appliqué à des variables non linéaires entraîne des problèmes lorsque
les variables varient durant la période de calcul. Il importe donc de bien choisir la variable linéaire
qui servira au calcul de la moyenne. Le tableau de la section 3.6 fournit quelques exemples précis
d’éléments d’une observation synoptique dont les relevés sont des moyennes, ainsi que les
variables linéaires correspondantes qu’il convient d’utiliser pour le calcul de ces moyennes.
Outre les moyennes, il faut aussi déterminer des valeurs extrêmes et d’autres variables
représentatives de périodes bien définies, en fonction de l’objectif des observations. Les mesures
de rafales de vent par exemple nécessitent une fréquence d’échantillonnage particulièrement
élevée.
D’autres variables peuvent être aussi calculées à partir de ces moyennes, telles que la pression
moyenne au niveau de la mer, la visibilité et le point de rosée. Dans les stations manuelles
conventionnelles, on utilise des tables de conversion. Normalement les stations météorologiques
automatiques intègrent ces tables ainsi que des programmes d’interpolation ou les formules de
base ou des approximations de ces formules. Le lecteur se reportera aux divers chapitres de la
partie I quant aux différentes pratiques de conversion des données et au chapitre 1 de la partie II
pour les stations météorologiques automatiques.
Grandeur moyennée
Grandeur calculée
utilisée
Vitesse et direction du Composantes
vent cartésiennes
3.7 CORRECTIONS
La gestion de la qualité est traitée dans le chapitre 1 de la partie IV. Les exigences officielles sont
précisées dans OMM (2010c) et les procédures générales sont décrites dans OMM (2010a).
CHAPITRE 3. RÉDUCTION DES DONNÉES 1235
Il convient de contrôler la qualité des données à chacune des étapes de la conversion du signal de
sortie brut du capteur en une variable météorologique. Cela comprend les traitements impliqués
dans l’acquisition des données et ceux de réduction en données de niveau II.
Au moment de l’acquisition des données, on devrait s’attacher à éliminer non seulement des
erreurs de mesure systématiques ou aléatoires, comme celles issues d’un écart par rapport aux
normes techniques, celles dues à une mauvaise mise en place des instruments ou même les
erreurs subjectives commises par les observateurs.
Les métadonnées font l’objet d’un examen dans le chapitre 1 de la partie I, dans le chapitre 1
de la partie IV et dans d’autres chapitres relatifs aux différentes grandeurs météorologiques. Les
métadonnées doivent être conservées pour les raisons qui suivent:
a) Les données originales peuvent ainsi être retraitées, si nécessaire (par exemple en y
appliquant un filtrage ou des corrections qui soient différents);
b) L’utilisateur peut ainsi facilement connaître la qualité des données et les conditions dans
lesquelles elles ont été obtenues (emplacement de l’instrument par exemple);
c) Des utilisateurs éventuels peuvent ainsi être informés de l’existence de certaines données.
Il y a lieu par conséquent d’enregistrer toutes les procédures utilisées, à tous les stades de
réduction des données décrits ci‑dessus, et ce pour chaque type de données, mais aussi pour
chaque type de station et d’observation.
RÉFÉRENCES ET AUTRES LECTURES
Acheson, D.T., 1968: An approximation to arithmetic averaging for meteorological variables. Journal of
Applied Meteorology, 7(4):548–553.
Organisation météorologique mondiale, 1987: Some General Considerations and Specific Examples in the Design
of Algorithms for Synoptic Automatic Weather Stations (D.T. Acheson). Instruments and Observing
Methods Report No. 19 (WMO/TD‑No. 230), Genève.
———, 2010a: Guide du Système mondial d’observation (OMM‑N° 488), Genève.
———, 2010b: Manuel du Système mondial de traitement des données et de prévision (OMM‑N° 485), Volume I,
Genève.
———, 2010c: Manuel du Système mondial d’observation (OMM‑N° 544), Volume I, Genève.
TABLE DES MATIÈRES DU CHAPITRE
Page
4.1 GÉNÉRALITÉS
L’un des buts de l’OMM, énoncé dans l’article 2, alinéa c), de la Convention de l’Organisation,
est d’«encourager la normalisation des observations météorologiques et connexes et assurer la
publication uniforme d’observations et de statistiques». C’est dans cette perspective qu’ont été
créés des ensembles de protocoles standard et de pratiques recommandées, dont on trouvera
l’essentiel dans le présent guide.
Il existe des normes et des directives nationales et internationales pour de nombreux aspects des
essais et des évaluations, qu’il convient de respecter le cas échéant. Certaines de ces normes et
directives sont citées dans le présent chapitre.
4.1.1 Définitions
Les termes de métrologie sont définis dans le Vocabulaire international de métrologie – Concepts
fondamentaux et généraux et termes associés (VIM) par le Comité commun pour les guides en
métrologie (JCGM) (JCGM, 2012). Nombre de ces définitions sont présentées dans le chapitre 1
de la partie I du présent guide et certaines sont reprises ici par souci de commodité. Les
définitions en question, qui ne sont pas d’un emploi universel, diffèrent par certains égards
à la terminologie couramment employée dans la pratique météorologique. Il est cependant
recommandé d’utiliser, en météorologie, les définitions du JCGM. Le document cité du JCGM est
produit conjointement par le Bureau international des poids et mesures (BIPM), la Commission
électrotechnique internationale (CEI), la Fédération internationale de chimie clinique et de
médecine de laboratoire (IFCC), la Coopération internationale sur l'agrément des laboratoires
d'essais (ILAC), l'Organisation internationale de normalisation (ISO), l'Union internationale de
chimie pure et appliquée (UICPA), l'Union internationale de physique pure et appliquée (UIPPA)
et l'Organisation internationale de métrologie légale (OIML).
1
Recommandation 19 (CIMO‑IX), adoptée par la Commission des instruments et des méthodes d’observation
(CIMO) à sa neuvième session (1985).
2
Recommandation 1 (CMOM‑III), adoptée par la CMOM à sa troisième session (2009).
CHAPITRE 4. ESSAIS, ÉTALONNAGE ET COMPARAISONS 1239
Exactitude (de mesure). Terme qualitatif désignant l’étroitesse de l’accord entre une valeur mesurée
et une valeur vraie d’un mesurande. L'exactitude de mesure est quelquefois interprétée comme
l'étroitesse de l'accord entre les valeurs mesurées qui sont attribuées au mesurande. On peut
parler d’un instrument ou d’une mesure d’une grande exactitude, mais la mesure quantitative de
l’exactitude s’exprime en incertitude.
Incertitude (de mesure). Paramètre non négatif qui caractérise la dispersion des valeurs attribuées à
un mesurande, à partir des informations utilisées.
Erreur (de mesure). Différence entre la valeur mesurée d'une grandeur et une valeur de référence
(un écart étant de signe opposé). Elle est constituée d’erreurs aléatoires et systématiques (on
emploie couramment le terme «biais» pour désigner une erreur systématique).
Répétabilité (de mesure). Étroitesse de l'accord entre les indications ou les valeurs mesurées
obtenues du même objet ou d'objets similaires dans un ensemble de conditions qui
comprennent la même procédure de mesure, les mêmes opérateurs, le même système de
mesure, les mêmes conditions de fonctionnement et le même lieu, ainsi que des mesurages
répétés sur le même objet ou des objets similaires pendant une courte période de temps.
Reproductibilité (de mesure). Étroitesse de l'accord entre les indications ou les valeurs mesurées
obtenues du même objet ou d'objets similaires dans un ensemble de conditions qui
comprennent des lieux, des opérateurs et des systèmes de mesure différents, ainsi que des
mesurages répétés.
Avant d’utiliser les mesures atmosphériques effectuées au moyen d’un capteur météorologique
donné, il convient de répondre à plusieurs questions:
b) Quelle est la variabilité des mesures dans un réseau intégrant de tels capteurs ou systèmes?
c) Quelle sera la variation ou l’erreur systématique des données produites par le capteur ou le
système considéré si l’on en modifie l’emplacement géographique?
Pour répondre à ces questions et garantir la validité et la pertinence des mesures produites par
un capteur ou un système météorologique, il convient de procéder à un ensemble d’étalonnages,
d’essais en laboratoire et d’essais de fonctionnement.
Les programmes d’étalonnage et d’essais devraient être réalisés et normalisés selon la variabilité
climatique attendue et selon les perturbations environnementales et électromagnétiques
que sont censés subir les capteurs ou systèmes considérés. Les facteurs à envisager sont par
exemple les plages attendues de température, d’humidité et de vitesse du vent, le fait que le
capteur ou système fonctionne ou non dans un milieu marin ou dans un milieu caractérisé par
le soulèvement de poussière ou de sable, la variation attendue de la tension et de la phase, les
transitoires électriques des signaux et du secteur et les parasites électromagnétiques moyens et
maximaux attendus. Les Services météorologiques peuvent acheter des services d’étalonnage et
d’essais à des laboratoires et entreprises privés ou créer des organismes d’essai chargés d’assurer
de tels services.
Il est important de soumettre au moins deux capteurs ou systèmes semblables à l’ensemble des
essais d’un programme d’essais donné. Il sera ainsi possible de déterminer la variabilité attendue
des capteurs ou des systèmes et de déceler les problèmes plus facilement.
1240 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
4.2 ESSAIS
Les essais de capteurs et de systèmes ont pour objet d’obtenir des renseignements sur leurs
performances dans des conditions définies d’utilisation. En général, les constructeurs testent
leurs capteurs et leurs systèmes. Dans certains cas, ils en publient les caractéristiques de
fonctionnement en se fondant sur les résultats de leurs essais. Cependant, il est très important
que les Services météorologiques utilisateurs créent et mettent en œuvre leur propre programme
d’essais ou fassent appel à un service d’essai indépendant.
En général, un programme d’essais a pour but de vérifier si les spécifications d’un capteur ou
d’un système en matière de performances, d’entretien et de temps moyen entre pannes sont
respectées dans toutes les conditions prévues de fonctionnement, de stockage et de transport.
Il existe aussi des programmes d’essais sur la variabilité pouvant être attendue d’un réseau de
capteurs semblables, sur leur reproductibilité fonctionnelle et sur la comparabilité des mesures
entre divers capteurs ou systèmes.
Même lorsqu’un capteur ou un système est livré accompagné d’un rapport d’étalonnage,
il convient de le soumettre à des essais d’environnement ainsi qu’à un éventuel étalonnage
supplémentaire. On peut prendre comme exemple les systèmes actuels de mesure de la
température, dont la sonde est souvent un thermomètre à résistance. En général, plusieurs de
ces thermomètres sont étalonnés dans un bain de température par le constructeur, qui en établit
les caractéristiques techniques de performances en se fondant sur les résultats de l’étalonnage.
Cependant, le système de mesure de la température qui donne la valeur de la température
se compose aussi d’un dispositif d’alimentation et de circuits électroniques sur lesquels la
température peut exercer une influence. Il est donc important de faire fonctionner les circuits
électroniques et la sonde ensemble sur toute la plage de température en cours d’étalonnage.
Il est bon également de remplacer la sonde par une résistance dont le coefficient thermique
est connu et qui produira une température connue, et de faire fonctionner les éléments
électroniques sur toute la plage de température considérée pour assurer une compensation
thermique correcte de ces éléments.
Les utilisateurs devraient aussi disposer d’un programme d’essais aléatoires de capteurs et de
systèmes de série, même si des modèles de présérie ont été testés, car des modifications aussi
mineures soient‑elles du matériel, de la configuration ou des procédés de fabrication risquent
d’affecter les caractéristiques de fonctionnement des capteurs et des systèmes.
L’Organisation internationale de normalisation a établi des normes (ISO, 1999, 2013) concernant
les plans et les procédés d’échantillonnage pour le contrôle de lots d’articles.
4.2.2.1 Définitions
Les définitions suivantes concernent les qualités d’un système d’instruments qui devraient faire
l’objet d’essais en exploitation:
CHAPITRE 4. ESSAIS, ÉTALONNAGE ET COMPARAISONS 1241
L’objet d’un descriptif relatif à un programme d’essais d’environnement est de fixer des critères
standard et les protocoles correspondants pour la définition des caractéristiques, la conception,
l’acquisition et l’essai du matériel. Un tel document devrait être fondé sur les conditions
d’exploitation et les conditions extrêmes attendues.
1242 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Le Service météorologique national des États‑Unis a par exemple publié des critères et protocoles
normalisés d’essais d’environnement ( National Weather Service, 1984) fondés sur une étude où
il a observé et noté les conditions d’exploitation et les conditions extrêmes de divers éléments
météorologiques sur le territoire des États‑Unis et proposé des critères d’essai (National Weather
Service, 1980). Ces critères et ces procédures sont rassemblés dans trois parties:
a) Critères d’essais d’environnement et limites des essais dans des conditions extérieures,
intérieures, de transport et de stockage;
b) Protocoles d’essai pour l’évaluation du matériel par rapport aux critères d’essais
d’environnement;
c) Justification étayée par des renseignements généraux sur les diverses conditions ambiantes
auxquelles le matériel risque d’être exposé, leur(s) effet(s) potentiel(s) sur ce matériel et la
justification correspondante des critères d’essai recommandés.
Un descriptif relatif à ce programme devrait être rédigé. Ce document a pour objet d’établir
des critères standard et des procédures d’essai correspondantes, et de servir de guide
uniformisé pour la définition des conditions de susceptibilité aux interférences électriques et
électromagnétiques en vue de l’acquisition et de la conception de matériel.
Le document devrait être fondé sur une étude où seraient quantifiées l’intensité et la durée
des transitoires des signaux et du secteur lors de phénomènes naturels tels que les orages. Il
devrait aussi porter sur des essais concernant les variations attendues de tension et de phase.
Si le matériel doit fonctionner dans un aéroport ou dans un autre milieu risquant d’émettre un
rayonnement électromagnétique, ce rayonnement devrait être également quantifié et inclus
dans la norme. Le programme pourrait aussi avoir pour but de vérifier si le matériel ne produit
pas lui‑même de rayonnement électromagnétique. Il faudrait veiller particulièrement au matériel
contenant un microprocesseur, donc une horloge à quartz, critique pour les fonctions de
synchronisation.
L’étalonnage et les essais d’environnement fournissent une base nécessaire mais insuffisante pour
définir les caractéristiques de fonctionnement d’un capteur ou d’un système, car l’étalonnage et
les essais en laboratoire ne peuvent rendre entièrement compte du fonctionnement de l’appareil
sur le terrain. Il n’existe aucun moyen de simuler les effets synergiques de l’ensemble des facteurs
météorologiques variables auxquels sera exposé un instrument en cours de fonctionnement.
Dans le cas de nombreuses applications, la comparabilité doit être testée sur le terrain. Pour cela,
on teste parallèlement des capteurs ou systèmes semblables ou différents par rapport à un étalon
de référence sur le terrain. Ce sujet est abordé par Hoehne (1971, 1972, 1977).
Les essais de fonctionnement peuvent être planifiés et réalisés par des laboratoires privés ou
par un organisme d’essai relevant du Service météorologique ou d’une autre organisation
d’utilisateurs. Lors de l’acquisition et de l’exploitation du matériel, il faut tenir compte du niveau
de formation et de compétence des observateurs et techniciens qui vont utiliser le système. La
manipulation du matériel par ces personnes devrait faire partie du programme d’essais. Les
personnes qui vont installer, exploiter, entretenir et réparer le matériel devraient évaluer ces
aspects du capteur ou du système considéré, et notamment la pertinence des instructions et des
manuels. Il faudrait également tenir compte de leur niveau de compétence lors de la définition
des spécifications en vue d’acheter le matériel.
4.3 ÉTALONNAGE
L’étalonnage d’un capteur ou d’un système constitue la première étape en vue de définir
la validité des données. Il s’agit en général de comparer l’appareil à un étalon connu pour
déterminer dans quelle mesure les résultats qu’il produit correspondent à cet étalon sur la
plage de fonctionnement attendue. Dans le cas d’un étalonnage en laboratoire, on suppose
implicitement que les caractéristiques de l’instrument sont suffisamment stables pour que
l’étalonnage réalisé s’applique sur le terrain. Un historique d’une série d’étalonnages peut
confirmer la stabilité de l’instrument.
Plus précisément, l’étalonnage est l’opération qui, dans des conditions spécifiées, établit en
une première étape une relation entre d’une part les valeurs et les incertitudes de mesure
associées qui sont fournies par des étalons et d’autre part les indications correspondantes avec
les incertitudes associées, puis utilise en une seconde étape ces informations pour établir une
relation permettant d'obtenir un résultat de mesure à partir d'une indication (JCGM, 2012).
L’étalonnage devrait permettre de déterminer l’erreur systématique ou l’écart par rapport à
l’étalon de référence du capteur ou du système considéré, les erreurs aléatoires qu’il commet,
la plage de validité de l’étalonnage et la présence de seuils ou de zones où les résultats ne sont
pas linéaires. Il devrait aussi permettre de déterminer la résolution et l’hystérésis de l’appareil.
L’hystérésis devrait être identifiée en soumettant l’appareil à une succession de cycles sur sa
plage de fonctionnement en cours d’étalonnage. Le résultat d’un étalonnage s’exprime parfois
par un ou plusieurs facteurs d’étalonnage qui prennent la forme d’un tableau ou d’une courbe
d’étalonnage. Les résultats d’un étalonnage peuvent être consignés dans un document appelé
certificat ou rapport d’étalonnage.
Le certificat ou rapport en question devrait définir une erreur systématique qui peut être ensuite
supprimée par ajustement mécanique, électrique ou logiciel. L’erreur aléatoire rémanente ne
peut pas se répéter et ne peut pas être éliminée, mais elle peut être définie statistiquement au
moyen d’un nombre suffisant de répétitions des mesures en cours d’étalonnage.
4.3.2 Étalons
Étalon primaire. Étalon établi à l'aide d'une procédure de mesure primaire ou créé comme objet
choisi par convention.
1244 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Note: Les laboratoires d’étalonnage des SMHN et les CRI qui se servent d’étalons de ce type devraient veiller à leur
traçabilité par rapport au Système international d’unités (SI).
Étalon secondaire. Étalon établi par l'intermédiaire d'un étalonnage par rapport à un étalon
primaire d'une grandeur de même nature.
Étalon international. Étalon reconnu par les signataires d'un accord international pour une
utilisation mondiale.
Étalon national. Étalon reconnu par une autorité nationale pour servir, dans un état ou une
économie, comme base à l'attribution de valeurs à d'autres étalons de grandeurs de la même
nature.
Étalon de référence. Étalon conçu pour l'étalonnage d'autres étalons de grandeurs de même nature
dans une organisation donnée ou en un lieu donné.
Étalon de travail. Étalon qui est utilisé couramment pour étalonner ou contrôler des instruments
de mesure ou des systèmes de mesure.
Dispositif de transfert. Dispositif utilisé comme intermédiaire pour comparer entre eux des étalons.
Étalon voyageur. Étalon, parfois de construction spéciale, destiné au transport en des lieux
différents.
Les étalons primaires sont conservés par de grands établissements de métrologie internationaux
ou nationaux. Quand il s’agit des mesures de pression (voir le chapitre 3 de la partie I),
l’expression «étalon primaire» désigne des instruments dont la conception repose sur des
principes physiques, notamment les baromètres à mercure ou les appareils à contrepoids,
alors qu’il faudrait les appeler étalons secondaires en application des aptitudes en matière de
mesures et d’étalonnages. Les étalons secondaires, souvent conservés par de grands laboratoires
d’étalonnage, ne sont généralement pas adaptés à un emploi sur le terrain. Ils sont souvent
appelés étalons de référence, conformément à la norme ISO/CEI 17025 (ISO/CEI, 2005). Les
étalons de travail sont en général des instruments de laboratoire qui ont été étalonnés par
rapport à un étalon secondaire. Les étalons de travail pouvant être utilisés sur le terrain sont
généralement appelés étalons voyageurs. Les étalons voyageurs peuvent servir à comparer des
instruments aussi bien en laboratoire que sur le terrain. Les laboratoires d’étalonnage des SMHN
et les CRI qui se servent de tous ces types d’étalons devraient veiller à leur traçabilité par rapport
au Système international d’unités.
4.3.3 Traçabilité
La définition de la traçabilité (JCGM, 2012) est la suivante: «Propriété d’un résultat de mesure
selon laquelle ce résultat peut être relié à une référence par l'intermédiaire d'une chaîne
ininterrompue et documentée d'étalonnages dont chacun contribue à l'incertitude de mesure».
Dans le domaine de la météorologie, il est courant de relier les mesures de la pression à des
étalons voyageurs, à des étalons de travail et à des étalons secondaires par rapport à des étalons
nationaux. Les incertitudes cumulées sont ainsi connues (sauf celles qui se produisent sur le
terrain, qui doivent être déterminées par des essais sur site). Les mesures de la température se
prêtent à la même pratique.
Il convient d’appliquer ce même principe à la mesure de toute quantité dont l’incertitude doit
être connue.
Les utilisateurs peuvent aussi acheter des appareils d’étalonnage ou des étalons pour leurs
propres laboratoires. Un bon appareil d’étalonnage devrait toujours être associé à un étalon
approprié, par exemple un étalonneur de température à bain liquide avec des thermomètres à
résistance agréés et/ou un ensemble de thermomètres à tube de verre agréés. Dans cet exemple,
il faudrait aussi envisager l’emploi d’une huile de silicone non conductrice. Ainsi, si un appareil
de mesure de la température est monté sur une carte de circuits électroniques, la carte entière
peut être immergée dans le bain, ce qui permet de tester l’appareil dans sa configuration de
fonctionnement. Il faut non seulement que le matériel d’étalonnage et les étalons soient de
bonne qualité, mais aussi que les ingénieurs et les techniciens du laboratoire d’étalonnage aient
une formation correcte en métrologie de base et en ce qui concerne l’emploi des appareils
d’étalonnage et des étalons dont ils disposent.
Lorsque les instruments étalonnés et testés à l’origine sont acceptés par l’utilisateur, celui‑ci
devrait mettre en place un programme de contrôle de l’étalonnage et d’étalonnage régulier.
Des instruments tels que les baromètres au mercure sont susceptibles de se casser lorsqu’on
les transporte sur un site. Dans les stations éloignées, ces instruments devraient être déplacés
le moins possible et être étalonnés par rapport à des étalons voyageurs, plus robustes, que les
contrôleurs peuvent transporter d’une station à une autre. Les étalons voyageurs doivent être
fréquemment comparés à un étalon de travail ou de référence dans le laboratoire d’étalonnage et
avant et après chaque tournée d’inspection.
On trouvera dans les chapitres pertinents du présent guide et dans des manuels spécialisés (voir
les références ci‑après) des détails sur les modalités d’étalonnage en laboratoire de baromètres,
de thermomètres, d’hygromètres, d’anémomètres, de compteurs de rayonnement et d’autres
appareils. Ces ouvrages contiennent également des renseignements sur les instruments et
appareils d’étalonnage standard internationaux reconnus. Les modalités d’étalonnage des
stations météorologiques automatiques, qui exigent une attention particulière, sont abordées
dans le chapitre 1 de la partie II.
d’un étalonnage et d’un réglage, en laboratoire si cela est possible. Il y a lieu de noter aussi que
l’inspection sur le terrain fournit d’autres informations utiles, puisque c’est la configuration
de l’instrument dans son ensemble qui est vérifiée sur le terrain, y compris le câblage. Au
cours d’une inspection sur le terrain, il importe d’enregistrer les métadonnées ayant trait aux
conditions de l’inspection, y compris les détails portant sur les modifications apportées à la
configuration de l’instrument (voir les précisions complémentaires fournies à la section 1.7 du
chapitre 1 de la partie II).
Comparaison interlaboratoires
a) Comparaisons internationales: des participants de tous les pays intéressés peuvent y assister
à la suite d’une invitation générale;
b) Comparaisons régionales: des participants des pays d’une région donnée (par exemple une
région de l’OMM) peuvent y assister à la suite d’une invitation générale;
efficace. Ces règles, reproduites ci‑après dans les annexes 4.A et 4.B3, correspondent à des
directives générales et devraient, en cas de besoin, être complétées par des règles de travail pour
chaque comparaison (voir les chapitres pertinents du présent guide).
Des comptes rendus de comparaisons internationales organisées par l’OMM sont cités dans
d’autres chapitres du présent guide (voir par exemple les chapitres 3, 4, 9, 12, 14 et 15 de la
partie I). L’annexe 4.C présente une liste des comparaisons internationales qui ont reçu l’aval de
la Commission des instruments et des méthodes d’observation et qui ont été publiées dans des
documents techniques de l’OMM.
Les comptes rendus de comparaisons, quel qu’en soit le niveau, devraient être publiés et mis à la
disposition de la communauté météorologique dans son ensemble.
3
Annexe à la recommandation 14 (CIMO‑XI) adoptée par la CIMO à sa onzième session (1994) et annexe IX du
rapport correspondant.
ANNEXE 4.A. PROCÉDURES APPLICABLES AUX COMPARAISONS
MONDIALES ET RÉGIONALES D’INSTRUMENTS ORGANISÉES PAR L’OMM
3. S’il faut procéder d’urgence à une comparaison particulière qui n’a pas été prévue
lors la session d’un organe constituant, le président de l’organe compétent peut présenter une
proposition correspondante au Président de l’OMM, pour approbation.
7. Le pays hôte doit désigner un directeur de projet, qui sera responsable de la bonne
conduite des travaux de comparaison, de l’analyse des données et de l’établissement d’un
rapport final comme convenu par le comité international d’organisation. Le directeur du projet
sera membre de droit du comité international d’organisation.
9. Le Secrétaire général est invité à annoncer, dès que possible après l’établissement
du comité international d’organisation, la comparaison prévue. Dans son annonce, il donnera
notamment des informations sur l’organisation de la comparaison et sur les règles qui la
régissent, comme convenu par ce comité. Les Membres participants sont tenus de respecter ces
règles.
12. Une fois la comparaison terminée, le comité d’organisation examine et approuve les
principaux résultats de l’analyse des données recueillies et formule des propositions en vue de
l’utilisation de ces résultats par la communauté météorologique.
CHAPITRE 4. ESSAIS, ÉTALONNAGE ET COMPARAISONS 1249
1. INTRODUCTION
1.2 Cependant, comme toutes les comparaisons diffèrent dans une certaine mesure les
unes des autres, on considérera qu’il s’agit ici en fait d’une énumération générale des tâches. De
ce fait, celles‑ci seront adaptées en fonction de la situation, étant entendu que les critères qui
doivent régir la conduite des comparaisons et des évaluations de l’OMM sont l’objectivité et la
valeur scientifique.
1.3 Pour l’exécution des comparaisons, on pourra s’inspirer des rapports finals de
comparaisons précédentes de l’OMM et des rapports de réunions des comités d’organisation.
Ces rapports peuvent être obtenus auprès du Département de la Veille météorologique
mondiale, au Secrétariat de l’OMM.
Le comité d’organisation, qui devrait examiner les objectifs à atteindre, détermine les problèmes
particuliers qui risquent de se poser. Il est chargé de préparer un exposé clair et détaillé des
principaux objectifs de la comparaison et d’arrêter les critères sur lesquels on se fondera pour
en évaluer les résultats. Il doit également déterminer quelle est la meilleure façon de garantir
le succès de la comparaison, en tirant parti, le cas échéant, de l’expérience acquise au cours de
comparaisons antérieures.
3.1 Le Secrétariat invitera le pays hôte à fournir au comité d’organisation une description
du lieu proposé pour la comparaison et du dispositif prévu (emplacement(s), conditions
environnementales et climatologiques, principales caractéristiques topographiques, etc.). Il
désignera en outre un directeur de projet1.
1
Lorsque plusieurs lieux sont prévus pour la comparaison, des responsables locaux seront désignés, selon les besoins.
Certaines tâches du directeur du projet indiquées dans le présent document seront déléguées aux responsables
locaux.
CHAPITRE 4. ESSAIS, ÉTALONNAGE ET COMPARAISONS 1251
3.3 Le directeur du projet doit proposer une date à laquelle le lieu retenu et le
dispositif prévu seront disponibles pour l’installation de l’équipement nécessaire et sa mise en
communication avec le système d’acquisition de données. Il y a lieu de prévoir une certaine
période de vérifications et d’essais du matériel, qui permettra également aux exploitants de se
familiariser avec les procédures d’exécution.
4. PARTICIPATION À LA COMPARAISON
4.1 Le comité d’organisation doit examiner les aspects techniques et pratiques, les
caractéristiques souhaitables et les préférences, les restrictions, les priorités et les descriptions
des différents types d’instruments qui doivent faire l’objet de la comparaison.
4.2 Normalement, seuls seront admis les instruments régulièrement utilisés ou ceux qui
devraient l’être sous peu par les Membres. Il incombe aux Membres participants de procéder,
avant l’expédition de leurs instruments, à l’étalonnage de ceux‑ci par rapport à des étalons et de
produire les certificats d’étalonnage appropriés. On peut inviter les participants à fournir deux
instruments identiques de chaque catégorie afin d’assurer une plus grande fiabilité des données.
Cependant, il ne s’agit pas là d’une condition de participation.
4.3 Le comité d’organisation doit établir un questionnaire détaillé, qui lui permettra
d’obtenir les informations requises sur chaque instrument proposé pour la comparaison. Le
directeur du projet donnera encore d’autres détails et mettra la dernière main à ce questionnaire
le plus rapidement possible. Les participants seront invités à préciser clairement dans leurs
réponses les caractéristiques concernant les interfaces et le logiciel et à présenter une
documentation appropriée. (On peut se procurer une liste des questions susceptibles de figurer
dans un questionnaire auprès du Secrétariat de l’OMM.)
a) Charger le Secrétaire général d’inviter officiellement les Membres (qui ont manifesté leur
intérêt) à participer à la comparaison. L’invitation doit comprendre toutes les informations
nécessaires relatives aux règles régissant la comparaison, telles qu’elles ont été établies par
le comité d’organisation et le directeur du projet;
b) Charger le directeur du projet de s’occuper de tous les autres contacts avec les participants.
5. ACQUISITION DE DONNÉES
5.1.1 Le comité d’organisation doit étudier une proposition de schéma pour l’installation
des instruments établie par le directeur du projet et arrêter la disposition des instruments pour
la comparaison. On veillera en particulier à ce que l’emplacement et l’exposition des instruments
soient appropriés, en tenant compte des critères et normes de l’OMM et d’autres organisations
internationales. Les critères adoptés pour ce qui est de l’emplacement et de l’exposition devront
être documentés.
Le pays hôte doit tout mettre en œuvre afin qu’au moins un instrument de référence soit présent
pour la comparaison. L’étalonnage de cet instrument doit être effectué par rapport à un étalon
national ou international. Il y a lieu de fournir au comité d’organisation une description et
une spécification de l’instrument étalon. S’il n’existe pas d’instrument étalon ou de référence
reconnue pour la ou les variables à mesurer, le comité d’organisation conviendra d’une méthode
pour choisir un instrument auquel on pourra se référer pour la comparaison.
Le comité d’organisation doit donner son accord pour des procédures appropriées d’acquisition
de données, par exemple en ce qui concerne la fréquence des mesures, l’échantillonnage des
données, l’établissement de moyennes, la réduction des données, leur forme de présentation,
le contrôle de la qualité des données en temps réel, etc. Lorsque les participants doivent
communiquer des données au cours de la comparaison ou lorsque des données sont disponibles
en tant qu’enregistrements graphiques ou sous forme de données visuelles, le comité
d’organisation doit prendre des décisions concernant la responsabilité en matière de vérification
de ces données et la période pendant laquelle elles doivent être soumises au directeur du
projet ainsi que la forme de présentation et le support permettant leur stockage dans la base
de données du pays hôte. Lorsque cela est possible, il y a lieu de procéder à des comparaisons
directes par rapport à l’instrument de référence.
Le comité d’organisation doit prévoir un calendrier de la comparaison qui tienne compte à la fois
des tâches courantes et des tâches spécifiques et établir ce calendrier. Les détails seront ensuite
réglés par le directeur du projet et ses collaborateurs.
CHAPITRE 4. ESSAIS, ÉTALONNAGE ET COMPARAISONS 1253
6.1.1 Toutes les données indispensables à la comparaison, y compris celles qui concernent
la météorologie et l’environnement, doivent être stockées dans une base de données en vue de
leur analyse ultérieure sous la supervision du directeur du projet. Le comité d’organisation, en
collaboration avec le directeur du projet, propose une forme de présentation commune pour
l’ensemble des données, y compris celles qui sont communiquées par les participants pendant la
comparaison. Il doit convenir d’une surveillance en temps quasi réel et d’un contrôle de la qualité
afin d’assurer la validité des données.
6.1.2 Une fois la comparaison terminée, le pays hôte fournit, sur demande, à chaque
Membre participant un jeu de données provenant de l’instrument (ou des instruments) qu’il a
soumis. Ce jeu doit également contenir des données météorologiques ou environnementales
ainsi que des données de référence.
6.2.1 Le comité d’organisation doit proposer un cadre pour l’analyse et le traitement des
données et pour la présentation des résultats. Il donnera son accord concernant des algorithmes
de conversion des données, d’étalonnage et de correction et établira une liste des termes,
définitions, abréviations et relations (lorsque ceux‑ci diffèrent de ceux qui sont couramment
acceptés). Il donnera une description détaillée des méthodes statistiques à appliquer en fonction
des objectifs de la comparaison.
6.2.2 Lorsqu’il n’est pas possible de procéder à une comparaison directe et synchronisée
d’instruments réunis en une installation unique (par exemple dans le cas où les instruments visés
se trouveraient dans des lieux séparés), il faut prendre en considération des méthodes d’analyse
fondées sur des distributions statistiques. S’il n’existe pas d’instrument de référence (par exemple
pour la base des nuages ou la portée optique météorologique), on comparera les instruments
concernés à l’instrument de référence choisi parmi eux en tenant compte de valeurs médianes
ou correspondant à un type donné et en veillant à exclure les valeurs non représentatives de la
sous‑série de données retenue.
6.2.3 Lorsqu’il a été procédé à une seconde comparaison, quelque temps après la
première ou lors d’une phase ultérieure d’une comparaison en cours, on tiendra compte, pour les
méthodes d’analyse à appliquer la présentation, de ce qui a été fait initialement. Mais cela ne doit
pas empêcher de faire également appel à de nouvelles méthodes.
6.2.5 Une fois la comparaison terminée, le comité d’organisation en examine les résultats
ainsi que l’analyse effectuée par le directeur du projet. Il doit accorder une attention particulière
aux recommandations concernant l’utilisation des résultats de la comparaison et au contenu du
rapport final.
7.1 Le comité d’organisation doit déterminer les grands axes du rapport final et charger
ensuite le directeur du projet d’en établir une version provisoire.
1254 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
7.2 Le rapport final de la comparaison doit contenir, pour chaque instrument, un résumé
des principales caractéristiques de fonctionnement et des facteurs d’exploitation. Les résultats
de l’analyse statistique doivent être présentés dans des tableaux ou des graphiques, selon qu’il
convient. Les graphiques présentant des séries chronologiques doivent être envisagés pour
certaines périodes correspondant à des événements d’une importance particulière. Le pays
hôte doit être invité à préparer un chapitre où seront décrits la base de données et les moyens et
installations utilisés pour le traitement, l’analyse et le stockage des données.
a) Le projet de rapport final sera établi par le directeur du projet et soumis à l’ensemble des
membres du comité d’organisation, de même, le cas échéant, qu’aux Membres participants;
c) Au cas où seules de légères modifications sont proposées, le directeur du projet peut mettre
la dernière main au rapport et l’envoyer au Secrétariat de l’OMM pour publication;
7.4 Le comité d’organisation peut convenir que les résultats intermédiaires et finals ne
pourront être présentés que par le directeur du projet et ses collaborateurs lors de conférences
techniques.
8. RESPONSABILITÉS
8.1.3 Chaque participant fournira tous les accessoires nécessaires, le matériel de montage,
les câbles et connecteurs de communication et d’alimentation (compatibles avec les normes du
pays hôte), les pièces de rechange et les consommables pour son équipement. Si un participant
a besoin d’un type de raccordement électrique spécial ou hors norme, il doit fournir son propre
convertisseur ou adaptateur. Les participants présenteront toutes les instructions détaillées et
tous les manuels nécessaires pour l’installation, l’exploitation, l’étalonnage et l’entretien régulier
de leur équipement.
8.2.1 Si la demande lui en est faite, le pays hôte doit fournir aux Membres participants
les informations nécessaires sur les procédures d’importation et d’exportation temporaires ou
permanentes (dans le cas des consommables). Il doit prêter son concours pour le déballage
CHAPITRE 4. ESSAIS, ÉTALONNAGE ET COMPARAISONS 1255
8.2.2 Le pays hôte doit fournir en quantité suffisante l’équipement ou les ouvrages
auxiliaires, tels que tours, abris, bases ou fondations.
8.2.3 L’alimentation électrique nécessaire pour l’ensemble des instruments sera fournie.
Il convient de donner aux participants les indications nécessaires concernant la tension et la
fréquence ainsi que la stabilité de l’alimentation. La connexion des instruments au système
d’acquisition de données et au circuit d’alimentation électrique s’effectuera en collaboration
avec les participants. Le directeur du projet doit s’entendre avec chaque participant au sujet
de la fourniture, par celui‑ci ou par le pays hôte, de câbles d’alimentation électrique ou de
communication d’une longueur suffisante (et des connecteurs appropriés).
8.2.4 C’est au pays hôte qu’il appartient d’obtenir les autorisations officielles pour les
mesures à effectuer dans l’atmosphère en ce qui concerne l’utilisation de fréquences, l’émission
d’un rayonnement laser, le respect du droit civil ou aéronautique, etc. Chaque participant
présentera les documents nécessaires, si le directeur lui en fait la demande.
8.2.5 Le pays hôte peut fournir des informations sur les points suivants: logement, voyage,
transport local, appui logistique quotidien, etc.
8.3.1 Un service d’exploitation régulier ne sera assuré par le pays hôte que pour
des comparaisons de longue durée pour lesquelles l’absence des participants ou de leurs
représentants peut être justifiée.
a) Assurer pour chaque instrument un service normal d’exploitation, en ce qui concerne par
exemple le nettoyage, la recharge et les ajustements réguliers prévus dans les consignes
d’exploitation des participants;
c) Tout mettre en œuvre pour que soient effectuées les vérifications régulières d’étalonnage
selon les consignes données par les participants.
8.3.3 Le directeur du projet doit tenir un registre sur le fonctionnement de tout le matériel
participant à la comparaison. Ce registre contiendra des notes relatives à tout ce qui, sur les lieux
de la comparaison, peut avoir une incidence sur celle‑ci, à tous les faits marquants concernant le
matériel qui fait l’objet de la comparaison et à tout ce qui a trait à l’équipement et aux moyens et
installations fournis par le pays hôte.
9.3 De petites réparations telles que le remplacement de fusibles seront autorisées avec
l’accord du directeur du projet.
9.5 Tout problème qui pourrait se poser au sujet du matériel présenté par les
participants doit être examiné par le directeur du projet.
Compte rendu
consacré aux
Sujet Titre du compte rendu
instruments et
observations N°
Durée 16 Radiation and Sunshine Duration Measurements: Comparison of
d’ensoleillement Pyranometers and Electronic Sunshine Duration Recorders of RA VI
(Budapest, Hongrie, juillet‑décembre 1984), G. Major, WMO/
TD‑No. 146 (1986).
1
Pour les comptes rendus les plus récents, voir http://w ww.wmo.int/pages/prog/w ww/IMOP/
publications‑IOM‑series.html.
2
Les comptes rendus des comparaisons internationales de pyrhéliomètres de l’OMM, réalisées tous les cinq ans sous
la direction du Centre radiométrique mondial à Davos (Suisse), sont également distribués par l’OMM.
1258 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Compte rendu
consacré aux
Sujet Titre du compte rendu
instruments et
observations n°
Rayonnement 43 First WMO Regional Pyrheliometer Comparison of RA II and RA V
(Tokyo, Japon, 23 janvier–4 février 1989), Y. Sano, WMO/
TD‑No. 308 (1989).
Compte rendu
consacré aux
Sujet Titre du compte rendu
instruments et
observations n°
Radiosondes 90 WMO Intercomparison of GPS Radiosondes – Rapport final, Alcantâra,
Brésil, 20 mai au 10 juin 2001, R. da Silveira, G. F. Fisc,
L.A. Machado, A.M. Dall’Antonia Jr., L.F. Sapucci, D. Fernandes,
R. Marques, J. Nash, WMO/TD‑No. 1314 (2006)
Pyrhéliomètres 112 Baltic Region Pyrheliometer Comparison 2012, 21 mai–1er juin 2012,
Norrköping, Suède, T. Carlund (2013)
Comité commun pour les guides en métrologie (JCGM), 2012: Vocabulaire international de métrologie –
Concepts fondamentaux et généraux et termes associés (VIM). JCGM 200:2012.
Commission électrotechnique internationale (CEI), 2002: Classification des conditions d’environnement –
Partie 1: Agents d’environnement et leurs sévérités. CEI 60721‑1, Genève.
Hoehne, W.E., 1971: Standardizing Functional Tests. NOAA Technical Memorandum, NWS T&EL‑12,
United States Department of Commerce, Sterling, Virginie.
———, 1972: Standardizing functional tests. Preprints of the Second Symposium on Meteorological Observations
and Instrumentation, American Meteorological Society, p. 161–165.
———, 1977: Progress and Results of Functional Testing. NOAA Technical Memorandum, NWS T&EL‑15,
United States Department of Commerce, Sterling, Virginie.
National Weather Service, 1980: Natural Environmental Testing Criteria and Recommended Test Methodologies
for a Proposed Standard for National Weather Service Equipment. United States Department of
Commerce, Sterling, Virginie.
———, 1984: NWS Standard Environmental Criteria and Test Procedures. United States Department of
Commerce, Sterling, Virginie.
Organisation internationale de normalisation, 1999: Règles d'échantillonnage pour les contrôles par attributs
– Partie 1: Procédures d'échantillonnage pour les contrôles lot par lot, indexés d'après le niveau de
qualité acceptable (NQA). ISO 2859‑1:1999, Genève.
———, 2013: Règles d'échantillonnage pour les contrôles par mesures – Partie 1: Spécification pour les plans
d'échantillonnage simples indexés d'après une limite de qualité acceptable (LQA) pour un contrôle lot
par lot pour une caractéristique‑qualité unique et une LQA unique. ISO 3951‑1:2013, Genève.
Organisation internationale de normalisation/Commission électrotechnique internationale (CEI), 2005:
Exigences générales concernant la compétence des laboratoires d'étalonnages et d'essais.
ISO/CEI 17025:2005/Cor.1:2006, Genève.
Organisation météorologique mondiale, 1989: Analysis of Instrument Calibration Methods Used by Members
(H. Doering). Instruments and Observing Methods Report No. 45 (WMO/TD‑No. 310),
Genève.
Organisation météorologique mondiale/Conseil international des unions scientifiques, 1986: Revised
Instruction Manual on Radiation Instruments and Measurements (dir.: C. Fröhlich et J. London).
World Climate Research Programme Publications Series No. 7 (WMO/TD‑No. 149), Genève.
TABLE DES MATIÈRES DU CHAPITRE
Page
Page
5.1 INTRODUCTION
5.1.1 Généralités
Qu’elle soit théorique ou appliquée, la météorologie se fonde sur des séries continues de
mesures effectuées à l’aide d’instruments et de systèmes de plus en plus élaborés. Aussi le
présent chapitre traite‑t‑il de la formation professionnelle des spécialistes de la planification,
des spécifications, de la conception, de l’installation, de la mise en service et de l’entretien
des instruments météorologiques et des systèmes de télédétection utilisés en météorologie.
Il s’adresse aux cadres techniques et aux formateurs mais aussi et surtout aux spécialistes des
instruments qui veulent progresser dans leur profession.
Pour que le Système mondial d’observation de l’OMM puisse produire des données d’une qualité
uniformément élevée dans les délais impartis et selon un rapport coût‑efficacité acceptable,
tous les pays Membres doivent disposer des techniques appropriées indispensables et donc
d’un personnel qualifié, d’où le caractère essentiel de la formation professionnelle. Mais les
capacités techniques dans le domaine des instruments ne suffisent plus. La météorologie
moderne requiert, outre une qualification technique, des techniciens qui soient capables de
remplir les fonctions de planificateur et de chef de projet, qui possèdent des connaissances
en télécommunications et en traitement de données, qui soient en mesure de préconiser des
solutions techniques efficaces et qui soient compétents tant dans le domaine financier que dans
celui de la gestion du personnel. Par conséquent, les programmes de formation qui s’adressent
aux plus qualifiés des spécialistes des instruments et des ingénieurs en systèmes d’instruments
météorologiques devraient inclure, outre les compétences en technologie moderne, les sujets les
plus variés, y compris le développement personnel et les aptitudes à la gestion.
De nombreux pays ont créé des centres régionaux de formation professionnelle sous les auspices
de l’OMM. Bon nombre de ces centres proposent des cours de formation sur divers aspects
du fonctionnement et de la gestion des instruments et des systèmes d’instruments. Leur liste
figure en annexe du présent chapitre. Des centres régionaux d’instruments ont aussi été installés
à de nombreux endroits et certains d’entre eux peuvent assurer des activités de formation.
Leurs coordonnées et l’énoncé de leurs attributions figurent à l’annexe 1.A du chapitre 1 de la
partie I et à l’annexe 4.A du chapitre 4 de la partie II, et il en est brièvement question dans les
sections 5.5.1.2 et 5.5.1.3.
Les mesures effectuées à l’aide de systèmes d’instruments reposent sur l’application de principes
physiques (l’expansion thermique du mercure, par exemple). Les variables atmosphériques
mesurées sont transmises sous une forme normalisée qui correspond aux exigences pratiques
de l’utilisateur, par exemple une trace enregistrée sur un diagramme ou un signal électrique
d’entrée pour une station météorologique automatique. Le principe théorique expliquant
le processus de mesure doit aussi tenir compte du rapport entre l’instrument de mesure et
la grandeur à mesurer (la représentativité ou «exposition») et des erreurs imputables aux
instruments ou aux observations qui entachent toutes les mesures. Souvent les données
obtenues par mesurage subissent ensuite un traitement, puis sont codées de façon plus ou moins
complexe (par exemple: réduction de la pression atmosphérique au niveau moyen de la mer
ou élaboration de messages d’observation en altitude à partir de radiosondages), ce qui exige
encore d’autres connaissances théoriques.
Le mesurage exige aussi des connaissances et une expérience pratiques lorsqu’il s’agit d’installer
et de régler des instruments pour obtenir des mesures normalisées, de veiller à ce que ceux‑ci
fonctionnent en toute sécurité et avec exactitude et de procéder aux calculs ou au codage des
données avec le moins d’erreurs possible.
L’acquisition de données d’une qualité établie est donc le résultat d’une synthèse de
connaissances théoriques et pratiques. Le personnel chargé de l’exploitation et de la gestion
des systèmes d’instruments doit posséder des connaissances, tant théoriques que pratiques,
en adéquation avec la complexité et la portée de son travail. Les ingénieurs spécialisés dans
la conception ou l’entretien des systèmes d’instruments complexes disposent d’un niveau de
qualification théorique et pratique particulièrement élevé.
Les organisations doivent veiller à ce que leur personnel soit dûment qualifié et compétent (et
qu’il ait donc reçu une formation appropriée), mais aussi en nombre suffisant pour mener à bien
l’ensemble des tâches à accomplir; elles doivent s’assurer en outre que leurs sous‑traitants en
font de même. Par exemple, la formation requise pour relever la température de l’air dans un abri
Stevenson se situe au bas de l’échelle des qualifications, tandis qu’il va de soi que le personnel
devra suivre une formation théorique et pratique bien plus poussée pour pouvoir établir le
cahier des charges de systèmes tels les stations météorologiques automatiques, les récepteurs de
satellites météorologiques et les radars, installer ces systèmes et en assurer le fonctionnement et
l’entretien.
Il s’avère par conséquent fort utile d’appliquer une classification des niveaux de qualification
en fonction des besoins en matière d’exploitation, d’emploi et de formation. Les niveaux de
qualification définis pour l’enseignement technique à l’échelle nationale constituent des points
de repère importants en la matière. Afin d’aider tous les pays à parvenir à une qualité uniforme
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1265
Il importe que les Services météorologiques nationaux disposent d’un plan de gestion du
personnel qui mette en évidence le rôle des spécialistes des instruments dans la planification,
l’élaboration et l’exploitation de programmes d’observation météorologique appropriés et
économiques. Ce plan doit comprendre la liste de tous les membres du personnel spécialisé
dans les instruments, avec leur niveau de classification (OMM, 2001). Il permet de déterminer
les besoins des Services en matière de compétences et d’y répondre par le recrutement ou la
formation.
Tout devrait être mis en œuvre pour conserver des compétences techniques rares dans le
domaine des instruments grâce au maintien d’un bon environnement de travail en veillant à ce
que le niveau technique demeure stimulant, et pour offrir des possibilités d’avancement dans la
carrière et proposer des salaires comparables à ceux d’autres métiers techniques de même niveau
au sein des Services météorologiques ou à l’extérieur de ceux‑ci.
1
Système approuvé par le Conseil exécutif de l’OMM à sa cinquantième session (1998) et par le Congrès
météorologique mondial à sa treizième session (1999).
1266 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Par la formation professionnelle des spécialistes des instruments, les cadres visent notamment à:
c) Tirer pleinement parti des fonds investis dans les systèmes d’instruments tout au long de la
durée de vie utile optimale de ces systèmes.
a) Proposer des programmes de formation équilibrés répondant aux besoins définis dans les
pays de chaque Région en matière de compétences aux différents niveaux de classification;
L’objectif global est de former des spécialistes des instruments et des ingénieurs capables
(suivant leur niveau de qualification) de remplir les fonctions suivantes:
a) Évaluer, pour tous les types de mesures instrumentales, leur application, leur utilité et leur
exactitude;
c) Acquérir les connaissances et les compétences leur permettant d’exécuter des opérations
d’installation, de réglage et d’entretien et aussi d’assurer un service d’entretien qui
garantisse la fiabilité, l’exactitude et la rentabilité maximales des instruments et systèmes
météorologiques;
e) Comprendre les sources d’erreurs dans les mesures et être compétents en matière
d’utilisation d’étalons et de modes opératoires d’étalonnage afin de réduire au minimum les
erreurs systématiques;
h) Diriger des projets importants par les ressources financières, matérielles et humaines
engagées et par leur complexité technique;
i) Modifier, améliorer, concevoir et fabriquer des instruments pour répondre à des besoins
particuliers;
L’acquisition de données météorologiques est une activité complexe et onéreuse nécessitant des
ressources humaines et matérielles ainsi que des moyens de communication et de calcul. Il faut
donc veiller à tirer le maximum d’avantages de l’information ainsi obtenue pour un minimum de
ressources financières et humaines engagées.
En matière d’acquisition de données, la qualité consiste à garantir dans les délais impartis un
flux de données météorologiques représentatives et exactes dans les centres nationaux de
traitement, et ce au moindre coût. À chacune des étapes du processus de formation technique,
il y a lieu d’inculquer à chacun la conscience de sa propre influence sur la qualité des produits
finals. En tant que discipline, la gestion de la qualité totale (Walton, 1986, et Imai, 1986) permet
d’examiner dans tout ce qui entoure le mesurage (applications, modes opératoires, instruments
et personnel) chaque élément pouvant influer sur la qualité. Sous cet angle, l’acquisition de
données est étudiée en tant que système ou série de processus. Les éléments critiques de
chaque processus, les retards par exemple, sont mesurés et la variabilité du processus est établie
statistiquement. Une petite équipe connaissant bien le processus intervient à l’aide d’outils de
résolution de problèmes afin de réduire la variabilité du processus et donc d’améliorer la qualité.
Les processus sont ainsi affinés continuellement par des améliorations progressives.
1268 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
La publication OMM (1990) propose une liste de contrôle des divers facteurs sous les en‑têtes
suivants:
d) Entretien du matériel;
Pour les spécialistes des instruments, tous ces facteurs ont une influence sur la qualité des
données. Cette liste peut servir aux cadres pour examiner les domaines qui relèvent de leurs
compétences et déceler les faiblesses, aux formateurs, dans les cours sur les notions de gestion de
la qualité totale, et au personnel en général pour lui rappeler les facteurs sur lesquels il peut agir
compte tenu de ses connaissances et de ses compétences afin d’améliorer la qualité globale des
données.
L’apprentissage est un processus très personnel variant en fonction de l’individu, de ses besoins
et de ses intérêts. L’individu se sent motivé par les avantages qu’il peut tirer de ce processus,
comme une augmentation de salaire, mais d’autres éléments exercent aussi une forte motivation:
la satisfaction professionnelle, le sentiment de participation, l’accomplissement personnel,
l’acquisition d’un certain pouvoir ou d’une certaine influence et la reconnaissance par les pairs et
les supérieurs. L’individu se sent donc motivé par de meilleures performances dans le travail et de
meilleurs rapports avec autrui dans le milieu professionnel.
L’apprentissage est un processus actif selon lequel le stagiaire réagit au milieu et à l’activité de
formation. Comme il s’engage sur le plan mental, physique et émotionnel, le stagiaire subit
un changement de comportement. Un excès de tension mentale ou émotionnelle au cours du
processus risque ainsi d’aller à l’encontre du but recherché.
a) Disponibilité: plus les stagiaires sont intéressés et disposés à apprendre, plus l’apprentissage
est rapide;
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1269
b) Objectifs: les objectifs de la formation (y compris les critères de rendement) devraient être
clairs dans l’esprit des responsables et des intéressés;
d) Associations mentales: l’apprentissage devrait établir des associations avec les expériences
passées, faire ressortir similitudes et différences;
h) Efficacité: le fait d’éprouver une satisfaction est plus positif pour l’apprentissage que celui
d’éprouver de l’embarras ou de l’agacement. L’approbation stimule l’apprentissage;
i) Appui: le superviseur du stagiaire doit avoir une attitude positive au sujet de la formation
suivie et doit y apporter son soutien et la renforcer;
Des recherches (Moss, 1987) ont montré que nos sens contribuent inégalement au processus
d’apprentissage:
a) La vue à 83 %;
b) L’ouïe à 11 %;
La meilleure façon d’apprendre est cependant la pratique. Voici une liste de méthodes et de
moyens pédagogiques classés par ordre général décroissant d’efficacité:
Il est évidemment possible de combiner ces différentes méthodes. Un bon cours magistral peut
intégrer certaines autres méthodes.
Les méthodes classiques d’enseignement reposent en grande partie sur la parole et l’écrit alors
qu’il est prouvé que les méthodes visuelles et l’expérience pratique sont bien plus efficaces.
Pour former des spécialistes des instruments, on peut tirer parti de toutes sortes de méthodes
et de moyens. Les éléments théoriques du mesurage et de la conception des instruments sont
enseignés lors de cours magistraux reposant sur des textes et des formules, les formateurs
pouvant s’aider de graphiques et de diagrammes. Pour inculquer des connaissances pratiques
sur les systèmes d’instruments, et notamment sur leur fonctionnement, leur entretien et leur
étalonnage, les formateurs tirent parti de photographies accompagnées de textes, de films ou de
vidéos de réglages manuels, de modèles qu’il est possible de démonter, de démonstrations, pour
en venir enfin à la pratique sur des systèmes en exploitation. Il est possible aussi de simuler des
pratiques ou des modes d’utilisation dangereux.
Un service technique spécialisé dans les systèmes d’instruments météorologiques requiert des
individus possédant les compétences voulues dans divers domaines techniques, mais ayant aussi
de bonnes connaissances générales et étant capables de bien s’exprimer tant oralement que par
écrit. Il est indispensable, particulièrement pour les cadres, de savoir bien communiquer pour
appuyer des programmes techniques ou argumenter en leur faveur. Il convient de proposer
aux techniciens qualifiés faisant preuve des capacités voulues des cours de formation qui leur
permettront d’influer davantage sur les décisions qui touchent à l’évolution de leur Service
météorologique.
Les individus davantage portés sur les chiffres et sur les aspects pratiques et manuels ont souvent
tendance à moins bien communiquer oralement et par écrit. Chaque année, lors du contrôle
personnel du rendement, les cadres devraient saisir les occasions qui peuvent se présenter pour
améliorer les compétences des membres du personnel qui correspondent à la description qui
précède, notamment en leur proposant de suivre des cours spéciaux portant par exemple sur
l’art de s’exprimer en public, sur la négociation, sur la rédaction de lettres et de rapports ou sur
l’affirmation de soi. Certains employés pourront avoir besoin d’une aide pour apprendre une
deuxième langue afin de poursuivre leur formation.
De nos jours, les gestionnaires ont la possibilité de se servir d’un ordinateur personnel et de
manier des logiciels bureautiques ou techniques, y compris le traitement de texte, les tableurs,
les bases de données, l’analyse statistique avec graphiques, le dessin industriel, le tracé
d’organigrammes et la gestion de projets. Des cours de formation à l’utilisation de ces outils
peuvent améliorer notablement la productivité personnelle.
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1271
Tout au long de leur carrière, les spécialistes des instruments devraient s’attendre à participer
à des cycles répétés de formation, qu’il s’agisse d’études structurées, de formation en cours
d’emploi ou encore d’autoformation. Il est possible de distinguer trois phases de formation:
a) Une formation de base au cours de laquelle sont acquis les éléments théoriques et pratiques
généraux correspondant aux différents niveaux de classification;
Les spécialistes des instruments reçoivent leur formation technique de base en partie dans un
établissement technique extérieur et en partie dans le centre de formation du SMHN, où ils
suivent notamment un cours général sur les instruments météorologiques. Il faut noter que,
par une formation technique ou d’ingénieur, on peut accéder aux deux classes de personnel de
l’OMM.
La formation complémentaire est répartie sur quelques années au cours desquelles le spécialiste
suit des cours de spécialisation sur certains systèmes (par exemple les stations météorologiques
automatiques ou les radars) ou encore dans des disciplines telles que les logiciels informatiques
ou la gestion. Au cours de cette phase, on fait davantage appel à des ressources extérieures, y
compris des formations financées par l’OMM.
5.3.7.4 Recyclage
Tout au long de leur carrière, les spécialistes des instruments sont appelés à suivre
périodiquement des cours de mise à jour de leurs connaissances compte tenu de l’évolution des
instruments et des techniques, ainsi que d’autres cours complémentaires.
Les trois phases de la formation sous‑entendent une progression. Les cours sont suivis en
fonction des connaissances acquises lors de précédents cours.
À certains moments de leur carrière, la plupart des spécialistes des instruments sont appelés à
tenir le rôle important et motivant de formateur. Certains en font leur métier, dans leur domaine
de spécialisation. Tous doivent savoir quelles sont les qualités d’un bon formateur.
1272 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Un bon formateur doit avoir à cœur la qualité des résultats qu’il obtient, connaître parfaitement
ses domaines de spécialisation et savoir communiquer. Il doit savoir s’identifier aux stagiaires,
faire preuve de patience et de tolérance, être disposé à encourager et à féliciter autrui, faire
preuve de souplesse et d’imagination et maîtriser différentes techniques pédagogiques.
Un bon formateur fixe des objectifs clairs et sait organiser et préparer ses cours avec soin. Il tient
soigneusement à jour des dossiers sur les directives relatives à la formation, les programmes
d’études, les notes de cours, les cours dispensés, et les résultats obtenus, et sur les budgets
et les dépenses. Il obtient des stagiaires des commentaires sincères sur son travail et doit être
disposé à modifier son approche pédagogique. Il doit s’attendre à apprendre lui‑même de façon
permanente.
Un spécialiste des instruments doit recevoir une formation lui permettant d’exécuter de
nombreuses tâches répétitives ou complexes en ce qui concerne l’installation, l’entretien et
l’étalonnage des instruments, et parfois leur fabrication. Il est possible d’utiliser un formulaire
d’analyse des tâches pour définir comment un travail doit être accompli. Ce formulaire peut
ensuite servir au formateur pour les besoins de la formation, puis au stagiaire comme liste de
contrôle. On inscrit d’abord les objectifs du travail à accomplir et les critères de rendement à
atteindre. Le travail est ensuite décomposé en étapes ou phases logiques de taille pratique,
notamment sous la forme d’un tableau dont les colonnes s’intitulent par exemple comme suit:
a) Étapes (ce qu’il faut exécuter): elles sont numérotées et comportent une brève description
commençant par un verbe d’action;
Pour bien montrer comment s’imbriquent les différentes étapes d’un travail à accomplir, il peut
être bon de les indiquer sur un organigramme, en particulier lorsque l’ordre des étapes est
important ou que le mode opératoire présente des ramifications.
a) La planification:
iii) Évaluer le niveau des stagiaires: leurs qualifications, leur expérience professionnelle,
leurs aptitudes linguistiques, leurs problèmes particuliers;
iv) Évaluer le niveau de qualification requis: quels stagiaires pourraient avoir besoin d’une
attention particulière?;
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1273
v) Fixer les objectifs de la séance: quels sont les résultats à atteindre et comment les
mesurer?;
b) La préparation:
ii) Décider des méthodes et des moyens pédagogiques à employer qui correspondent au
sujet traité pour éveiller l’intérêt des stagiaires et retenir leur attention (voir la section
5.4.5);
iii) Établir un plan de séance détaillé comprenant le temps à consacrer à chaque activité;
iv) Prévoir l’évaluation: quelles sont les informations requises et comment les recueillir?
Choisir une méthode et préparer les questions ou le devoir;
c) La présentation:
Objectifs
de l’employeur
Planifier
Préparer
Évaluer
Présenter
Organisme
employeur
Étudiants
d) L’évaluation:
vi) Recueillir les commentaires des stagiaires et utiliser l’information pour la planification
de la prochaine séance.
La formation sera d’autant plus efficace que ces stages seront organisés avec soin et méthode.
L’évaluation est le processus qui consiste à recueillir certains éléments d’information et à les
transmettre à ceux qui peuvent influer sur le futur rendement de la formation. Les méthodes
d’évaluation diffèrent en fonction du destinataire de l’information:
a) L’OMM s’attache à améliorer la qualité des données recueillies dans le Système mondial
d’observation. Elle élabore des programmes de formation professionnelle, crée des fonds
et utilise les services d’experts principalement pour renforcer les bases de compétence des
pays en développement;
Il faudrait donc évaluer l’efficacité de la formation à plusieurs niveaux. Les centres nationaux et
régionaux de formation professionnelle pourront évaluer leurs programmes tous les ans ou tous
les trois ans et établir des comparaisons entre le nombre de stagiaires des différents cours et le
nombre de stagiaires ayant obtenu la note de passage et les budgets et objectifs qui ont été fixés
au début de chaque période. Les formateurs auront besoin d’évaluer la pertinence et l’efficacité
du contenu et de la présentation de leurs cours.
après une formation. Les critères d’évaluation peuvent inclure par exemple les données de
mauvaise qualité et le nombre d’éléments manquants dans les messages météorologiques,
le temps nécessaire aux installations et le coût des installations.
Les formateurs aussi ont besoin d’être formés, pour se tenir au courant des progrès techniques,
pour apprendre à utiliser de nouvelles techniques et de nouveaux moyens pédagogiques et pour
pouvoir jeter un œil nouveau sur leur travail. Les SMHN devraient prévoir dans leurs budgets
annuels des fonds qui permettront au personnel de formation de saisir, probablement par
rotation, les possibilités de formation qui se présenteront.
Les possibilités de formation sont variées: études personnelles, cours de durée limitée
(notamment sur les techniques pédagogiques) dispensés par des établissements techniques,
congés d’études pour obtenir de meilleures qualifications, visites de fabricants de matériel
météorologique, visites et détachements dans d’autres SMHN et d’autres centres régionaux
d’instruments et participation à des conférences sur la formation ou sur des sujets techniques,
organisées par l’OMM ou d’autres organisations.
La liste ci‑après contient uniquement de courtes remarques pour rappeler ou montrer ce que
permettent différentes méthodes pédagogiques. D’autres sources fournissent davantage de
détails sur le sujet, notamment Moss (1987) et Craig (1987):
a) Études de cas:
ii) Il peut être demandé que les résultats soient présentés sous la forme d’une
documentation en bonne et due forme, comme ce serait le cas dans une situation
réelle;
b) Cours magistraux:
ii) Compléter l’exposé par des moyens visuels et la distribution de documents écrits se
révèle fort utile;
iii) Certains langages informatiques tels que Toolbook pour PC et HyperCard pour
Macintosh sont conçus expressément pour élaborer et présenter des cours de
formation interactifs en hypermédia;
iv) Dotés d’écrans graphiques couleur, les systèmes modernes permettent de visualiser
des diagrammes, des photographies et de courtes séquences vidéo; une interface
graphique améliore l’interactivité entre l’utilisateur et le programme;
vi) Des systèmes perfectionnés peuvent comprendre des vidéodisques laser, des DVD
ou des CD‑ROM sur lesquels sont stockés de façon permanente des textes et des
séquences vidéo en quantité importante;
vii) Les coûts d’équipement en systèmes d’enseignement assisté par ordinateur, y compris
l’élaboration de logiciels, varient énormément; ces systèmes commencent à remplacer
le matériel didactique multimédia et les aides de formation magnétoscopiques;
ii) L’enseignant note les devoirs et les renvoie au stagiaire avec la leçon suivante;
iii) Les stagiaires ont parfois la possibilité de communiquer par téléphone avec
l’enseignant pour lui faire part des difficultés qu’ils éprouvent;
iv) Certains cours peuvent comprendre des cassettes audio ou vidéo, ou encore des
disques informatiques, à condition que le stagiaire ait accès au matériel indispensable;
v) Le cours peut comporter un examen final qui se tient dans un centre de formation;
e) Démonstrations:
ii) Il s’agit d’une étape obligatoire de la formation initiale aux modes opératoires manuels
d’entretien et d’étalonnage;
iii) Les stagiaires doivent avoir la possibilité de répéter eux‑mêmes les modes opératoires
et de poser des questions;
f) Formation à distance:
i) Un formateur communique avec une classe se trouvant à distance grâce à une liaison
téléphonique spéciale. Les stagiaires étudient à partir d’un texte imprimé, chacun
disposant d’un microphone qui lui permet de dialoguer avec le formateur. À cet effet,
il est possible d’utiliser tout moyen de communication fiable approprié, y compris une
liaison par satellite. La rentabilité d’une telle méthode soulève évidemment la question
du coût des communications;
ii) Des systèmes plus élaborés et plus coûteux permettent aux stagiaires de travailler
sur des ordinateurs connectés en réseau, entre eux et avec celui du formateur à
distance. Le formateur peut aussi donner son cours à partir d’un studio de télévision
spécialement équipé. Son image est alors transmise sur un écran de télévision placé
dans la classe, elle‑même équipée d’une caméra et de micros pour que le formateur
puisse voir et entendre les stagiaires;
i) Ceux‑ci sont souvent proposés aux stagiaires à la suite d’un exposé ou d’une
démonstration;
iii) Un devoir peut exiger une recherche ou consister en une tâche pratique;
i) Expositions:
i) Elles regroupent un matériel et des modèles d’exposition que les stagiaires peuvent
examiner;
ii) Elles donnent aux stagiaires une vue d’ensemble lorsque les appareils utilisés en
situation réelle sont trop complexes ou trop éloignés;
ii) Des visites chez des fabricants de matériel météorologique et dans d’autres Services
météorologiques permettent aux spécialistes d’élargir leurs connaissances techniques;
ii) Le chef de groupe devrait encourager tous les membres du groupe à participer;
iii) Un rapporteur note les idées sur un tableau à la vue de tout le groupe;
iv) Au cours d’une séance collective de créativité, toutes les idées sont d’abord acceptées
sans critiques; le groupe les examine ensuite dans le détail et les classe par ordre
d’utilité;
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1279
ii) Les stagiaires peuvent être détachés durant une période déterminée auprès
d’autres services, de fabricants ou d’autres Services météorologiques afin d’acquérir
une expérience pratique que ne peut leur fournir leur propre service ou Service
météorologique;
iii) Les détachements internationaux s’adressent à des stagiaires d’un très bon niveau et
sont en général financés par des accords bilatéraux ou des bourses;
m) Moyens multimédia:
i) Les moyens utilisés sont les transparents, les vidéocassettes, les DVD et les CD‑ROM;
ii) Ces supports d’information nécessitent l’accès à un matériel onéreux compatible avec
ceux‑ci;
iv) Les programmes devraient comprendre des exercices, des questions et des sujets de
discussion;
n) Enseignement individualisé:
i) Le formateur travaille aux côtés d’un stagiaire qui doit acquérir une compétence
particulière;
ii) Cette méthode peut s’appliquer à une formation de rattrapage ou à une formation
supérieure;
ii) La formation en cours d’emploi, qui nécessite certaines explications et mises en garde
préalables, est bien adaptée notamment à l’enseignement de toutes les pratiques
nécessitant de grandes aptitudes manuelles ou lorsqu’il est trop difficile ou onéreux de
reproduire le matériel ou les conditions nécessaires dans un laboratoire ou un atelier.
Citons en exemple l’installation de certains appareils, certaines opérations d’entretien
et des étalonnages complexes;
iii) Cette méthode tire parti des ressources humaines et matérielles disponibles et
n’exige ni déplacements, ni personnel ou aménagements particuliers; elle répond aux
besoins locaux. Elle est particulièrement bien adaptée quand l’enseignement pratique
l’emporte nettement sur l’enseignement théorique, notamment pour la formation de
techniciens;
iv) Les dangers y afférents sont les suivants: elle peut devenir une méthode de formation
normale, employée par défaut, alors qu’une formation plus structurée avec une solide
1280 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
composante théorique est requise pour produire des spécialistes aux connaissances
plus complètes; le choix des superviseurs peut ne pas tenir compte de leurs capacités;
la formation risque d’être trop restreinte et présenter des lacunes importantes; il est
possible aussi que l’efficacité de la formation ne soit pas mesurée avec objectivité;
c. Un superviseur qualifié dans ces matières, qui soit bon formateur, possède
une bonne technique de l’enseignement, soit patient et sache donner des
encouragements;
p) Pédagogie active:
i) Les stagiaires, qui sont les artisans du processus d’apprentissage, partagent leurs
connaissances et leurs expériences pratiques;
ii) Les stagiaires forment des groupes d’étude ou des équipes dans lesquels ils choisissent
leurs propres chefs;
iii) Cette méthode est employée pour produire des idées, résoudre des problèmes, établir
des plans, élaborer des projets et former des cadres;
ii) Les stagiaires, réunis en petits groupes, assument à tour de rôle les fonctions de
formateur, enseignent aux autres et répondent à leurs questions;
r) Enseignement programmé:
ii) Les stagiaires travaillent seuls et à leur propre rythme selon un programme structuré
dont les cours sont imprimés, multimédia ou informatisés;
iv) Le matériel didactique est cher à produire et les cours n’offrent qu’un nombre restreint
d’options.
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1281
Il est préférable d’avoir un bon professeur plutôt que de disposer d’un matériel didactique
onéreux.
5.4.6 Télé‑enseignement
Certains établissements de formation spécialisés dans les cours extra‑muros diffusent des cours
à des stagiaires distants soit sur une chaîne de télévision spéciale soit à certaines heures sur des
chaînes commerciales.
a) La vidéo est un moyen intéressant puisqu’elle permet d’enregistrer des modes opératoires
et de les visionner ensuite autant de fois que nécessaire, lorsqu’il est difficile de disposer
d’un système d’instruments et d’un formateur qualifié;
b) Un cours utilisant cette méthode peut inclure des coupures consacrées aux questions;
d) Les vidéos professionnelles sont chères et il y en a peu qui traitent des instruments
météorologiques; cependant, des amateurs peuvent réaliser des vidéos techniques à usage
local à l’aide d’un matériel peu onéreux, en particulier si la réalisation est bien planifiée et
que les commentaires techniques sont enregistrés sur la piste son dans un deuxième temps.
Outre les moyens suggérés dans la section ci‑dessus, les formateurs et les cadres ne devraient pas
négliger les sources d’informations et de référence à leur disposition, les possibilités de formation
à l’extérieur de leurs services, les compléments de formation que proposent d’autres organismes
de formation et en particulier les ressources financières allouées aux activités de formation.
En général, les SMHN n’ont pas la possibilité de dispenser un enseignement et une formation
professionnelle techniques complets à leurs spécialistes des instruments. Pour ce qui est de
la formation de base, de la formation complémentaire et du recyclage dans les techniques de
pointe, ils dépendent donc, à des degrés différents, d’organismes de formation extérieurs.
Les responsables de la technogénie météorologique doivent être au courant des programmes
d’études que proposent les organismes nationaux pour être en mesure de conseiller leur
personnel quant aux cours qu’il convient de suivre. L’OMM (2001, 2002) produit des directives
sur les programmes d’études exigés pour les postes de spécialistes des instruments des
différentes classes.
Lorsque les SMHN recrutent à l’extérieur des spécialistes des instruments ayant des compétences
techniques poussées, il est souhaitable que ceux‑ci aient suivi le programme d’études d’un
organisme national de formation reconnu. Ils doivent ensuite compléter leur formation en
météorologie et en techniques et instruments de mesure météorologiques.
1282 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
Sur recommandation de la CIMO2, plusieurs associations régionales de l’OMM ont créé des
centres régionaux d’instruments chargés d’entretenir les étalons et de prodiguer des conseils.
Leurs coordonnées et leur mandat figurent à l’annexe 1.A du chapitre 1 de la partie I.
Les centres régionaux d’instruments concentrent des compétences concernant les divers types
d’instruments, leurs caractéristiques, leurs performances, leurs applications et leur étalonnage.
Ils sont dotés d’une bibliothèque scientifique et technique sur les instruments, d’un laboratoire
et d’un matériel de démonstration. Ils sont chargés de conserver un ensemble d’instruments
étalons qu’il est possible de raccorder aux étalons internationaux par étalonnages successifs. Ils
devraient pouvoir offrir des informations, des conseils et une aide aux Membres de leur Région.
Lorsque cela est possible, ces centres sont combinés avec un centre radiométrique régional et
peuvent se situer dans un centre régional de formation professionnelle ou à proximité de celui‑ci
afin que les compétences et les ressources soient partagées.
Les centres régionaux d’instruments devraient favoriser l’emploi des meilleures méthodes
pédagogiques et donner accès à des ressources et à des moyens de formation hors de portée des
SMHN. Ces centres doivent prévoir, pour leurs propres experts, des cours de perfectionnement
axés sur des techniques de pointe, mais aussi sur des méthodes modernes de formation, afin de
maintenir un niveau élevé de compétence.
Ces centres sont des centres d’expertise des types, des caractéristiques, des performances,
des applications et de l’étalonnage d’instruments. Ils disposent d’une bibliothèque technique
consacrée à la science et à la pratique des instruments, de laboratoires et d’un matériel de
démonstration. Ils entretiennent un ensemble d’étalons dont l’étalonnage est traçable par
rapport à des normes internationales. Ils devraient pouvoir offrir des informations, des conseils et
une aide aux Membres de leur Région.
Ces centres devraient donner leur caution aux meilleures méthodes d’enseignement et proposer
des ressources et des moyens de formation. Afin de maintenir leur capacité, ils organisent
une remise à niveau de leurs propres experts en matière de méthodes de formation et de
connaissances de pointe.
2
Recommandation 19 (CIMO‑IX), adoptée par la Commission des instruments et des méthodes d’observation lors de
sa neuvième session (1985).
3
Recommandation 1 (CMOM‑III), adoptée par la CMOM à sa troisième session (2009).
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1283
On trouvera dans les publications OMM (2001, 2002) le détail de programmes d’études pour les
spécialisations en instruments météorologiques et en télécommunications météorologiques. Il
convient de s’en inspirer en fonction des besoins et des normes de formation technique fixées à
l’échelon national.
L’OMM mène périodiquement des études sur les besoins en matière de formation par
région, classe de personnel et spécialisation dans les différents domaines d’application de la
météorologie. Les résultats obtenus lui permettent de sélectionner les activités de formation
qu’elle finance durant une période de quatre ans. Il importe que les pays Membres présentent
à l’OMM une évaluation complète de leurs besoins en spécialistes des instruments pour que
l’Organisation soit en mesure de tenir compte des véritables besoins dans ses activités de
formation.
Les spécialistes des instruments et leurs supérieurs trouveront des éléments d’information
intéressants dans ces publications. L’OMM (1986b) a publié deux volumes qui constituent un
recueil de notes de cours sur les instruments météorologiques pour la formation du personnel
météorologique de niveau technicien, dont on peut s’inspirer en classe ou dans une formation
personnalisée.
Les responsables des groupes techniques devraient se tenir au courant des possibilités de
formation technique annoncées par l’OMM. Ils devraient pour cela entretenir des rapports
avec leur service de formation et avec la personne qui reçoit le courrier y afférent dans leur
organisation. Les possibilités de formation sont les suivantes:
b) Bourses d’études: l’OMM octroie des bourses d’études dans le cadre du Programme
de coopération technique. Les fonds proviennent de plusieurs sources, y compris le
Programme des Nations Unies pour le développement, le Programme de coopération
volontaire, les fonds d’affectation spéciale de l’OMM, le budget ordinaire de l’Organisation
et d’autres programmes d’aide bilatérale. Les bourses, qui peuvent être de courte (moins
de 12 mois) ou de longue (plusieurs années) durée, sont octroyées pour des études ou une
formation dans des universités, des organismes de formation ou plus spécialement dans des
centres régionaux de formation professionnelle relevant de l’OMM, à différents niveaux:
cours sanctionnés par un diplôme universitaire, études postuniversitaires, études de niveau
supérieur non sanctionnées par un diplôme, cours de formation spécialisée, formation en
cours d’emploi et formation technique au fonctionnement et à l’entretien du matériel. Toute
demande de bourse doit d’abord être approuvée par le représentant permanent auprès
de l’OMM du pays du candidat, celui‑ci ne pouvant en effet la présenter directement à
l’OMM. Elle doit comporter une description précise de la formation requise et une liste
de priorités. Sachant qu’il faut compter en moyenne huit mois pour établir le programme
de formation d’un candidat, compte tenu de la complexité des consultations nécessaires
entre le Secrétariat de l’OMM et les pays donateurs et bénéficiaires, il convient de déposer
les demandes longtemps avant la période de formation proposée. Ce qui précède n’est
qu’un résumé des conditions d’octroi de bourses d’études. Il faut s’adresser au Secrétariat
de l’OMM pour obtenir tous les renseignements voulus à ce sujet et des formulaires de
candidature. Les conditions d’admission étant très strictes, le dossier de demande doit être
complet.
Outre les bourses d’études de l’OMM, des organismes de certains pays proposent d’excellents
programmes de formation pouvant répondre aux besoins de certains candidats. Les
spécialistes des instruments devraient se renseigner sur ces possibilités de formation auprès des
représentants du pays ou de l’organisme dans leur propre pays.
a) Achat de nouveaux systèmes d’acquisition de données: tous les contrats de vente de grands
systèmes d’acquisition de données (y compris pour l’exécution de programmes financés
par des donateurs) devraient accorder une place suffisante à la formation du personnel local
à l’exploitation et à l’entretien des systèmes. Les représentants du Service météorologique
national bénéficiaire devraient être en mesure de bien évaluer la formation offerte
afin d’en négocier les conditions. La formation sur un nouveau système est dispensée
habituellement au moment de la mise en service, mais il est bon aussi de prévoir une séance
complémentaire après six mois d’exploitation ou lorsqu’un problème d’entretien important
apparaît.
b) Essai d’acceptation en usine, installation et mise en service: les travaux relatifs à la mise en
place d’un système important d’acquisition de données, tel qu’un système de réception de
signaux de satellites ou un radar, donnent aux stagiaires une occasion unique de se former
et d’apprendre notamment les critères techniques très rigoureux à appliquer.
L’essai d’acceptation est le processus qui consiste à faire subir au système une batterie de
tests convenus au préalable pour vérifier que le cahier des charges est bien respecté, avant
acceptation du système par l’acquéreur puis expédition.
CHAPITRE 5. FORMATION DES SPÉCIALISTES DES INSTRUMENTS 1285
Au cours de l’installation, il arrive souvent que les ingénieurs du fournisseur soient amenés
à travailler en collaboration avec les ingénieurs de l’acquéreur. Il peut falloir intégrer aussi
dans cette opération d’autres éléments, comme le bâtiment, l’alimentation électrique, les
télécommunications et le traitement de données.
La mise en service consiste à effectuer des tests convenus au préalable une fois l’installation
achevée afin de s’assurer une fois encore que le système correspond bien au cahier des
charges.
Un pays peut saisir l’occasion fournie par l’installation et la mise en service d’un système
d’instruments important pour inviter des stagiaires d’un autre pays, dans le cadre d’une
entente bilatérale, à venir assister à ces opérations.
Les expériences à grande échelle organisées lors de l’exécution de programmes tels que le
Programme climatologique mondial, le Programme consacré à la recherche atmosphérique et
à l’environnement, le Programme concernant les cyclones tropicaux ou le Programme d’étude
des océans tropicaux et de l’atmosphère du globe peuvent donner à des spécialistes locaux
des instruments l’occasion de participer à des campagnes de mesure auprès de collègues plus
chevronnés et d’en tirer des enseignements utiles.
Lorsqu’il y a lieu, la CIMO désigne une catégorie de mesures météorologiques qu’il convient
d’étudier en particulier afin de faire avancer les connaissances. Il est alors organisé une
comparaison d’instruments de marques différentes fournis par des Membres, selon des
conditions normalisées dans les installations d’un pays hôte. Un comité d’organisation se charge
de planifier la comparaison et présente ensuite dans son rapport les caractéristiques et les
performances des différents instruments.
Lorsqu’ils peuvent être associés à ce type d’opération, les spécialistes des instruments ont la
possibilité de tirer des enseignements utiles de leur participation à certaines des activités dans
les domaines suivants: conception expérimentale, exposition des instruments, techniques
d’exploitation, échantillonnage de données, acquisition de données, traitement de données,
analyse et interprétation des résultats. Si de telles comparaisons peuvent être organisées dans
des centres régionaux d’instruments, il y a peut‑être lieu d’envisager la possibilité de tenir
parallèlement un cours de formation spécial.
Les activités de formation entraînent des dépenses importantes, mais les ressources seront
probablement toujours limitées. Il est donc indispensable de fixer les coûts de différentes options
1286 PARTIE IV. ASSURANCE DE LA QUALITÉ ET GESTION DES SYSTÈMES D’OBSERVATION
de formation et de les comparer, de contrôler toutes les activités de formation sous l’angle
du rapport coût‑efficacité et de prendre les bonnes décisions. Globalement, dans un SMHN,
l’investissement dans la formation doit être perçu comme productif.
Les coûts peuvent être répartis entre les coûts directs imputables à la tenue de certains cours
de formation et les coûts indirects ou frais généraux engagés pour offrir des installations et
des moyens de formation. Il est possible d’affecter à chaque activité de formation une certaine
partie des coûts indirects et des coûts directs d’exploitation. Lorsque les installations servent à
de nombreuses activités tout au long de l’année, les coûts indirects par activité sont faibles et
l’exploitation de ces installations est alors rentable.
Il est possible d’inclure dans les coûts directs les frais de déplacement des stagiaires et des
enseignants, les frais de logement, les frais de repas et les indemnités journalières, le prix des
cours et des enseignants, les dépenses afférentes au personnel de l’OMM, le coût des notes
fournies aux stagiaires et des consommables particuliers au cours ainsi que le coût des congés de
formation des stagiaires.
Il est possible d’inclure dans les coûts indirects ou frais généraux les bâtiments du centre de
formation (classes, ateliers et laboratoires), les coûts afférents au matériel et les dépenses
courantes, les salaires des enseignants et du personnel administratif, les frais généraux
d’administration de l’OMM, le coût de production du matériel didactique (cours nouvellement
conçu, notes documentaires, matériel audiovisuel) et le coût des consommables généralement
utilisés pour les besoins de la formation.
Voici comment se classent, par ordre croissant, les divers types de formations en fonction des
coûts généraux (ce qui dépend de l’efficacité avec laquelle les ressources sont exploitées):
c) Cours audiovisuels;
e) Cours nationaux donnés dans des centres où les participants doivent se rendre;
Région
Pays Nom du centre de
l’OMM
Afrique du Service météorologique sud‑africain, Pretoria I
Sud
Région
Pays Nom du centre de
l’OMM
Philippines Département de météorologie et d’océanographie, Université des Philippines; V
et Centre de formation de l’Administration des sciences atmosphériques
géophysiques et astronomiques des Philippines (PAGASA), Quezon City
Craig, R.L. (dir.), 1987: Training and Development Handbook: A Guide to Human Resource Development.
McGraw‑Hill, New York.
Imai, M., 1986: Kaizen: The Key to Japan’s Competitive Success. Random House, New York.
Moss, G., 1987: The Trainer’s Handbook. Ministry of Agriculture and Fisheries, Nouvelle‑Zélande.
Organisation internationale de normalisation, 2005: Systèmes de management de la qualité – Principes
essentiels et vocabulaire. ISO 9000:2005, Genève.
———, 2008: Systèmes de management de la qualité – Exigences. ISO 9001:2008, Genève.
———, 2009: Gestion des performances durables d'un organisme – Approche de management par la qualité.
ISO 9004:2009, Genève.
———, 2011: Lignes directrices pour l'audit des systèmes de management. ISO 19011:2011, Genève.
Organisation météorologique mondiale, 1986a: Catalogue of Meteorological Training Publications and
Audiovisual Aids. Quatrième édition, Education and Training Programme Report No. 4
(WMO/TD‑No. 124), Genève.
———, 1986b: Recueil de notes de cours sur les instruments météorologiques pour la formation du personnel
météorologique des classes III et IV (D.A. Simidchiev) (OMM‑N° 622), Genève.
———, 1990: Guidance for the Education and Training of Instrument Specialists (R.A. Pannett). Education and
Training Programme Report No. 8 (WMO/TD‑No. 413), Genève.
———, 2001: Directives pour la formation professionnelle des personnels de la météorologie et de l’hydrologie
opérationnelle (OMM‑N° 258), Volume I: Météorologie, Genève.
———, 2002: Initial Formation and Specialisation of Meteorological Personnel: Detailed Syllabus Examples
(WMO/TD‑No. 1101), Genève.
———, 2010: Guide du Système mondial d’observation (OMM‑N° 488), Genève.
Walton, M., 1986: The Deming Management Method. Putnam Publishing, New York.
Pour de plus amples informations, veuillez vous adresser à:
public.wmo.int
JN 171233