Vous êtes sur la page 1sur 70

COURS 

: TRAITEMENT ET TRANSPORT DE L’IMAGE

CHAPITRE 1 : LES IMAGES DE TÉLÉDÉTECTION

1.1. RADAR IMAGEUR

Un radar imageur est un radar actif qui émet un faisceau d'impulsions dans le domaine des
longueurs d'onde centimétriques ou millimétriques pour représenter en deux ou trois dimensions
l'environnement exploré.
Cette imagerie a des applications tant civiles que militaires. Les systèmes radar peuvent être
montés sur des satellites ou des avions, mais peuvent également fonctionner au sol. Les radars imageurs
aéroportés servent à cartographier la terre et les autres planètes, en utilisant la sélection de la longueur
d'onde permettant de s'affranchir de la présence de nuages ou de la poussière en forte densité. Cette
cartographie du sol permet d'étudier les changements de la croûte planétaire ou l'utilisation des sols, les
zones humides, etc.
Les radars météorologiques, les géoradars et la tomographie à micro-ondes en médecine sont
tous d'autres radars imageurs, mais cette fois au sol.

1.1.1. Principe

Le radar primaire classique est conçu pour montrer la position et le déplacement de cibles très
réflectives sur des affichages en coordonnées cartésiennes ou polaires à partir de l'écho du faisceau
émis, sans préciser la forme de l'objet. Les radars imageurs utilisent plutôt une série d'impulsions
cohérentes décalées dans le temps et l'espace, mais illuminant les mêmes points, pour obtenir une image
complète de l'environnement sondé.
Plusieurs techniques ont été développées pour obtenir ces images, la plupart utilisent l'effet
doppler lié à la vitesse relative radiale entre le radar et la cible, l'interférométrie entre les différents échos
venant du même endroit et l'effet stéréoscopique entre deux points de vue différents. Les plus connues
sont le radar à visée latérale, le radar à synthèse d'ouverture (RSO) et le radar à synthèse d'ouverture
inverse(RSOI).

a sur rrr
Figure 1.1 : Principe du radar imageur

1.1.2. Techniques

Radar à visée latérale

Un radar à visée latérale (RVL) est un radar dont l'antenne est orientée latéralement par rapport à
son porteur. En pratique, ce terme désigne des radars imageurs embarqués qui explorent en vol une
zone décalée latéralement par rapport à la trajectoire du véhicule et pour lesquels la résolution azimutale
est directement liée à l'ouverture réelle de l'antenne utilisée. Il sert à produire des bandes de grande
définition présentant des détails semi-photographiques.

Figure 1.2 : Radar à visée latérale

Radar à synthèse d'ouverture

Un radar à synthèse d'ouverture (RSO) effectue un traitement des données afin d'améliorer la
résolution en azimut. Comme le radar se déplace, le même point est illuminé plusieurs fois. On obtient
une série de données pour chaque point sous le radar. En combinant la variation d'amplitude et de
phase de ces échos, le traitement de synthèse d'ouverture permet d'obtenir des images des zones
observées comme si on utilisait une large antenne à très grande résolution.

b sur rrr
Figure 1.3 : Radar à synthèse d'ouverture

1.2. LES IMAGES SATELLITE


1.2.1. La résolution des images
Les capteurs à bord des satellites possèdent chacun leurs caractéristiques spatiales pour
enregistrer les images. En télédétection, on ne parle pas d’échelle comme pour une photo aérienne,
mais de résolution spatiale, qui donne la précision des images.
La résolution d'une image est déterminée par la plus petite surface que le satellite peut détecter
au sol. Cette surface est exprimée sur l'image par les pixels, acronyme formé par les mots « picture
element ». Une série de pixels compose une image satellite. C'est aussi le cas d'une photo numérisée par
un ordinateur.

Ainsi, lorsqu'on dit qu'une image a une résolution de 30 mètres, cela signifie que
chaque pixel qui constitue l'image représente une superficie de 30 mètres sur 30 mètres au sol.
Donc, plus la résolution d'une image est grande, plus l'image est précise.
Cependant, plus on augmente la résolution, plus la superficie couverte par l'image est petite.
Donc, ce qu'on gagne en précision, on le perd dans la vue d'ensemble. L'exemple d'un terrain de
baseball sur des images de la région illustre bien ce phénomène :
 l'image prise par un satellite à une résolution de 10 mètres permet d'observer l'emplacement du
terrain et son environnement;

c sur rrr
 l'image prise par un avion à une résolution d'un mètre permet de circonscrire le terrain de
baseball et de voir des détails à l'intérieur même du terrain.

1.2.2. Image numérique

De façon générale, une image est un support d’informations. Elle présente les éléments
d’une scène qui a été captée soit par un appareil photographique, soit par un satellite. Les
images de télédétection sont généralement issues de capteurs embarqués à bord de satellites,
et aussi parfois de photographies aériennes. Une image peut avoir plusieurs définitions, selon
les contextes. En traitement du signal, on définit une image comme étant un signal
bidimensionnel. Mathématiquement parlant, une image est une application d’un sous-
ensemble MxN de RxR vers l’ensemble des réels R, qui, à chaque couple de réels (x,y) associe
le réel f(x,y) :

f : (M x N) → R

(x,y) → f(x,y)
Le sous-ensemble (MxN) estconstitué de couples d’entiers (x,y) tels que
et . NC et NL représentent les dimensions de l’image
x ∈ {0,1,2 , … , NC } y ∈ { 0,1,2, … , NL }
numérique. NC est le nombre de colonnes de l’image et NL est le nombre de lignes de
l’image. Une image est constituée d’un ensemble de points élémentaires appelés pixels. Le
couple de réels (x,y) représente la position spatiale d’un pixel, et la valeur f(x,y) représente le
niveau de gris du pixel. Le niveau de gris d’un pixel est une grandeur proportionnelle à
l’intensité du signal réfléchi par ce pixel lorsqu’il est radié notamment par une onde
électromagnétique. Les niveaux de gris de pixels ont une gamme variée de domaines de
valeurs, selon le type d’image. Chaque valeur de niveau de gris est représentée sur un certain nombre
d’octets, selon le nombre de niveaux de gris maximal. Ainsi, il y a par exemple des images codées sur 8
bits et des images codées sur 16 bits. Pour les images 16 bits, chaque niveau de gris est représenté sur
deux octets, et le nombre total de niveaux de gris possible est donc 2 16 = 65 536. Pour les images 8 bits,
chaque niveau de gris est représenté sur un octet, et le nombre total de niveaux de gris possible est
donc 28 = 256. La plupart des images utilisées en télédétection ont des niveaux de gris variant
entre 0 et 255. Ce dernier type d’images est justement appelé image en niveaux de gris codée
sur 8 bits.

d sur rrr
1.2.3. Satellites et engins spatiaux de télédétection

Tableau 1.1 : Année de mise en orbite, altitude, résolution spatiale et dimension d’une scène

Satellite Ou Année de mise Altitude Résolution Dimension


Engin en orbite ou de spatiale d’une scène
Spatial vol
LANDSAT 5 Mars 1985 705 km 30 x 30 m 185 x 172 km
(USA)
SPOT (France) Février 1986 822 km 20 x 20 m 60 x 60 km
(10 x 10 m en
mode
Panchromatique)
RADARSAT Novembre 1995 793 km 10, 25, 50 et 100 50 à 500 km
(Canada) m
ERS Juillet 1991 785 km 25 x 25 m 100 x 100 km
(Europe) (12.5 x 12.5 en
mode PRI)
JERS Février 1992 568 km 18 x 24 m 75 x 75 km
(Japon)
Radar 1995 8 km 6x6m
Aéroporté
ESAR (USA)

e sur rrr
Tableau 1.2. : Longueurs d’onde, type de capteur, fréquence de passage, disponibilité au
Cameroun

Satellite Ou Fréquence ou Type de capteur Fréquence de Disponibilité au


Engin Spatial Longueur d’onde passage Cameroun
LANDSAT 5 0.76 – 0.90 µm Thematic 16 jours Partielle
(USA) (IR) (InfraRouge) Mapper (TM) (au Nord)
1.55 – 1.75 µm (radiomètre à
(IRM) balayage)
10.4 – 12.5 µm
(IRT) (Infrarouge
Thermique)

SPOT (France) 0.50 – 0.59 µm (B) HRV (Haute 3 à 26 jours Partielle


0.61 – 0.68 µm (V) Résolution Visible) (au Nord)
0.79 – 0.89 µm (Radiomètre à
(IR) (InfraRouge) barettes)
0.51 – 0.73 µm
(Panchromatique)
RADARSAT 5.3 Ghz (Bande C) RSO (Radar à 16 jours Totale
(Canada) 5.66 cm Synthèse (3 jours au Canada)
Polarisation HH d'Ouverture)
(Capteur actif)
ERS (Europe) 5.3 Ghz (Bande C) RSO 35 jours Totale
5.66 cm (Capteur actif)
Polarisation VV
JERS (Japon) 0.52 – 0.60 µm (B) SOP 44 jours Partielle
0.63 – 0.69 µm (V) (Senseur Optique) Localisée
0.76 – 0.86 µm (R) RSO (Radar à (Région de
0.76 – 0.86 µm Synthèse (Kribi)
(IR) (InfraRouge) d'Ouverture)
1.60 – 1.71 µm (capteur actif)
(IRM)
2.01 – 2.12 µm
(IRM)
2.13 – 2.15 µm
(IRM)
2.27 – 2.40 µm
(IRM)
5.3 Ghz (Bande C)
5.66 cm
Polarisation VV
Radar Aéroporté 5.3 Ghz (Bande C) RSO (Radar à Localisée
ESAR (USA) 5.66 cm Synthèse (Région de Douala)
Polarisation VV d'Ouverture)
(Capteur actif)

f sur rrr
1.3. TRAITEMENT NUMERIQUE DES IMAGES

De nos jours, la plupart des données de télédétection étant enregistrées en format numérique,
presque toutes les interprétations et analyses d'images requièrent une partie de traitement numérique.
Le traitement numérique des images peut recourir à divers procédés dont le formatage et la correction
des données, le rehaussement numérique pour faciliter l'interprétation visuelle ou même la classification
automatique des cibles et des structures entièrement par ordinateur.
Les fonctions de traitement des images communément disponibles en analyse d'images se
regroupent en quatre catégories :

 Prétraitement ;

 Rehaussement de l'image ;

 Transformation de l'image ;

 Classification et analyse de l'image.


On appelle fonctions de pré-traitement les opérations qui sont normalement requises avant
l'analyse principale et l'extraction de l'information. Les opérations de pré-traitement se divisent en
corrections radiométriques et en corrections géométriques. Les corrections radiométriques
comprennent entre autres, la correction des données à cause des irrégularités du capteur, des bruits dus
au capteur ou à l'atmosphère, et de la conversion des données afin qu'elles puissent représenter
précisément le rayonnement réfléchi ou émis mesuré par le capteur. Les corrections géométriques
comprennent la correction pour les distorsions géométriques dues aux variations de la géométrie Terre-
capteur, et la transformation des données en vraies coordonnées (par exemple en latitude et longitude)
sur la surface de la Terre.
Les fonctions de rehaussement ont pour but d'améliorer l'apparence de l'imagerie pour aider
l'interprétation et l'analyse visuelles. Les fonctions de rehaussement permettent l'étirement des
contrastes pour augmenter la distinction des tons entre les différents éléments d'une scène, et le
filtrage spatial pour rehausser (ou éliminer) les patrons spatiaux spécifiques sur une image.

Figure 1.4 : Amélioration de l'apparence de l'imagerie

g sur rrr
Les transformations d'images sont des opérations similaires à ceux de rehaussement de
l'image. Cependant, alors que le rehaussement de l'image qui est normalement appliqué à une seule
bande de données à la fois, la transformation de l'image combine le traitement des données de plusieurs
bandes spectrales. Des opérations arithmétiques (c'est-à-dire addition, soustraction, multiplication,
division) sont faites pour combiner et transformer les bandes originales en de "nouvelles" images qui
montrent plus clairement certains éléments de la scène. Certaines de ces opérations incluent les diverses
méthodes de rapport de bande aussi appelé rapport spectral et un procédé appelé analyse des
composantes principales qui est utilisée pour mieux représenter l'information en imagerie
multispectrale.
Les opérations de classification et d'analyse d'image sont utilisées pour identifier et classifier
numériquement des pixels sur une image. La classification est habituellement faite sur des banques de
données multispectrales (A), et ce procédé donne à chaque pixel d'une image une certaine classe ou
thème (B) basé sur les caractéristiques statistiques de la valeur de l'intensité du pixel. Il existe une variété
d'approches prises pour faire une classification numérique. Deux approches générales souvent utilisées
sont la classification supervisée et la classification non supervisée.

Figure 1.5 : Classification et analyse d'image

1.4. APPLICATIONS DE LA TÉLÉDÉTECTION

1.4.1. Météorologie et sciences de l’atmosphère

Les images et animations des satellites météorologiques sur orbite géostationnaire sont les
documents de télédétection les plus diffusés auprès du grand public. L’imagerie des satellites européens
de la série Météosat en est un exemple.
Ce type d’imagerie a plusieurs types d’applications :
 Le suivi en temps réel des masses nuageuses et des phénomènes météorologiques (les satellites
Météosat fournissent une image toutes les demi-heures.
 L’extraction automatique de paramètres géophysiques qui sont assimilés dans les modèles
numériques de prévision météorologique.
 Le traitement en série des images archivées pour l’obtention de séries climatologiques sur la
nébulosité et les pluies, la température de surface de la terre ou de la mer, etc.

h sur rrr
Figure 1.6 : Une tempête sur le proche Atlantique

1.4.2. : Surveillance des catastrophes naturelles : les inondations

Par la répétitivité élevée des observations, les satellites d’observation de la Terre sont un outil
particulièrement efficace de surveillance des catastrophes naturelles telles que les inondations. Les
images des satellites SPOT sont ainsi utilisées, malgré la nébulosité qui accompagne souvent les
périodes de crue fluviale, pour cartographier avec précision l’extension des zones inondées.

Figure 1.7 : Cartographie des surfaces inondées lors d’une crues à partir de deux images SPOT 4 et 5.

i sur rrr
1.4.3. :Urbanisme, Aménagement, Génie Civil

Au tournant de l’an 2000, le transfert des technologies de la télédétection militaire vers les
applications civiles donne naissance à des satellites d’observation de la Terre à très haute résolution. Le
satellite IKONOS, exploité par la société privée Space Imaging Corp., en est l’exemple le plus
remarquable : il permet l’acquisition d’images à la résolution de 1 m en mode panchromatique (1 seule
bande spectrale) et de 4 m en mode multispectral. La fusion des deux types de données fournit des
images couleur dont les applications sont comparables à celles des photographies aériennes, dans un
marché mondialisé de données destinées à être exploitées par les Systèmes d’Information
Géographique.

Figure 1.8 : Le centre de Venise (Italie) observé par le satellite Ikonos

1.5. ANALYSE ET TRAITEMENT D’IMAGE DE TÉLÉDÉTECTION

Le traitement d'image est la science de la manipulation d'une image. Il couvre un large éventail
de techniques présentes dans de nombreuses applications. Ces techniques peuvent améliorer ou
déformer une image, mettre en évidence certaines caractéristiques d'une image, créer une nouvelle
image à partir de parties d'autres images, restaurer une image qui a été dégradée pendant ou après
l'acquisition d'image, etc.
Dans le domaine du traitement d’images, des progrès considérables ont été accomplis depuis
deux décennies grâce à la numérisation des données d’observation pixellisées, aux outils informatiques
disponibles et aux développements mathématiques associés.
De nombreuses techniques, largement transdisciplinaires (astronomie, médecine, photographie,
biologie) et disposant d’algorithmes rapides, sont apparues et sont désormais utilisées : restauration
d’image par déconvolution, maximum d’entropie, filtrage adaptatif, reconnaissance de formes.
Les données numérisées sont enregistrées sur un ou deux octets, selon que leur codage a été

j sur rrr
effectué avec une dynamique maximale de 256 ou de 65 536 niveaux. Toutes les valeurs radiométriques
d'une scène diffusée sur bande magnétique, sont contenues dans des fichiers -images consécutifs,
souvent à raison d'un enregistrement par ligne.

1.5.1. Images monobande et images multibandes

Les capteurs d’images embarqués dans des satellites de télédétection comportent souvent
plusieurs bandes spectrales. Dans de tels cas, une même zone est captée sous des longueurs d’onde
différentes, produisant plusieurs images de la même région. L’ensemble de ces images constitue une
seule image appelée image multibandes. Chaque image de l’ensemble est appelée canal ou encore
bande spectrale. C’est par exemple le cas du satellite français SPOT qui a trois bandes spectrales
dénommées XS1, XS2 et XS3. La prise de vue d’une même région sur plusieurs bandes spectrales offre
l’avantage d’obtenir plus de renseignements sur la zone filmée. En effet, certains objets n’étant pas
sensibles à une certaine longueur d’onde peuvent l’être à une autre, et vice-versa. Il est donc avantageux
d’avoir des images sur plusieurs bandes spectrales pour être mieux renseigné sur la zone étudiée. La
figure 1.4 présente trois portions 180x180 pixels d’une image SPOT de la ville de Yaoundé. Ces images
ont été prises avec des longueurs d’onde différentes. Une image prise à une seule bande spectrale est
appelée image monobande.
Dans une image multibande, chaque pixel a plusieurs niveaux de gris, chaque niveau de gris
correspondant à une bande spectrale. On peut donc définir mathématiquement une image multibande
(n bandes avec n > 1) comme étant une application I d’un sous-ensemble MxN de RxR vers Rn, qui, à
chaque couple (x,y) appartenant à MxN associe un n-uplet (I1(x,y), I2(x,y),……,In(x,y)), chaque Ik(x,y)
étant le niveau de gris du pixel positionné en (x,y) dans la bande spectrale k :

I : MxN → Rn
(x,y) → (I1(x,y), I2(x,y), I3(x,y),……….., In(x,y))

Figure 1.9 : Trois portions 180x180 pixels d’une image multibande SPOT (20 mètres de résolution) de
la ville de Yaoundé

k sur rrr
1.5.2. Stockage des images

Certains formats d’images stockent dans 2 fichiers différents l'entête e t les données. Les
données sont souvont stockées dans l'ordre des pixels de gauche à droite et de haut en bas
relatif au repère image. Nous allons é tudier à titre d'exemple, quelques formats classiques.

1.5.2.1. Le format RAW

L’image RAW est contenu dans deux fichiers différents :


 le fichier entête;
 le fichier de données.

Structure du fichier entete


Image Size ( en pixels)
Width (Largeur) : nombre de colonnes;
Height (Hauteur) : nombre de lignes.

Color Channels(indiquer les canaux de couleurs utilisés)


Single channel (niveau de gris)
Three channel (RGB) – 3 canaux (RVB)
Three channel (CMY) – 3 canaux (CMJ)
Four channel (CMYK) – 4 canaux (CMJK)

File structure
Planar (RRR…..GGG....BBB….)
Interleave (RGB RGB…)
Order RGB
Order BGR
Flipped (image inversée : 1er ligne au fond)

Structure du fichier de données


Elle contient des valeurs codées sur 8 (ou 16) bits représentant soit des niveaux de gris, soit
l’intensité de chacune des couleurs de base.

1.5.2.2. Le format pgm

Le format pgm permet de représenter des images en niveaux de gris dont les pixels ont
des valeurs entières comprises entre O (noir) et 255 (blanc).

P2
# Mes vacances en Norvege
640 480
255

73 154 125 160 172 163 172 168 131 162 171 171 170 174 165 171 167

l
166 159 170 164 170 157 93 54 67 86 96 50 75 61 88 135 163
54 85 82 70 66 72 45 56 56 54 80 84 111 134 103 120 154
169 175 182 174 175 172 172 176 175 173 177 173 174 155 115 122 114
104 99 91 102 95 102 117 103 106 190 178 176 177 176 176 180 179
176 176 175 177 179 179 178 180 182 180 179 180 177 181 184 179 180
180 178 178 179 179 179 181 181 183 185 182 184 182 182 182 181 182

183 184 183 185 182 184 186 186 184 185 182 184 183 184 184 184 186
185 184 184 186 183 184 184 187 190 183 187 184 185 185 186 187 186
188 187 188 187 185 191 189 185 186 188 187 187 185 185 185 188 185

La première ligne P2 signifie qu'il s'agit d'un format pgm et que les données seront
stockées en ASCII. La deuxième l i g n e c o m m e n ç a n t p a r l e c a r a c t è r e # e s t u n e l i g n e
d e c o m m e n t a i r e . L a troisième ligne 640 480 précise les dimensions de l’image : la largeur de
l’image est de 640 pixels, la hauteur de 480 lignes. La quatrième ligne précise la valeur maximale
pouvant ê tre prise par un pixel (ici, 255 correspondant au blanc). Viennent ensuite les
données.

1.5.2.3. Le format ppm

Le format ppm concerne les images couleurs. Chaque pixel a pour valeur un triplet (R,G,B)
compose d'une composante rouge, verte et bleue. Chaque composante est representée par un
entier pouvant prendre ses valeurs entre O et 255. Le triplet (0, 0, 0) correspond au noir, (255, 0, 0)
au rouge, (255, 255, 0) au jaune, ... , et (255, 255, 255) au blanc.

P3
# Mes vacances en Norvege en couleurs
640 480
255
89 62 79 167 143 165 130 117 145 155 155 191 160 169 210
137 170 203 151 176 206 158 167 198 127 125 164 155 156 200
156 169 211 155 170 211 153 170 213 153 177 215 139 172 205
150 174 210 146 171 202 140 175 195 136 169 178 152 180 181
144 175 177 148 183 177 140 175 142 82 113 54 45 72 19
62 79 45 82 97 64 92 108 71 46 63 18 72 92 33

m
64 79 0 87 109 26 129 157 82 158 184 113 54 72 0

79 107 30 71 102 43 60 88 37 60 86 21 68 88 35

44 55 21 53 67 31 51 69 27 50 68 18 81 94 38

La première ligne P3 signifie qu'il s'agit d'un format ppm et que les données seront
stockées en ASCII. Les trois lignes suivantes sont inchangées. Les valeurs des pixels sont
données, pixel par pixel, composante par composante. Le premier pixel en haut à gauche de
l'image a doné pour valeur (89, 62, 79) ce qui correspond à un violet un peu foncé. Le
pixel suivant (167, 143, 165) est plus clair, toujours dans les teintes violet, .…

1.5.2.4. Formats avec compression

D'autres formats stockent de façon plus intelligente les données. Notamment,


plusieurs pixels consecutifs peuvent avoir la même valeur. Plutôt que de memoriser "blanc
blanc blanc blanc blanc blanc blanc" on va préférer mémorisé "7 fois blanc". Au pire,
tous les pixels consécutifs sont différents : d a n s ce cas, on ne va pas réduire le nombre de
données, au contraire, on va le doubler. Dans le cas le meilleure, tous les pixels sont
identiques : on ne stocke que 2 valeurs ! Ce type de compression est sans perte : aucune
information n'est perdue.
Il y a d'autres idées qui permettent de compresser les données. Par exemple, une couleur
peu utilisée peut être remplacée par une autre couleur proche et plus présente dans l’image.
On reduit ainsi le nombre de couleurs utilisées et donc le nombre de bits nécessaires à la
représentation des couleurs. Par contre, on perd de l'information sur l'image. Pour que la
compression soit effective, il faut renuméroter les couleurs : on parle alors de couleur
indexée ou de représentation indirecte de Ia couleur.
Ce sont principalement ces idées qui sont à la base des algorithmes de compression.
Elles sont appliquées soit directement aux pixels de l'image, soit à des transformées de
l'image. On distingue deux types de compression :
 compression sans pertes : TIFF, GIF, PNG ;
 compression avec pertes : JPEG, JPEG 2000.

1 . 5 . 3 . Representation informatique des images

Lorsque l’on va manipuler des images, on va vouloir :


 accéder aux valeurs des pixels en fonction des coordonnées (i, j) d ans l'image ;
 parcourir une image du premier au dernier pixel (par exemple lors de la lecture ou de
l'ecriture d'un fichier) ;
 accéder aux voisins d'un pixel (i, j).

On pense naturellement à une structure de tableau. Deux solutions sont alors possibles : le
tableau à une dimension ou le tableau à deux dimensions.
Le tableau à une dimension facilite le parcours de tous les pixels de l'image (une seule
boucle) tandis que le tableau à deux dimensions nécessite deux boucles imbriquées.

n
i - width (i, j - 1)
i-1 i i+1 (i – 1, j) (i, j) (i + 1, j)
i + width (i, j + 1)
Tableau l D Tableau 2 D
Figure 1.10 : Indices des pixels voisins d ans le cas du T ableau l D et du T ableau 2 D

1.5.4. Détection de contours

Nous nous intéressons ici à la détection de contours c'est-à-dire à la détection des


lieux de sauts d'intensité.

1.5.4.1. Approche par convolution

Pour faciliter l'expression des différents détecteurs que nous allons maintenant étudier,
nous allons introduire la convolution.

convolution
Rappelons tout d'abord la convolution d'une fonction continue f par une fonction
continue g :

+∞ +∞
f ∗ g ( x , y )= ∫ ∫ f ( x , y ) g (u − x , v − y ) dudv
−∞ −∞

Pour des fonctions discretes :

+∞ +∞
f ∗ g ( x , y )= ∑ ∑ f ( x , y ) g (u − x , v − y )
u=− ∞ v=− ∞

Si on applique ceci à une image I1 de dimensions finies et à un noyau de convolution K de


dimensions 3x3 (K pour kernel), les pixels de l'image I2 obtenue par convolution de I1 par K :

2 2
I 2 ( i, j )=∑ ∑ I 1 ( i+k −1 , j+l− 1 ) K ( k ,l )
k=0 l =0

Principe
Un masque linéaire est une matrice à coefficients entiers, par exemple :

[ ]
− 1− 1− 1
M= −1 8 −1
− 1− 1− 1

o
La convolution d’une image avec un masque linéaire comporte les étapes suivantes :
1 Positionner le masque sur chaque point de l’image ;
2 Calculer la combinaison linéaire des coefficients du masque avec les niveaux de gris des points
voisins du point central (point sur lequel est centré le masque);
3 Remplacer le niveau de gris du point central par le résultat de la combinaison linéaire ;
4 Mettre le résultat obtenu à l’échelle des niveaux de gris de l’image originale.

Voici un exemple de calcul de combinaison linéaire. Considérons la portion d’image suivante :

[ ]
4 0 100 ⋮ 240
2 7 4 ⋮ 100
M = 6 3 1 ⋮ 50
⋮ ⋮ ⋮ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ ⋮
190 0 255 75 40

Positionnons le masque M sur le point de niveau de gris 7. Ce point correspond donc à la


valeur 8 du masque. Les points autour du 7 correspondent aux valeurs –1 autour du 8 dans le masque.
L’application du masque au point 7 donne le résultat suivant :

C = (-1 x 4) + (-1 x 0) + (-1 x 100) + (-1 x 2) + (8 x 7) + (-1 x 4) + (-1 x 6) + (-1 x 3) + (-1 x 1)

On obtient C = -64. On normalise le résultat d’après la relation suivante :

NG new =E NT
( NG old ×C
NG max )
NGnew est le niveau de gris du pixel courant dans l’image résultat. NG old est le niveau de gris de
ce même pixel dans l’image originale. C est le résultat de la combinaison linéaire effectuée sur le pixel
courant. NGmax est le niveau de gris maximal de l’image originale, et ENT représente l’opérateur "partie
entière".

1.5.4.2. Le traitement des points de bordure

Lorsqu’on effectue la convolution d’une image avec un masque, il se pose souvent le problème
des points de bordure.
Il y a plusieurs façons de gérer les points de bordure. Nous ne présenterons que les 3 méthodes
suivantes : la méthode des zéros, la méthode symétrique et la méthode de la symétrie circulaire.

La méthode des zéros


Dans cette approche, on considère que tous les points qui ne font pas partie de l’image ont le
niveau de gris 0. On remplit donc de zéros les points extérieurs voisins des points de bordure, avant de
faire la convolution. Le nombre de points extérieurs à considérer est fonction de la taille du masque de
convolution. La Figure 1.11 montre un exemple pour un masque de taille 3 x 3.

p
Figure 1.11 : Remplissage des points de bordure selon la méthode des zéros

La méthode symétrique
Dans cette approche, on attribue aux points extérieurs les niveaux de gris de leurs symétriques
se trouvant dans l’image. Cette approche est illustrée sur la Figure 1.12.

Figure 1.12 : Remplissage des points de bordure selon la méthode symétrique

La méthode de la symétrie circulaire


Dans cette approche, on agit comme si l’image se refermait sur elle-même, et les points
extérieurs sont vus comme s’ils se retrouvaient de l’autre côté de l’image. Il convient de noter que cette
approche n’est pas réaliste sur le plan pratique, puisque la nature des pixels se trouvant sur un bord de la
scène peut être complètement différente de celle des pixels se trouvant à l’autre extrémité. Cette
approche est illustrée sur la Figure 1.13.

q
Figure 1.13 : Remplissage des points de bordure selon la méthode de la symétrie circulaire

1.5.4.3. Variante

Les pixels frontières sont les pixels objets dont les 8 voisins en ont au moins une valeur 0.
L'extraction du contour d'un ensemble A nécessite d'abord l'érosion de A par un élément structurant B
puis en prenant la différence d'ensemble entre A et son érosion. L'élément structurant doit être
isotrope; idéalement, c'est un cercle, mais dans le traitement d'image numérique, une matrice 3 x 3
contenant les valeurs 1 est souvent utilisée. Autrement dit, la frontière d'un ensemble A est obtenue par

∂ A= A − ( A ⊖ B )

r
Par exemple, soit A

La détection de contour est

Notez que la taille de l'élément structurant détermine l'épaisseur du contour de l'objet. Par
exemple, un élément structurant 3 x 3 générera une épaisseur de 1 et un élément structurant 5 x 5
générera une épaisseur de 3.

1.5.5. La morphologie mathématique appliquée aux images

s
1.5.5.1. Introduction
La morphologie mathématique est une technique d’analyse de l’image basée sur la notion des
ensembles. Les opérations de morphologie mathématique s’appliquent aux images binaires, mais elles
peuvent aussi être appliquées aux images en niveaux de gris.

1.5.5.2. La binarisation d’une image


La binarisation d’une image consiste à la transformer une image en une image ne possédant que
deux niveaux de gris. Le résultat de la binarisation produit une image binaire. Pour binariser une image,
on se fixe deux seuils de binarisation s1 et s2.

1.5.5.3. L’érosion d’une image binaire

Contrairement à la plupart des mises en œuvre pratiques de filtres, la fenêtre W(p) associée à un
pixel p n'est pas nécessairement de forme rectangulaire ou circulaire. Au contraire, le choix de sa forme
dépend du but recherché, plus particulièrement du type de structure qu'on veut mettre en évidence
dans l'image. On choisit donc un ensemble B de pixels, appelé élément structurant, et la fenêtre W(p)
associée à un pixel p sera le translaté de B positionné sur p, noté Bp.
Ci-dessous : à gauche, l'élément structurant B, où la boule noire indique la position du point de
référence ; à droite, au pixel p on associe la fenêtre W(p) = Bp obtenue en positionnant B sur p; de
même, au pixel q correspond la fenêtre W(q) = Bq.

Figure 1.14 : Elément structurant

Soit X une figure et B un élément structurant. L'érosion de X par B est l'ensemble des pixels p
tels que la fenêtre Bp est incluse dans X :
ErosB(X) = {p | Bp X}.

L'effet de l'érosion est d'abord de rétrécir la figure, la hauteur et largeur de la figure érodée
seront les différences respectivement des hauteurs et largeurs de la figure originelle et de l'élément
structurant (en particulier si l'élément structurant est plus large ou plus haut que la figure, l'érosion de
celle-ci sera vide). Si l'élément structurant est décentré, l'érosion décalera la figure en sens inverse. Enfin

t
les coins concaves de la figure seront déformés en fonction de l'élément structurant (par exemple si
celui-ci est un disque, les coins concaves seront arrondis).

Figure 1.15 : Image érodée

On considère les mêmes figure X et élément structurant B que plus haut. À gauche, plusieurs
positions (boules noires) de pixels p dont les fenêtres Bp sont incluses dans X. À droite, l'érosion de X
par B; les coins concaves de la figure deviennent biseautés par les côtés du triangle B.

Variante

L'érosion combine deux ensembles en utilisant la soustraction vectorielle. Si A et B désignent


deux ensembles de EN avec comme éléments a et b, respectivement, alors l'érosion binaire de A par B
est l'ensemble de tous les éléments x, pour lesquels x +b ∈ A , pour tout b ∈ B .

Définition : L'érosion binaire de A par B, notée A ⊖ b B , est définie comme

A ⊖ b B={ x ∈ E ∨ x +b ∈ Apourc h aqueb ∈ B }


N

Exemple

u
B( 0,0) ={B ( 0,0 ) , B ( 0,1 ) , B ( 0,2 ) }

SiA ( i, j )=B ( 0,0 ) etA ( i, j+1 )=B ( 0,1 ) alorsA ( i , j )=1

Algorithme d’érosion

1 Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que l’image
binaire initiale ima.
2 Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire

v
Début
imab1[i,j] FAUX
imab2[i,j] FAUX
Si (ima[i,j] > 0) ALORS imab1[i,j] VRAI
Fin

3 Pour tous les pixels (i,j) Faire


Début
Si (imab1[i-1,j-1])
ET (imab1[i-1,j])
ET (imab1[i-1,j+1])
ET (imab1[i+1,j-1])
ET (imab1[i+1,j])
ET (imab1[i+1,j+1])
ALORS imab2[i,j] imab1[i,j]
SINON imab2[i,j] FAUX
Fin

Noter bien que le ET est l’opérateur ET logique s’appliquant aux valeurs booléennes entre
parenthèses. L’expression "Si (imab2[i,j]) …" veut dire "Si la valeur booléenne de (imab2[i,j]) est
VRAI…".

4 Pour tous les pixels (i,j) Faire


Début
Si (imab2[i,j]) Alors ima[i,j]) ← 255 (attribution de la couleur blanche au pixel
positionné en (i,j))
Sinon ima[i,j]) ← 0 (attribution de la couleur noire au pixel positionné en (i,j))
Fin

5 Afficher le tableau image ima contenant le résultat de l’érosion.

1.5.5.4. La dilatation d’une image binaire

La dilatation a pour effet d’augmenter la taille des entités. Pour cela, l’élément structurant
parcourt l’extérieur de l’entité. De même que pour l’érosion, le centre de l’élément structurant donne le
contour de l’entité agrandie. Une dilatation peut aussi être répétée plusieurs fois sur une même image,
on parle alors de dilatation de taille n, ou d’ordre n : Dbn(X). L’algorithme de la dilatation est
présenté ci-dessous.

Variante

La dilatation binaire de A par B est l'ensemble de toutes les sommes vectorielles possibles de paires
d'éléments, l'une venant de A et l'autre de B.. Puisque A et B sont tous les deux binaires, l'opération
morphologique appliquée sur les deux ensembles est appelée morphologie binaire .

Définition :
Soit A , B ⊂ E N . La dilatation binaire de A par B, notée A ⊕ b B , est définie comme

w
A ⊕ b B={c ∈ E ∨ c=a+ b avec a∈ A et b ∈ B }
N

Exemple

B( 0,0) ={B ( 0,0 ) , B ( 0,1 ) , B ( 0,2 ) }

SiA ( i, j )=1 alors A (i , j )=B ( 0,0 ) etA ( i , j+ 2 )=1

x
Algorithme de dilatation

1 Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que l’image binaire
initiale ima.
2 Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire

Début
imab1[i,j] FAUX
imab2[i,j] FAUX
Si (ima[i,j] > 0) ALORS imab1[i,j] VRAI
Fin
3 Pour tous les pixels (i,j) Faire
Début
Si (imab1[i-1,j-1])
OU (imab1[i-1,j])
OU (imab1[i-1,j+1])
OU (imab1[i+1,j-1])
OU (imab1[i+1,j])
OU (imab1[i+1,j+1])
ALORS imab2[i,j] VRAI
SINON imab2[i,j] imab1[i,j]
Fin

Noter bien que le OU est l’opérateur OU logique s’appliquant aux valeurs booléennes entre
parenthèses. L’expression "Si (imab2[i,j]) …" veut dire "Si la valeur booléenne de (imab2[i,j]) est
VRAI…".
4 Pour tous les pixels (i,j) Faire
Début
Si (imab2[i,j]) Alors ima[i,j]) ← 255 (attribution de la couleur blanche au pixel
positionné en (i,j))
Sinon ima[i,j]) ← 0 (attribution de la couleur noire au pixel positionné en (i,j))
Fin
5 Afficher le tableau image ima contenant le résultat de la dilatation.

y
1.5.5.4. La Squelettisation
La squelettisation consiste à réduire l’épaisseur des entités d’une image à la dimension d’un
pixel. Lors du processus de squelettisation, les entités de l’image sont amincies par le biais d’un élément
structurant, jusqu’à ce qu’il y ait stabilité. La squelettisation s’effectue par une succession d’opérations
appelées amincissement, jusqu’à l’obtention d’une structure stable ne pouvant plus être amincie. Ceci
peut être réalisé en balayant l’image avec une série de huit masques obtenus à partir d’un masque B1 par
rotation de 45° :

[ ] [ ] [ ] [ ]
000 000 100 110
B1= 0 1 0 B 2= 1 1 0 B3= 1 1 0 B 4= 1 1 0
111 110 100 000

[ ] [ ] [ ] [ ]
111 011 0 01 000
B5= 0 1 0 B 6= 0 1 1 B7= 0 1 1 B 8= 0 1 1
000 000 0 01 011

L’algorithme de squelettisation est présenté ci-dessous.

Algorithme de squelettisation

1 Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que
l’image binaire initiale ima.
2 Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire

Début
imab1[i,j] FAUX
imab2[i,j] FAUX
Si (ima[i,j] = 0) ALORS imab1[i,j] VRAI
Fin
3 Faire les initialisations suivantes :
Iter 1
Stable FAUX ("Stable" est une variable booléenne)
4 Tant Que la variable booléenne Stable a la valeur FAUX Faire
Début
Stable VRAI
Iter Iter + 1

//Masque EST

Pour tous les pixels (i,j) Faire


Début

Si (imab1[i-1,j-1])
OU (imab1[i-1,j])
OU (imab1[i-1,j+1])
OU (NON (imab1[i,j])

z
ET (imab1[i+1,j-1])
ET (imab1[i+1,j])
ET (imab1[i+1,j+1])))
ALORS imab2[i,j] imab1[i,j]

SINON
Début
imab2[i,j] FAUX
Stable FAUX
FIN
FIN

//Masque SUD - EST

Pour tous les pixels (i,j) Faire


Début

Si (imab2[i-1,j])
OU (imab2[i-1,j-1])
OU (imab2[i,j-1])
OU (NON (imab2[i,j])
ET (imab2[i+1,j])
ET (imab2[i+1,j+1])
ET (imab2[i,j+1])))
ALORS imab1[i,j] imab2[i,j]

SINON
Début
imab1[i,j] FAUX
Stable FAUX
FIN
FIN

//Masque SUD

Pour tous les pixels (i,j) Faire


Début

Si (imab1[i-1,j-1])
OU (imab1[i,j-1])
OU (imab1[i+1,j-1])
OU (NON (imab1[i,j])
ET (imab1[i-11,j+1])
ET (imab1[i,j+1])
ET (imab1[i+1,j+1])))
ALORS imab2[i,j] imab1[i,j]

SINON
Début
imab2[i,j] FAUX

aa
Stable FAUX
FIN
FIN

//Masque SUD - OUEST

Pour tous les pixels (i,j) Faire


Début

Si (imab2[i,j-1])
OU (imab2[i+1,j-1])
OU (imab2[i+1,j])
OU (NON (imab2[i,j])
ET (imab2[i-1,j])
ET (imab2[i-1,j+1])
ET (imab2[i,j+1])))
ALORS imab1[i,j] imab2[i,j]

SINON
Début
imab1[i,j] FAUX
Stable FAUX
FIN
FIN

//Masque OUEST

Pour tous les pixels (i,j) Faire


Début

Si (imab1[i+1,j-1])
OU (imab1[i+1,j])
OU (imab1[i+1,j+1])
OU (NON (imab1[i,j])
ET (imab1[i-11,j-1])
ET (imab1[i-1,j])
ET (imab1[i-1,j+1])))
ALORS imab2[i,j] imab1[i,j]

SINON
Début
imab2[i,j] FAUX
Stable FAUX
FIN
FIN

//Masque NORD - OUEST

bb
Pour tous les pixels (i,j) Faire
Début

Si (imab2[i+1,j])
OU (imab2[i+1,j+1])
OU (imab2[i,j+1])
OU (NON (imab2[i,j])
ET (imab2[i-1,j])
ET (imab2[i-1,j-1])
ET (imab2[i,j-1])))
ALORS imab1[i,j] imab2[i,j]

SINON
Début
imab1[i,j] FAUX
Stable FAUX
FIN
FIN

//Masque NORD

Pour tous les pixels (i,j) Faire


Début

Si (imab1[i-1,j+1])
OU (imab1[i,j+1])
OU (imab1[i+1,j+1])
OU (NON (imab1[i,j])
ET (imab1[i-1,j-1])
ET (imab1[i,j-1])
ET (imab1[i+1,j-1])))
ALORS imab2[i,j] imab1[i,j]

SINON
Début
imab2[i,j] FAUX
Stable FAUX
FIN
FIN

//Masque NORD - EST

Pour tous les pixels (i,j) Faire


Début

Si (imab2[i-1,j])
OU (imab2[i-1,j+1])
OU (imab2[i,j+1])

cc
OU (NON (imab2[i,j])
ET (imab2[i,j-1])
ET (imab2[i+1,j-1])
ET (imab2[+1,j])))
ALORS imab1[i,j] imab2[i,j]

SINON
Début
imab1[i,j] FAUX
Stable FAUX
FIN
FIN

5 Pour tous les pixels (i,j) Faire


Début
Si (imab1[i,j]) Alors ima[i,j]) ← 255 (attribution de la couleur blanche au pixel
positionné en (i,j))
Sinon ima[i,j]) ← 0 (attribution de la couleur noire au pixel positionné en (i,j))
Fin
6 Afficher le tableau image ima contenant le résultat de la squelettisation.

dd
CHAPITRE 2 : LES IMAGES PAR DÉTECTION A INFRAROUGE

2.1. INTRODUCTION
Il existe deux classes générales de détecteurs : les détecteurs photoniques (ou quantiques) et
thermiques. Les détecteurs de photons convertissent l'énergie photonique absorbée en électrons libérés
(de leurs états liés aux états de conduction). La bande interdite matérielle décrit l'énergie nécessaire pour
faire passer un porteur de charge de la bande de valence à la bande de conduction. Le changement
d'état du porteur de charge modifie les propriétés électriques du matériau. Ces variations de propriétés
électriques sont mesurées pour déterminer la quantité de puissance optique incidente. Les détecteurs
thermiques absorbent l'énergie sur une large bande de longueurs d'onde. L'énergie absorbée par un
détecteur fait augmenter la température du matériau. Les détecteurs thermiques ont au moins une
propriété électrique inhérente qui change avec la température. Cette propriété liée à la température est
mesurée électriquement pour déterminer la puissance du détecteur. Les systèmes d'imagerie infrarouge
commerciaux adaptés aux applications médicales utilisent les deux types de détecteurs. Nous
commençons par décrire le mécanisme physique employé par ces deux types de détecteurs.

2.2. DÉTECTEURS PHOTONIQUES

Le rayonnement infrarouge consiste en un flux de photons, les éléments de la mécanique


quantique de tout rayonnement électromagnétique. L'énergie du photon est donnée par

où h est la constante de Planck, c est la vitesse de la lumière et λ est la longueur d’onde du photon
infrarouge en micromètres (µm).

Les détecteurs de photons répondent en élevant un électron lié dans un matériau à un état libre
ou conducteur. Deux types de détecteurs de photons sont produits pour le marché commercial:
• Photoconducteur
• Photovoltaïque

2.2.1. Détecteurs photoconducteurs

Le mécanisme des détecteurs photoconducteurs est basé sur l'excitation d'électrons liés à un état
mobile où ils peuvent se déplacer librement à travers le matériau. L'augmentation du nombre
d'électrons conducteurs, n, créée par le flux de photons, Φ0, permet à plus de courant de circuler
lorsque l'élément de détection est utilisé dans un circuit de polarisation ayant un champ électrique E.
L'élément de détection photoconducteur ayant des dimensions de longueur L, la largeur W et
l'épaisseur t sont représentées sur la Figure 2.1.

ee
La réponse d'un détecteur photoconducteur peut être écrite comme

où R est la réponse en volts par watt, η est l'efficacité quantique en électrons par photon, q est
la charge d'un électron, R est la résistance de l'élément détecteur, τ est la durée de vie d'un électron
photo-excité, et µn et µp sont les mobilités des électrons et des trous dans le matériau en volts par
centimètre carré par seconde.

Figure 2.1 : Géométrie du détecteur photoconducteur.

2.2.2. Détecteurs photovoltaïques

Le mécanisme des détecteurs photovoltaïques est basé sur la collecte de porteurs photo-excités
par une jonction de diodes. Les détecteurs photovoltaïques sont les détecteurs de photons les plus
couramment utilisés pour les matrices d'imagerie dans la production actuelle.
Le courant de la photodiode peut être exprimé comme

2.3. DÉTECTEURS THERMIQUES

Les détecteurs thermiques fonctionnent en convertissant le flux de photons entrant en chaleur.


L'apport de chaleur fait monter la température du détecteur thermique et ce changement de
température est détecté par un bolomètre. Un élément bolomètre fonctionne en modifiant sa résistance
lorsque sa température est modifiée. Un circuit de polarisation à travers le bolomètre peut être utilisé
pour convertir le courant variable en une sortie de signal.

Le coefficient α est utilisé pour comparer la sensibilité de différents matériaux de bolomètre et


est donné par

ff
où Rd est la résistance de l'élément bolomètre et dR/dT est le changement de résistance par unité de
changement de température. Les valeurs typiques de α sont de 2 à 3%.

2.4. LA CAMÉRA INFRAROUGE

La caméra infrarouge moderne ressemble extérieurement de plus en plus à un caméscope. Si


son aspect s’assimile à celui d’une caméra vidéo normale, son mode de fonctionnement en est tout
différent.

2.4.1. Les détecteurs

Il existe 2 types de détecteurs :

 Les détecteurs thermiques : ceux-ci sont basés sur la détection d’une augmentation de
température au niveau du détecteur. La variation de température fait varier l’une des
propriétés physiques du matériau détecteur (résistance électrique par exemple) et
provoque une variation du signal délivré. Ce type de détecteur a un temps de réponse
relativement long.
On utilise entre-autre cette technique dans la fabrication de tubes pyroélectriques

Figure 2.2 : Le pyromètre pour les mesures de hautes températures dans les fours :

 Les détecteurs quantiques : ceux-ci sont constitués de semi-conducteurs où l’absorption d’un


photon (particule d’énergie lumineuse) provoque la libération ou le transfert d’électrons. Ce
type de détecteur à une sensibilité élevée et un temps de réponse extrêmement faible.

L’utilisation de ces détecteurs au maximum de leur sensibilité nécessite leur refroidissement à


des températures très basses :
◦ système refroidi par de l’azote liquide : - 196°C;
◦ refroidisseur thermoélectrique à effet Peltier : -70°C;

gg
◦ refroidisseur "Stirling" à mini compresseur : -196°C.
On utilise principalement les détecteurs quantiques dans les appareils de thermographie; ceux-là
travaillent dans les bandes spectrales 2 à 5µm et 8 à 13µm (pour les raisons définies préalablement).

2.4.2. Les systèmes de mesure des caméras infrarouges

Il existe deux systèmes de mesure des flux électromagnétiques ou luminances :


 La caméra à mono-détecteur ou système à balayage spatial : comme le nom l’indique, l’appareil
est muni d’un détecteur unique couplé à un système opto-mécanique à balayage horizontal
(ligne) et à balayage vertical (trame). L’addition des deux balayages à des fréquences spécifiques
autorise l’analyse d’une scène thermique par l’image successive du détecteur ou de la surface
élémentaire {dS}.

Figure 2.3 : Caméra à mono-détecteur

La taille du champ scanné (LxH) est fonction :


 du système de balayage opto-mécanique;
 de l'objectif de la caméra;
 de la distance de mesure.

 La caméra à plan focal : celle-ci est équipée d’une matrice de détecteurs. L’image de chaque
détecteur couvre de façon permanente une surface élémentaire dans le champ scanné. La scène
thermique est ainsi quadrillée et analysée simultanément en tout point par le "détecteur
matriciel". On peut trouver sur le marché des caméras à plan focal avec une matrice de 240x320
éléments détecteurs.

hh
Figure 2.4 : Caméra à plan focal

La taille du champ scanné est fonction de :


 la taille de la matrice de détecteurs;
 l'objectif de la caméra;
 la distance de mesure.

Dans chaque cas, les détecteurs influencés par les rayonnements émis par une scène thermique
délivrent un "thermosignal" ou réponse thermique individuelle : celle-ci est amplifiée dans une unité de
traitement et ensuite convertie en points lumineux sur un écran. Généralement, l’intensité lumineuse
délivrée sur l’écran est en corrélation avec l’intensité des rayonnements infrarouges captés : la
visualisation d’une scène thermique est donc réalisée par transcription des rayonnements
électromagnétiques suivant une échelle de gris ou de couleurs dont les intensités lumineuses varient de
manière proportionnelle avec les intensités du rayonnement infrarouge

La quantification de l’intensité thermique en température est possible en chaque point de


l’image grâce à l’étalonnage du système de détection et au calculateur intégrant les grandeurs
d’influence.

L’étalonnage d’une caméra infrarouge est réalisée en laboratoire sur un corps noir référentiel
(Emissivité égale à 1) : il consiste à établir la relation entre la température et la puissance de
rayonnement ou luminance captée par le détecteur.

Qu’il s’agisse d’une caméra mono-détecteur ou d’une caméra à plan focal, le principe
d’étalonnage reste identique avec, dans le cas d’une matrice de détecteurs, l’étalonnage individuel de
chaque élément.

Compréhension des courbes d’étalonnage :


(Courbe d’étalonnage d’une caméra fonctionnant dans la bande 2 à 5 µm)

ii
Courbes de Planck Courbe d’étalonnage

Figure 2.5 : Courbes d’étalonnage

Pratiquement, la scène thermique observée est composée essentiellement de corps gris ou corps
réels, ainsi, la transcription en température nécessitera l’intégration des grandeurs d’influence et
principalement la connaissance du coefficient d’émissivité. L’émissivité dans ce cas adapte la valeur de la
luminance émise par le corps gris (luminance apparente) à la valeur qu’aurait émis un corps noir
référentiel à la même température (luminance vraie) : ceci assimile la mesure de température d’un corps
gris à la mesure de température d’un corps noir à partir duquel la caméra a été calibrée. Les autres
paramètres d’influence modifient ensuite la valeur de la luminance vraie avant de la transcrire
correctement en température sur base de la courbe d’étalonnage (température vraie).

Exemple :
Considérons uniquement l’émissivité comme unique grandeur d’influence. On veut mesurer par
thermographie la température d’un corps réel chauffé à 100°C et dont l’émissivité est de 0,65.

La caméra a été étalonnée sur base d’un corps noir référentiel d’émissivité égale à 1.
1. Le détecteur mesure 105 luminances apparentes ce qui correspond à 80°C sur la courbe
d’étalonnage de la caméra IR.
2. L’intégration du coefficient d’émissivité du corps réel augmente la valeur de la luminance
apparente : 105/0,65 = 160 luminances vraies, ce qui correspond à 100°C sur la courbe
d’étalonnage de la caméra.

On a effectivement assimilé la mesure de température du corps réel à celle sur un corps noir
référentiel afin de se situer dans les conditions d’étalonnage de l’appareil de mesure.

jj
Figure 2.6 : Étalonnage de l’appareil de mesure

2.4. TRAITEMENT THERMIQUE D'IMAGE

D'années en années, diverses méthodes d'analyse de données dans les essais non destructifs
infrarouges (IRNDT) ont été développées à travers le monde. La plupart des méthodes existantes
nécessitent une intervention de l'utilisateur, et l'automatisation n'est pas toujours possible. Les étapes les
plus courantes du traitement d'image infrarouge peuvent être répertoriées comme suit :
 Réduction du bruit : pour augmenter le rapport signal sur bruit;
 Balance de contraste : pour mettre en évidence certaines caractéristiques qui ne sont pas
évidentes dans l'image d'origine;
 Détection des bords : pour définir les discontinuités dans le cadre considéré.

L'une des procédures les plus courantes de réduction du bruit est la technique de soustraction.
De simples soustractions telles que la soustraction de deux images acquises au même moment à partir
de deux expériences différentes (technique de référence spatiale) ou d'images enregistrées de près
(technique de référence temporelle) permettent d'éliminer les effets indésirables présents dans les deux
expériences tels que le chauffage non uniforme. De plus, l'application de filtres spatiaux linéaires ou
non linéaires est souvent exploitée pour réduire les composantes haute fréquence caractérisant le bruit
thermique. Appliquer un filtre linéaire signifie calculer la convolution sur l'image considérée d'un noyau

kk
défini, qui est une petite matrice carrée avec un nombre impair d'éléments. Dans le domaine spatial, le
processus de convolution multiplie les éléments du noyau par les valeurs de pixels correspondantes
lorsque le noyau est centré sur un pixel. Les éléments du tableau résultant (qui est de la même taille que
le noyau) sont moyennés et la valeur de pixel d'origine est remplacée par ce résultat. En particulier, un
noyau (n-1 x n+1) est passé à travers l'image et la valeur de pixel central p est remplacée par p0 calculée
comme suit :

où B est un facteur d'échelle, a i sont les poids du noyau et p i sont les n+1 valeurs de pixels dans
le noyau centré sur p.
La mécanique du filtrage spatial linéaire est illustrée dans la Figure 2.7.

Figure 2.7 : Application de filtrage spatial linéaire.

Les techniques d'extraction des contours, visent à supprimer de l'image des zones constantes, ne
laissant que les changements, dans le cas, souvent vérifiés, qu'ils conservent toutes les informations
pertinentes. Les contours sont définis comme des discontinuités locales de luminance, c'est-à-dire des
zones de l'image où il y a des changements "brusques" de luminance. Ces techniques peuvent être
divisées en trois catégories principales basées sur la première dérivée, la deuxième dérivée et
l'ajustement de bord.

Les techniques basées sur les dérivés sont les plus efficaces et donc les plus exploitées. Le but
de la méthode basée sur la première dérivée est de sélectionner les valeurs maximales de cette
fonctionnalité. La Figure 2.8 montre une tendance d'intensité f(x) possible en fonction de la
coordonnée spatiale x.

ll
Figure 2.8 : Fonctions d'intensité en correspondance de deux types différents d'arêtes et des premières
dérivées correspondantes.

La rampe indique un changement du niveau de luminance qui conduit à l'identification d'un


contour. La première dérivée est calculée comme suit :

Le pic correspondant à la valeur absolue maximale de f ’(x) se produit en correspondance du


contour. Bien entendu, en présence de bruit, il existe plusieurs valeurs maximales locales; certains
d'entre eux concernaient des contours réels mais d'autres étaient liés à l'effet de bruit. Ainsi, il est
possible de fixer un niveau de seuil: les pics en dessous de cette valeur de référence sont définis comme
des contours «faux» et ne sont pas considérés.

Dans le domaine discret, la première dérivée d'une séquence de valeurs d'intensité x(n) est
calculée comme suit :

Par exemple :

(1)

mm
En pratique, la somme est coupée et le résultat est approximé comme illustré ci-dessous.
Prolongeant dans la deuxième dimension ce concept, le gradient est considéré :

L'amplitude de ce vecteur représente la «force» du contour et la phase indique la direction. Dans


le cas discret, le gradient est calculé le long des lignes ou le long des colonnes de la matrice représentant
une image, puis, combiné comme:

Une approximation souvent utilisée est :

Gr et Gc sont estimés selon l'équation (1) concernant la première dérivée discrète arrêtée au
deuxième terme. En d'autres termes, il est calculé comme la réponse d'une impulsion de type [-1 0 1].
Cette procédure est très sensible au bruit. Pour une solution plus stable, une méthode courante consiste
à faire la moyenne dans la direction orthogonale avant de calculer la différence. Le tableau 2.1 montre
des exemples d'opérateurs appropriés pour cette procédure.

Tableau 2.1 : Masques pour la détection des bords

nn
Une application pratique de ces masques est présentée dans les chapitres suivants. Dans la
littérature, plusieurs études ont exploité la détection de bord basée sur la première dérivée. Par exemple,
T. Li et al. ont utilisé une méthode d'imagerie de fissures pour traiter des images infrarouges recueillies
au moyen de la thermographie par points laser. Le traitement d'image était basé sur le calcul de cette
dérivée spatiale car il reflète le taux de changement d'amplitude dans une image. De plus, ils ont évalué
la seconde dérivée pour mieux améliorer l'effet de bord.

Les méthodes basées sur la dérivée seconde recherchent les passages de la fonction f ’’(x) pour
des valeurs égales à zéro qui se produisent en correspondance de la frontière. La Figure 2.9 aide à
visualiser le concept :

oo
Figure 2.8 : Fonction d'intensité en correspondance d'une arête et de ses première et seconde dérivées.

La seconde dérivée est sensible au bruit de sorte que certaines valeurs nulles peuvent être
dictées par l'effet de bruit. Une stratégie pour éviter la frontière «fausse» est de ne prendre en compte
que les zéros entourés de valeurs absolues «élevées» (maximum et minimum). Travaillant en deux
dimensions, la dérivée seconde devient l'opérateur de Laplace, défini pour une fonction continue F(x, y)
comme :

Le laplacien est égal à zéro lorsque F(x, y) est constant ou change linéairement. Dans le
domaine discret, le moyen le plus simple d'évaluer cette opération est de calculer la différence des
différences le long de chaque direction comme suit :

pp
Le même résultat peut être obtenu par la convolution avec une matrice H (j, k) définie dans
l'équation ci-dessous :

La somme des deux matrices donne l'évaluation des secondes dérivées le long des lignes et des
colonnes.

Il est possible d'apprécier l'efficacité de cet opérateur car il est capable de mettre en évidence les
discontinuités de la distribution thermique sur la surface testée à la fois dans l'application de
thermographie laser spot et dans les essais de traction. Ces discontinuités représentent les situations
anormales que nous recherchons lors du test d'un échantillon.

qq
CHAPITRE 3 : LES IMAGES PAR ÉCHOGRAPHIE DOPPLER
PAR ULTRA-SONS

3.1. PRINCIPES DE BASE DE L’ÉCHOGRAPHIE


Les ultrasons ont une fréquence > 20 KHz, et se situe au-delà de l’échelle des fréquences
accessibles à l’oreille humaine. Les fréquences utilisées se chiffrent en millions de cycles par seconde
(MHz). Les ultrasons sont générés et détectés grâce aux oscillations mécaniques de cristaux
synthétiques piézo-électriques (effet piézo-électrique) (Figure 3.1).

Figure 3.1 : Signaux ultrasonores.

a) Un courant électrique appliqué à un cristal piézo-électrique entraîne son expansion puis sa


contraction, ce qui génère des ultrasons à la même fréquence que celle qui traverse le corps.
b) Les ondes ultrasonores réfléchies frappent le cristal et engendrent des signaux électriques
alternatifs à la même fréquence que ceux qui sont ensuite produits par l’appareil d’échographie.

3.1.1. Propagation des ultrasons dans les tissus

Les ultrasons interagissent avec les tissus lors de leur propagation aller et retour (Figure 3.2).

rr
Figure 3.2 : Passage des ultrasons à travers les tissus.

Les ultrasons traversent les tissus comme une onde longitudinale qui provoque une oscillation
des particules tissulaires dans la même direction et à la même fréquence.

3.1.2. L’effet doppler : interaction des ultrasons avec le flux circulant

Lorsqu’une source émet des ondes acoustiques, la fréquence de l’onde réfléchie à partir d’un
objet situé sur son trajet augmente ou diminue respectivement selon que l’objet se rapproche ou
s’éloigne de la source. C’est l’effet Doppler (Christian Andreas Doppler [1803–1863] était un
mathématicien autrichien) et le changement de fréquence est appelé signal Doppler. Les ultrasons
émis par une source stationnaire et dirigés vers le flux circulant détectent un signal Doppler provenant
des globules rouges qui est proportionnel à la vélocité sanguine et se situe dans le domaine des
fréquences audibles (Figure 3.3).

ss
Figure 3.3. : Signal Doppler (fréquence Doppler).

a) Le sang se déplaçant vers la sonde induit une fréquence Doppler positive.


b) Le sang s’éloignant de la sonde produit une fréquence Doppler négative.

tt
Figure 3.4 : Réflexion.

Un « réflecteur puissant » est un réflecteur dont les impédances de part et d’autre de l’interface
sont très différentes.
 Dans la plupart des tissus : seulement 1 à 2 % des ultrasons sont réfléchis.
 Interface tissu mou et air : > 99 % sont réfléchis, ce qui explique que le couplage par un gel soit
nécessaire entre la sonde et la peau.
 Interface tissu mou et os : environ 40 % des ultrasons sont réfléchis et les études
transcrâniennes peuvent être difficiles.
 Les réflexions provenant du sang sont faibles comparativement à celles provenant des tissus
solides.

Le signal Doppler ou fréquence Doppler (fd) est calculé selon la formule :


2 f v cos ( θ )
f d= 0
c

où :
f0 = fréquence des ultrasons transmis à partir de la sonde
v = vélocité du flux sanguin
θ = angle entre la direction du flux sanguin et l’axe d’insonation

uu
c = vélocité des ultrasons dans les tissus (1540 m/s).

Figure 3.5 : Réfraction.

Une partie du faisceau est réfléchie, tandis que le reste continue à être transmis mais à un angle
différent dépendant des différences de vitesse pour chaque milieu.

Les appareils d’échographie calculent la fréquence Doppler pour un angle incident donné.
Théoriquement, si θ = 90°, alors cos θ = 0 aucun signal vasculaire n’est enregistré. Une erreur dans la
mesure de θ entraîne une erreur dans le calcul de la vélocité, qui est d’autant plus grande que θ
augmente ; il faut donc éviter d’utiliser un angle θ > 60°. Par exemple :
 une erreur de 5 % pour θ = 30° induit une erreur de 5 % pour la mesure de la vélocité ;
 tandis qu’une erreur de 5 % pour θ = 70° entraîne une erreur de 20 % pour la mesure de la
vélocité.

vv
Figure 3.6 : Diffusion.

Elle survient lorsque les ultrasons rencontrent une particule ou un objet qui a une taille
différente ou plus petite que celle de la longueur d’onde du faisceau ultrasonore.
a) Une particule dont la taille est approximativement la même que la longueur de l’onde diffuse à
un degré variable dans différentes directions. Le degré de diffusion dépend de la fréquence de
l’onde et de l’angle d’insonation.
b) Une particule plus petite que la longueur d’onde, tel le globule rouge, diffuse l’onde incidente de
la même manière dans toutes les directions (il s’agit de la diffusion de Rayleigh ; le Baron
John William Rayleigh [1842–1919] était un physicien anglais) indépendamment de l’angle
d’insonation.

ww
Figure 3.7 : Atténuation.

 Décroissance exponentielle, surtout due à l’absorption mais aussi à la réflexion, à la réfraction, à


la diffusion et à la diffraction.
 Moins importante pour les signaux de basse fréquence, tels que ceux utilisés pour l’examen des
structures abdominales profondes.
 Plus importante pour les signaux de haute fréquence, tels que ceux utilisés pour l’examen des
structures superficielles.
 Faible pour le sang, plus élevée pour les tissus mous et très élevée pour les poumons et les os.

3.2. SONDES ET FAISCEAUX ULTRASONORES

3.2.1. Sondes d’écho-doppler continu

Une sonde crayon contient deux cristaux piézo-électriques ; l’un émet et l’autre reçoit les
signaux (Figure 3.8). La sonde dispose habituellement d’un dos contenant de l’air pour une meilleure
sensibilité. Elle opère à une seule fréquence continue, la plus favorable étant autour de 8 MHz.

xx
Figure 3.8 : Sonde d’écho-Doppler continu.

Le segment gris foncé représente la zone de sensibilité maximale pour la réception du signal et
couvre plusieurs vaisseaux du champ.

3.2.1. Sondes de doppler pulsé

Les sondes modernes de Doppler pulsé sont constituées d’une rangée de plusieurs cristaux
piézo-électriques appelée array (Figure 3.9). Un amortisseur est placé derrière cette rangée, permettant
d’amortir les vibrations des cristaux.

Les caractéristiques des sondes sont les suivantes :


 empreinte : forme de la surface de la sonde ;
 champ de vue : surface (ou zone) incluse dans le faisceau ;
 dimensions : forme de la sonde dans les trois dimensions :
◦ longueur : focalisation dans le plan d’élévation ;
◦ largeur : plan de balayage ;
◦ épaisseur : elle détermine la fréquence.

yy
Figure 3.9 : Modèle d’une sonde de Doppler pulsé.

 Plaque frontale pour éviter la réflexion.


 À l’arrière, couche amortissante pour réduire les oscillations.

3.2.2. Faisceau ultrasonore pulsé

Le faisceau principal est tridimensionnel et est projeté dans une certaine direction. D’autres
faisceaux de plus basse intensité mais de fréquence identique sont également produits (Figure 3.10). Les
interactions entre les multiples composants différents qui forment l’onde ultrasonore sont appelées
lobes latéraux et ont un aspect tridimensionnel au niveau des plans de balayage et d’élévation.
L’interférence entre les nombreuses ondes émises par les multiples cristaux piézo-électriques entraîne la
formation de lobes « parasites » qui sont bidimensionnels seulement dans le plan de balayage.

Chaque écho réfléchi qui retourne à la sonde est représenté par un pixel auquel est assignée une
brillance ou une couleur selon le mode ultrasonore utilisé. L’image est formée à partir de l’association
de nombreux pixels. Les cristaux piézo-électriques utilisés pour l’écho-Doppler pulsé ont une fréquence
de résonance centrale, mais les sondes modernes utilisent des cristaux piézo-électriques à large bande
qui génèrent différentes fréquences. Cela permet d’utiliser simultanément des modes différents. La
qualité de l’image dépend de plusieurs facteurs :

zz
 fréquence de répétition des impulsions (pulse repetition frequency [PRF]) : la fréquence
d’émission des impulsions à partir de la sonde (KHz) ;
 profondeur de champ : elle dépend de la fréquence ultrasonore, de la puissance des signaux et
du type du tissu ;

Figure 3.10 : Faisceau principal et lobes latéraux.

 courbe de compensation du gain en fonction du temps (time gain compensation [TGC]) : afin
que la brillance soit égale sur toute la profondeur du champ, les échos provenant de zones de
profondeurs différentes peuvent être supprimés ou rehaussés, notamment les signaux profonds,
d’habitude atténués ;
 gamme dynamique : elle permet à l’opérateur d’augmenter ou de diminuer l’échelle des
niveaux de brillance des échos qui sont générés. Lorsque la gamme dynamique est faible
(compression augmentée), les échos de niveau bas sont supprimés, entraînant un plus grand
contraste des signaux d’intensité plus élevée. C’est une fonction de préréglage si bien que,
lorsque l’on doit étudier une zone où les échos sont de niveau bas, cette dernière devra être à
nouveau balayée avec une gamme dynamique plus élevée ;
 courbes de compression : elles modifient la manière dont la brillance des échos est stockée et
leur assignent des niveaux de gris sur l’écran. C’est une fonction de post-traitement (ou post-
processing) qui fait que l’image n’a pas à être à nouveau balayée ;
 champ de vue et lignes de tir : l’étendue des images visualisées sur l’écran et le nombre de
lignes composant l’image ;
 cadence images : l’image est effacée lorsque le processus de création de l’image est achevé au
niveau de la totalité du champ d’exploration, et l’écran est rafraîchi avec une nouvelle image. La
cadence image est réglée pour que le balayage apparaisse continu et en temps réel. La
visualisation peut être gelée à n’importe quel moment ;
 persistance : elle moyenne la brillance ou la couleur affectée à chaque pixel sur plus d’une
image. Augmenter la persistance lisse l’aspect des images en temps réel. La cadence images
apparente est alors diminuée, bien que la cadence images réelle soit inchangée. Par ailleurs,
augmenter la persistance diminue la résolution temporelle.

3.2.3. Focalisation et direction du faisceau

Le faisceau ultrasonore est focalisé vers un point focal où l’intensité du faisceau est maximale ;
au-delà, le faisceau diverge et acquiert progressivement un diamètre croissant et une intensité moindre

aaa
(Figure 3.11).

Figure 3.11 : Faisceau d’ultrasons focalisés.

 Champ proche (zone de Fresnel) entre la source et le point de focalisation.


 Point de focalisation (D) où le faisceau a le plus petit diamètre.
 Zone focale au-delà de laquelle la largeur est inférieure à 2 fois la largeur minimale au point
focal (2D).
 Champ éloigné (zone de Fraunhofer) au-delà du point focal.

Le faisceau ultrasonore dans le plan d’élévation est focalisé par une lentille acoustique, ce qui
n’est pas réglable. Le faisceau est aussi focalisé dans le plan de front d’onde, ce qui ne peut être
contrôlé. La focalisation électro nique modifie la séquence d’activation des cristaux piézo-électriques de
la sonde. Des cristaux piézo-électriques déterminés à l’intérieur de la sonde se comportent comme un
élément unique mais plus volumineux. Chacun d’entre eux est activé à différents moments pour diriger
et/ou focaliser des fronts d’ondes ultrasonores (Figure 3.12). Plus le nombre de cristaux utilisés est
élevé, meilleur est le contrôle de la forme du faisceau. Plus l’intervalle de temps entre les excitations des
éléments est long, plus l’angle directionnel est grand.

bbb
Figure 3.12 : Contrôle du faisceau.

a) L’excitation des éléments du côté gauche avant ceux de droite dirige le faisceau vers l’extérieur
à droite.
b) L’excitation des éléments externes avant les éléments centraux fait converger (ou focalise) le
faisceau en avant.

3.2.4. Résolution

 La résolution axiale est la capacité de distinguer deux échos sur l’axe de tir. Elle est améliorée
par des impulsions brèves à des fréquences élevées.
 La résolution latérale est la capacité de distinguer deux échos dans la largeur du faisceau. Elle
est améliorée par la focalisation électronique des sondes array.
 La résolution temporelle est la capacité de distinguer deux événements à des temps différents.
Elle est améliorée par une cadence images élevée. Avec les appareils modernes, c’est rarement
un problème en mode B, mais elle peut être basse pour le Doppler couleur et le Doppler
puissance.

3.2.4. Différents types de sonde avec batterie de cristaux

Trois types de sondes électroniques avec batterie de cristaux (array) sont couramment utilisés en
ultrasonographie vasculaire. Les fréquences auxquelles elles travaillent sont différentes selon les
constructeurs.

ccc
Sonde linéaire à batterie de cristaux

Figure 3.13 : Faisceaux émis par une sonde linéaire.

Les caractéristiques de cette sonde sont :


 empreinte : rangée rectiligne de 128–512 éléments ;
 champ de vue et lignes de tir : rectangulaire avec des lignes de tir parallèles ;
 résolution : égale sur toute la profondeur en raison des lignes parallèles de vision ;
 angle d’insonation : perpendiculaire à la sonde en mode B, et à 15° en Doppler afin de garder
les signaux indépendants ;
 production du faisceau : elle n’intéresse jamais la totalité de la batterie de cristaux à un temps
donné, car les éléments sont excités de manière séquentielle ;
 fréquences : moyennes à élevées (5–12 MHz) afin d’obtenir une bonne résolution superficielle
malgré une pénétration faible requise pour l’examen des structures superficielles ;
 contrôle de la direction du faisceau : possible avec certaines machines ;
 focalisation : possible.

ddd
Sonde curvilinéaire (courbe) à batterie de cristaux

Figure 3.14 : Faisceaux émis par une sonde courbe.

Les caractéristiques de cette sonde sont :


 empreinte : rangée courbe et longue de 128–512 éléments piézo- électriques ;
 champ de vue et lignes de tir : le champ de vue est plus grand que pour les sondes linéaires,
car il existe des lignes de tir radiales ; ces dernières rendent toutefois l’angulation plus difficile ;
 résolution : résolution diminuée aux bords du champ de vue en raison d’une diminution du
nombre d’éléments qui forment le faisceau et d’une moins bonne résolution à la partie
profonde du champ de vue des lignes de tir divergentes. La résolution est inférieure à celle
d’une sonde linéaire, mais meilleure que celle d’une sonde phased array ;
 angle d’insonation : perpendiculaire à la sonde à la fois en mode B et en Doppler ;
 production du faisceau : identique à celle d’une sonde linéaire ;
 fréquences : basses à moyennes (2–7 MHz), adaptées à l’étude des organes profonds ;
 contrôle de la direction du faisceau : impossible ;
 focalisation : possible.

eee
Sonde phased array

Figure 3.15 : Faisceaux émis par une sonde phased array.

Les caractéristiques de cette sonde sont :


 empreinte : petite avec une rangée courte et droite de 64–128 cristaux piézo-électriques. Cela la
rend facile à manœuvrer dans les localisations difficiles, tels les études transcrâniennes ou les
examens abdominaux où l’angulation est difficile ;
 champ de vue et lignes de tir : le champ de vue est plus grand que pour les sondes linéaires
array en raison des lignes de tir radiales ;
 résolution : résolution diminuée sur les bords du champ de vue en raison d’un nombre plus
faible d’éléments formant le faisceau ; résolution inférieure à la partie profonde du champ de
vue en raison des lignes de tir radiales ;
 angle d’insonation : en couronne à partir du centre de la sonde à la fois en mode B et en

fff
mode Doppler ;
 fréquences : plus faibles qu’avec les autres sondes (2–4 MHz), permettant une bonne
pénétration pour l’étude des vaisseaux profonds ;
 direction et production du faisceau : électronique sur tout le champ de vue avec tous les
éléments de la batterie utilisés ensemble pour former un seul groupe en mode B, et avec des
éléments séparés dirigés pour recueillir les fréquences Doppler
 focalisation : possible.

3.3. ÉCHO-DOPPLER CONTINU


L’écho-Doppler continu est le mode Doppler le plus simple. Il est utilisé pour détecter le flux
des artères périphériques, par exemple durant les études de pression ou pour rechercher un reflux
veineux. Le Doppler continu analyse de nombreux signaux provenant de différents vaisseaux situés sur
la ligne de tir du faisceau, et ne fournit donc aucune information sur la localisation ou la profondeur du
signal. L’opérateur doit distinguer les veines des artères en utilisant seulement les caractéristiques du
flux, car le Doppler continu ne fournit que des informations qualitatives.

DESCRIPTION DES APPAREILS

Figure 3.16 : Doppler continu.

ggg
 L’oscillateur produit des signaux acoustiques continus.
 Le transmetteur transmet les signaux à la sonde.
 Le récepteur détecte les signaux de retour.
 Le démodulateur élimine par filtrage les signaux de retour ayant une fréquence identique à la
fréquence d’émission, ne laissant que les signaux de fréquence différente.
 La quadrature de phase détermine si les fréquences de retour sont supérieures ou inférieures à
la fréquence d’émission afin d’enregistrer le flux comme positif ou négatif.
 L’analyseur spectral traite tous les décalages composant le signal. Une transformée de Fourier
rapide permet de reconnaître les fréquences le constituant.
 Le rendu peut se faire par l’intermédiaire d’un écran de télévision, d’un enregistrement ou d’un
système audio.

3.4. ÉCHO-DOPPLER EN MODE DUPLEX

La plupart des appareillages modernes combinent deux modalités qui utilisent des ultrasons
pulsés :
 le mode B (brillance) ;
 le Doppler pulsé ;

La même sonde est utilisée pour chacune des modalités. L’appareil peut commuter de l’un à
l’autre à grande vitesse en donnant l’illusion d’une imagerie temps réel pour chacune des deux
modalités. Le Doppler nécessite des fréquences plus basses que le mode B car les réflecteurs sanguins
du Doppler sont plus faibles que les échos tissulaires à une profondeur donnée.

Le Doppler pulsé peut être visualisé :


 en mode spectral ou
 en Doppler couleur.

Le mode Doppler spectral utilise une porte délimitant un volume d’échantillonnage qui peut
être placée précisément à n’importe quel endroit de l’image en mode B. Le mode Doppler couleur a une
boîte couleur dont la taille et la direction peuvent être modifiées sur l’image en mode B.

3.4.1. Ultrasonographie en mode B

Le mode B fournit des images bidimensionnelles, en temps réel et en échelles de gris (Figure
3.17). Tandis que la sonde balaye les tissus, l’image est créée grâce à l’information provenant des
différentes lignes de tir. Elle dépend de la profondeur, de la direction et de la brillance de chaque écho.

hhh
Figure 3.17 : Aspects en mode B des plaques athéromateuses.

iii
3.4.1.1. Échogénicité

L’échogénicité est le niveau sur l’échelle de gris affecté à chaque pixel et représente la disparité
d’impédance acoustique aux interfaces. L’échelle de gris classe les échos des plus brillants aux plus
sombres selon l’importance de la réflexion. Une structure qui retourne les échos est échogène ; en
l’absence d’écho de retour, la zone est dite anéchogène. Un réflecteur puissant apparaît brillant et
hyperéchogène, tandis qu’un réflecteur faible apparaît foncé ou hypoéchogène. Une zone de l’image
où les réflexions sont nombreuses est appelée échogène, tandis qu’une zone qui montre peu ou pas de
réflexions est peu échogène. Une structure qui a une échogénicité relativement uniforme est appelée
homogène, qu’elle soit échogène ou hypoéchogène, et une structure d’échogénicité variable est appelée
hétérogène ; elle contient à la fois des zones échogènes et hypoéchogènes ou bien des échos de
brillances différentes.

Les caractéristiques tissulaires qui interviennent dans l’échogénicité sont :


 la réflexion et les cônes d’ombre au niveau des interfaces acoustiques ;
 l’atténuation et l’absorption ;
 la profondeur du réflecteur.

Les caractéristiques techniques qui déterminent l’échogénicité sont :


 le réglage du gain, avec une relation linéaire entre le gain et la brillance de l’image ;
 la fréquence de la sonde, les hautes fréquences diminuant l’échogénicité ;
 le réglage de la TGC ;
 la gamme dynamique.

Les nouvelles techniques qui améliorent la résolution en mode B ont été rendues possibles par
l’augmentation des capacités informatiques. Des groupes de pixels peuvent être traités avant leur
affichage afin de réduire les artéfacts et d’améliorer l’image. De multiples lignes de tir sous des angles
différents peuvent être utilisées pour obtenir une tomographie numérisée, qui diminue aussi
sensiblement de nombreux artéfacts afin d’améliorer la qualité de l’image.

3.4.1.2. Description des appareils

 Le générateur d’impulsions produit des impulsions électriques très courtes afin d’optimiser la
résolution.
 Le formateur de faisceaux détermine la direction et la forme du faisceau.
 L’amplificateur augmente l’intensité des signaux de bas niveau.
 Le démodulateur convertit les composants négatifs des signaux en composants positifs et
traite tous les composants positifs.
 Le convertisseur traite les informations et stocke les signaux numérisés pour pouvoir les
rendre appropriés à l’affichage.
 Le mode de visualisation est un moniteur de télévision conventionnel.

jjj
Figure 3.18 : Échographie en mode B.

3.4.2. Doppler spectral

Comme en mode B, les ultrasons sont émis sous forme d’impulsions et une fenêtre est utilisée
pour mesurer l’intervalle de temps entre l’émission et la réception des signaux de retour et, ainsi, la
profondeur à laquelle l’échantillon est enregistré. L’analyse spectrale étudie le spectre de la fréquence
Doppler et sa direction ; elle donne habituellement la vélocité maximale plutôt que la fréquence (voir
Fig. 4-14). Le calcul du spectre des fréquences Doppler requiert 64 à 128 impulsions par ligne de tir.
L’information est quantitative.

La PRF maximale possible et la fréquence Doppler maximale pouvant être enregistrée


dépendent de la profondeur de l’échantillonnage, car l’impulsion ultrasonore suivante ne peut pas être
émise avant que toute l’information de l’impulsion précédente ne soit reçue. La limite supérieure de la
fréquence Doppler qui peut être mesurée sans ambiguïté est déterminée par la limite de Nyquist ≤
PRF/2 – sinon, les signaux seraient émis avant que ceux de retour aient atteint la sonde. La période

kkk
pendant laquelle la porte est ouverte conditionne le volume d’échantillonnage. Le Doppler pulsé donne
une échelle de fréquences beaucoup plus limitée que le Doppler continu.

Description des appareils

Les appareils sont similaires à ceux précédemment décrits pour le Doppler continu, si ce n’est
l’ajout d’un générateur de PRF (Pulse Repetition Frequency) ou horloge. L’horloge permet que les
impulsions transmises soient uniformes, et son réglage détermine la profondeur et la durée du volume
d’échantillonnage.

lll
mmm
Figure 3.19 : Doppler spectral.

3.5. FORMATION DE L’IMAGE ÉCHOGRAPHIQUE

Les différentes structures du corps humain (animal) donnent des images échographiques
différentes suivant leur nature :
 L’eau et les liquides (bile, urine, sang, kystes, épanchements) transmettent parfaitement les
ultrasons sans les réfléchir, donc sans donner d’échos ; on dit qu’ils sont anéchogènes, ils
apparaissent en noir sur les coupes. Comme ils n’entraînent pas d’atténuation des ultrasons, les
organes situés plus en arrière reçoivent et réfléchissent plus d’ultrasons et apparaissent plus
blancs, c’est le « renforcement postérieur » indispensable pour affirmer la nature liquidienne
d’une image ;

Figure 3.20 : Image échographique d’une collection liquidienne.

A : Structure liquidienne, anéchogène (noire) ;


R : Renforcement postérieur :
Ob : Ombre de bords : artéfact dû à la réfraction du faisceau d’ultrasons qui aborde tangentiellement le
contour de la collection et se trouve réfléchi très obliquement, ne revient pas vers la sonde, d’où une
absence d’échos dans l’axe du faisceau en arrière du bord de la collection.

 les organes homogènes et à forte composante hydrique (foie, rate, corticale rénale, thyroïde,
glandes salivaires, prostate, testicules) entraînent une réflexion modérée et régulière des
ultrasons, ils sont moyennement échogènes et apparaissent en gris moyen sur les coupes;
 les tissus hétérogènes et/ou composés de graisse réfléchissent beaucoup plus les ultrasons, ils
sont hyperéchogènes et apparaissent en gris très clair sur les coupes ;

nnn
Figure 3.21 : Image échographique de l’interface poumon-foie.

F : Foie.
D : Diaphragme ;
P : Poumon. L’air transmet très malles les ultrasons, la surface du gaz apparaît hyperéchogène mais
moins que l’os et le cône d’ombre en regard est moins noir car les ultrasons diffusent en tous sens
donnant une image brouillée ;
C: Cul de sac pleural, ici rempli de liquide (épanchement pleural), apparaissant anéchogène.

 les muscles et les tendons ont une structure fibrillaire qui se traduit par de fines lignes
échogènes ; les muscles, étant beaucoup plus hydriques que les tendons, sont beaucoup plus
hypoéchogènes que ces derniers;
 L’os et les éléments calcifiés (calculs, calcifications vasculaires ou musculo-squelettiques)
réfléchissent totalement les ultrasons, leur surface apparaît très hyperéchogène, très blanche et
plus aucun écho n’est détecté au-delà ce qui forme un « cône d’ombre acoustique », se
traduisant par une traînée noire en arrière de la surface hyperéchogène.
 l’air (pulmonaire, gaz intestinaux) transmet très mal les ultrasons, la surface du gaz apparaît
hyperéchogène mais moins que l’os, et le cône d’ombre est moins noir car les ultrasons
diffusent en tous sens donnant une image brouillée.

ooo
Figure 3.22 : Coupe échographique transversale antérieure de l’épaule.

Lh : Ligament huméral ;
Pt : Petit trochanter ;
BB: Tendon du long biceps brachial (dans sa gouttière) ;
D : Muscle deltoïde ;
Gt : Grand trochanter ;
O : Cône d’ombre acoustique (en regards des trochanters de l’humérus)

3.6. AVANTAGES DE L’ÉCHOGRAPHIE

L’échographie est une technique d’imagerie qui présente de nombreux avantages :


 son coût est beaucoup plus modéré que celui des autres imageries en coupe (scanner et IRM);
 elle n’est pas irradiante, pratiquement sans aucun effet secondaire, non invasive et indolore, elle
peut être pratiquée de façon itérative ;
 elle est la seule imagerie en coupe donnant une vision dynamique des organes, ce qui permet
d’observer les mouvements spontanés (cœur, respiration), mais aussi de rechercher des conflits
musculo-squelettiques par des mouvements spécifiques ;
 elle est de mise en œuvre facile, les échographes pouvant être déplacés jusqu’au lit du patient ;
 elle permet au radiologue d’affiner l’interrogatoire en même temps qu’il réalise l’examen, ce qui
est d’un apport non négligeable au diagnostic.

3.7. LIMITES DE L’ÉCHOGRAPHIE

En contrepartie de ses nombreux avantages, l’échographie présente néanmoins certaines limites,


soit de nature technique, soit de nature humaine.

3.7.1. Les limites techniques

Tout ce qui arrête ou gêne la propagation des ultrasons crée des artéfacts :
 la présence d’air entre la sonde et la peau gêne la visualisation des structures sous-jacentes. C’est
pourquoi on utilise un gel entre la sonde et la peau, et lorsqu’on étudie une zone avec des
reliefs, on ajoute une poche à eau sur la sonde linéaire ou on interpose un pain de gel pour
s’appliquer uniformément sur la zone à étudier ;
 les os, en particulier les côtes, créent des cônes d’ombre qui gênent la visualisation des organes
sous-jacents.

D’autres artéfacts sont dus au mode de formation de l’image échographique :


 les artéfacts de réverbération apparaissent quand les ultrasons font plusieurs allers-et-retours

ppp
entre la sonde et une interface très fortement réfléchissante. Cela fait apparaître soit des larges
bandes d’échos parallèles à la surface, en intervalles réguliers, qui correspondent au trajet
supplémentaire effectué par les ultrasons, soit une queue de comète (fins échos parallèles mais
très rapprochés dessinant une traînée très étroite), soit une image en miroir (lorsque qu’une
image anatomique ou une masse se trouve entre la sonde et une interface très réfléchissante).
Par exemple, les échos réfléchis par le diaphragme rencontrent l’image réelle plus tardivement et
leur temps de retour à la sonde majoré donne une localisation qui paraît située au-delà du
diaphragme ;
 les artéfacts de réfraction apparaissent quand le faisceau d’ultrasons est oblique par rapport aux
interfaces. Cela fait apparaître soit des ombres de bords, fins cônes d’ombre sur les bords
latéraux des images liquidiennes, soit une anisotropie sur les tendons (aspect moins échogène
des fibres tendineuses lorsque que le tendon a un trajet courbe et n’est plus perpendiculaire au
faisceau).

La qualité de l’image dépend également des caractéristiques de la sonde :


 la fréquence : plus la fréquence est élevée, meilleure est la définition de l’image, mais plus
grande est l’absorption des ultrasons, d’où une perte d’information en profondeur ;
 la résolution spatiale est la plus petite distance entre deux objets que la sonde peut distinguer
dans l’axe du faisceau, elle est proportionnelle à la fréquence ;
 la résolution en contraste correspond à l’échelle des niveaux de gris ;
 la résolution dynamique dépend du nombre d’images/seconde produites par la sonde.

3.7.2. Les limites liées au patient

Elles sont parfois très gênantes. Les tremblements incessants produisent des images floues au
moment du gel de l’image. L’impossibilité de tenir l’inspiration profonde ou l’apnée empêchent de
dégager le foie, la rate ou les reins des ombres costales. L’application de certaines pommades absorbe
davantage les ultrasons et altère l’image, de même que la pilosité abondante. La présence de
pansements, poches, drains ou graves lésions cutanées empêche de placer la sonde sur ces zones.
L’obésité limite la visualisation des organes profonds.

3.7.2. Les limites liées à l’opérateur

Elles dépendent de la compétence et de l’expérience de l’opérateur, mais aussi de sa patience !


Même si les sondes en temps réel « fabriquent » automatiquement l’image en coupe, il faut bien
connaître l’anatomie pour positionner la sonde au bon endroit puis examiner chaque structure sous
différents angles pour s’affranchir des artéfacts souvent présents. Il faut bien connaître l’aspect
échographique normal de chaque organe pour déterminer si ce qu’on examine est normal ou pas. En
cas d’anomalie, il faut connaître la sémiologie des différentes pathologies pour aboutir soit à un
diagnostic précis, soit parfois seulement à une gamme de diagnostics possibles. Du fait de toutes les
limites déjà citées, l’examen peut parfois ne pas être contributif et nécessiter le recours à d’autres
imageries, mais c’est le rôle de l’échographiste de faire tous les efforts possibles pour obtenir des
coupes interprétables même dans des conditions techniques difficiles. . .

qqq
rrr

Vous aimerez peut-être aussi