Vous êtes sur la page 1sur 8

Le monde de l’électronique numérique :

1.Codage d’images :
Quand on zoome sur l’image, on voit apparaître sa nature. En fait, l’image est un tableau
rectangulaire organisé de pixels (pour picture elements ou éléments d’image). Quand on a
suffisamment zoomé, on voit des carrés dans lesquels la teinte est uniforme. Ce sont les
pixels.
En fait, une image n’est pas un tableau de pixels : elle est en réalité faite de trois plans dits
"colorimétriques" ou "chromatiques".
On montre qu’une couleur peut être décomposée en trois couleurs dites primaires.
Le modèle RVB pour Rouge Vert Bleu (ou RGB, en anglais, pour Red, Green, Blue) est
appelé modèle naturel, parce qu’il est conforme au fonctionnement de l’œil humain.
En revanche, le standard de l’impression sur papier offset couleur utilise un autre système
chromatique, le modèle CMJN qui est composé des couleurs complémentaires au modèle
RVB. Il en existe encore d’autres qu’il est inutile de citer. Par contre, il faut bien comprendre
qu’on peut passer aisément d’un modèle à l’autre de façon réversible, par des équations
linéaires de transformation.
Le système CMJN, qui décompose chaque teinte en ses composantes cyan, magenta et
jaune

Ici, le pixel analysé figure dans le nuage de gaz, désigné par la flèche. La teinte est
marron et la fenêtre « sélecteur de couleurs » indique les composantes RVB. On lit
: R=171 ; V=91 ; B=66.

Dans le système RVB classique, chaque composante chromatique est codée sur 8
bits. Le codage sur 8 bits permet 256 valeurs comprises entre 0 et 255. On constate
que la nuance marron a une composante rouge assez importante (171), mais (et ce
n’est pas intuitif) a également une composante bleue, toutefois assez faible, soit 66.
On constate aussi que la même fenêtre donne les composantes dans trois autres
modèles chromatiques, les modèles TSL L*a*b et CMJN.

On peut juste relever une curiosité, une subtilité entre le modèle CMY (Cyan, Magenta,
Yellow) et le modèle CMJN qui est en fait quadrichromique, puisque la dernière
composante est le taux de noir.

Dans l'image ci-dessus, il s’agit tout simplement d’analyser un autre pixel, toujours
repéré par la flèche. On y lit : R=61, V=118 et B=145. On confirme aisément que le
pixel est de dominante bleue, ou cyan, si on prend la peine de regarder les
pourcentages CMJN.

Chaque pixel étant codé sur 3 composantes chromatiques et chaque composante


étant codée sur 8 bits, on parle d’images 24 bits (3 fois 8). Il faut bien comprendre
que la teinte de chaque pixel est décrite sur un mot de 24 bits, ce qui correspond
à 224224 combinaisons de teintes, soit environ 16 millions de teintes ou nuances.

Une image à forte résolution occupe rapidement un espace mémoire important, d’autant
plus que la résolution est élevée. C’est pour cette raison qu’on utilise massivement
des algorithmes de compression.

Pour ce faire, nous allons traiter un exemple avec un capteur de 20 Mpx. La


résolution en est 5 472 x 3 648, soit, en faisant le produit, un tout petit peu moins de
20 millions de pixels. Chacun des pixels est codé sur 3 octets. Par simple produit, on
obtient une image brute (sans compression, qui correspond au format RAW)
d’environ 60 Mo.

Même si les composants mémoire sont toujours plus intégrés et de capacités


toujours plus grandes, même si les liaisons réseau sont toujours plus rapides, on
considère qu’une telle taille de fichier (60Mo) est excessive. C’est pour cette raison
qu’on utilise la compression qui sort du cadre de ce cours. Nous nous contentons
d’en indiquer le principe de base et de bien pointer le fait que l’algorithme, comme
tout algorithme, procède de la manipulation des tableaux de l’image.

La compression est basée sur la redondance spatiale qu’il y a dans toute image.
Dans une image naturelle (comme l’image présentée au-dessus) y a des zones où
les pixels adjacents sont de teintes très proches. Dans un ciel bleu, il peut y avoir de
grandes zones où les variations de teinte sont tellement faibles qu’elles sont
invisibles à l’œil humain. Tous les algorithmes procèdent par réduction de cette
redondance spatiale. C’est le cas notamment de JPEG, qui est sans doute le plus
usité.

Si on revient à l’image d’origine, elle est composée de 750 000 pixels fois 3 octets (à
cause des 3 composantes chromatiques) et pèserait en format RAW (sans
compression), environ 2,3 Mo ; et pourtant, elle n’occupe que 169 Ko. Le facteur de
compression (le rapport entre taille avant compression et taille après compression)
est supérieur à 10, ce qui est très performant.

Ce facteur de compression 10 est assez courant. On admet que le gain de taille est
important pour une perte d’information qui est parfaitement tolérable et, de fait, un
œil ordinaire ne voit généralement pas la différence entre image RAW avant
compression et image JPEG compressée avec un facteur 10.
2.Codage de vidéos :

Sur le plan du principe, une vidéo n’est jamais qu’une séquence d’images fixes qui se
suivent au rythme de, par exemple, 25 images par seconde pour assurer la fluidité du
mouvement.
Les principaux critères de qualité sont évidemment la résolution de l’image et la
fréquence ou cadence de rafraîchissement (mesurée en FPS, pour Frames Per
Second ou images par seconde).

Il est difficile d’y voir clair, tant cet univers évolue vite. Les cadences 25 FPS ou 30
FPS sont classiques. Quand on veut réaliser des super ralentis, paradoxalement, il
faut capter la vidéo à FPS élevée, puis ensuite diffuser à FPS standard (25 ou 30
FPS). Les caméras de gamme moyenne ou les smartphones filment maintenant à
240 FPS voire plus (il existe aussi des caméras rapides qui filment à 1 000 FPS).

La vidéo, plus encore que les images fixes, doit être compressée parce qu’elle génère un
nombre astronomique d’images.

Pour illustrer la nécessité de la compression vidéo, nous faisons un petit calcul


d’ordre de grandeur. Imaginons une vidéo Full HD (de résolution 1920 x 1080
pixels) cadencée à 25 FPS. Déterminons la taille, sans compression, d’une heure de
vidéo. Chaque image fait environ 2 Mpx, soit 6 Mo. Il faut multiplier par 25 pour avoir
une seconde de vidéo, puis par 3 600 pour avoir une heure de vidéo. Soit finalement
540 gigaoctets (Go) !!

Il faut donc, en vidéo encore plus que pour une image fixe, compresser.

L’idée est d’exploiter, en plus de la redondance spatiale au sein d’une image,


la redondance temporelle. Deux images successives (qui correspondent donc à un
petit intervalle temporel) sont généralement très proches sauf en cas de changement
de plan, ce qui arrive quand même relativement rarement. Pour faire simple, on va
coder plutôt des variations d’images et on met même en œuvre des méthodes de
prédiction par analyse des mouvements des objets dans la scène. Par
d’astucieuses combinaisons de traitement du signal, qui recourent à des
mathématiques et statistiques avancées, on obtient des taux de compression
énormes, de l’ordre de 100, voire plus.

L’algorithme le plus usité s’appelle MPEG, et en est aujourd’hui à sa version 4.


Les images fonctionnent en GOP (Groups of Pictures). Les images de type I sont complètes.
Quand on change de plan (entre images 8 et 9), il n’y a aucune corrélation spatiale ni
temporelle : il faut une nouvelle image initiale. Les images de 2 à 8 sont une combinaison
d’images de type P et B qui utilisent de la prédiction de mouvement. Les images de type P
contiennent typiquement de 30 à 40 % d’information brute et sont donc assez riches, tandis
que les images de type B ne codent que de toutes petites différences et sont donc très peu
volumineuses.

Les capteurs d’images sont aujourd’hui essentiellement en technologie CMOS, ce


qui permet un très haut degré d’intégration.

Le capteur sur la figure ci-dessus est un capteur Canon qui annonce 250 millions de pixels.
Chaque pixel, appelé aussi photosite, contient des microlentilles qui focalisent l’image sur
des photorécepteurs. Des filtres de couleur séparent les trois composantes chromatiques R,
V et B. Puis, la quantité de lumière qui tombe sur le photorécepteur est convertie en
grandeur électrique. La figure ci-après en illustre le principe.

L’électronique rapprochée organise les données dans des composants mémoire et


cette électronique rapprochée est déjà en soi un système numérique élaboré, qui
n’est toutefois pas autonome. Il doit ensuite être interfacé de quelque manière à un
microprocesseur qui récupère l’image complète.

Ce type de capteur est dit numérique natif parce que les données qu’il élabore sont
intrinsèquement numériques, dès leur apparition.
3.Numérisez des signaux analogiques :

3.1.Qu’est-ce qu’un Signal ?


Un signal est défini comme étant le support, ou vecteur physique de l'information. Toute
grandeur physique est a priori un signal au sens large, même une longueur. La capacité
d'un signal à porter de l'information réside dans les variations spatiales ou temporelles de la
grandeur associée. Les variations sont souvent temporelles quand la grandeur est vibratoire,
plus rarement spatiales, voire spatio-temporelles quand la grandeur est ondulatoire.
Le signal de surpression acoustique (par rapport à la pression atmosphérique)
correspond à une grandeur ondulatoire. Quand une source diffuse du son, le signal est un
champ de pression défini en tout point et à chaque instant p(x,y,z,t). Bien que
l'aspect spatio-temporel d'un signal soit riche d'applications, on s'intéressera, dans ce cours
introductif, aux signaux dont les variations sont uniquement temporelles.
Dans une chaîne complète de traitement, le caractère spatial ou temporel d'un signal n'est
pas absolu.

3.2.Analogique versus Digital :


Un signal analogique correspond à une grandeur physique définie à chaque
instant. Comme le temps s'écoule continûment (au moins à notre échelle), le modèle
mathématique d'un signal analogique correspond à une fonction du temps. Comme
les grandeurs physiques ne peuvent généralement passer instantanément d'une
valeur à une autre, arbitrairement différente à cause de l'inertie, un signal analogique
est généralement modélisé mathématiquement par une fonction continue du temps.

Si on trace p(t) de manière classique (t en abscisse et p en ordonnée), le signal est


caractérisé par une double continuité sur chacun des axes.

Le passage du signal analogique vers le signal numérique passe par la discrétisation de


l'un, puis des deux axes du signal p(t). La discrétisation consiste à renoncer à la variation
continue pour des variations par saut de valeurs. Elle est nécessaire, et liée à l'incapacité
des systèmes de traitement électroniques (les processeurs) à traiter un nombre infini de
valeurs.

L'échantillonnage consiste à renoncer à la continuité de l'axe des temps. Des échantillons


sont régulièrement prélevés à des instants discrets. La période d'échantillonnage est le
temps écoulé entre deux échantillons successifs.

La quantification consiste à renoncer à la continuité sur l'axe des ordonnées. La


résolution est la plus petite variation de la grandeur physique qui définit le signal ;
dans notre exemple, la surpression acoustique.

Un signal numérique désigne généralement un signal qui a subi les deux


discrétisations sur les deux axes. Si on ne veut évoquer que la discrétisation sur
l'axe des temps et conserver la continuité sur l'axe des ordonnées, on parle alors
de signal échantillonné.
4. Capteurs/transducteurs :

Les signaux les plus « plastiques » — en ce sens qu'ils donnent lieu à une multiplicité de
traitements relativement aisés — sont les signaux électriques. Peu de signaux sont
électriques natifs. Il convient donc de les convertir en signal électrique, tension ou courant.
C'est le rôle du capteur appelé aussi transducteur, plus rarement senseur (de
l'anglais sensor).

On comprend à présent pourquoi on parle de signal analogique qui, par abus de


langage, désigne aujourd'hui les signaux continus à variations temporelles (ou
spatiales) continues. Les deux capteurs suivants sont très classiques dans la chaîne
de traitement du signal acoustique.

Le microphone est un capteur très répandu. L'adjectif électrostatique est relatif à


son principe de fonctionnement. La surpression acoustique fait vibrer une armature
d'un condensateur, et cette vibration est convertie en tension électrique analogique,
qu'on peut visualiser à l'oscilloscope.

Le diamant suit le profil du microsillon au gré de la rotation du disque. Le signal


acoustique est codé spatialement sur le disque par les variations de hauteur du
profil.

5. Échantillonnage :

Pour assurer la numérisation au sens de la double discrétisation (cf. supra), il faut


échantillonner le signal puis effectuer une conversion analogique numérique.
Concrètement, l'échantillonnage consiste à « figer » la valeur analogique d'un signal
à un instant précis.

On peut réaliser cette opération sur le plan de son principe en chargeant un


condensateur par fermeture de l'interrupteur qui le connecte au signal pendant un
temps bref. Si la résistance série du condensateur est faible, la charge est rapide
(mais pas instantanée). Lorsqu'on ouvre l'interrupteur, la tension à ses bornes
représente la valeur analogique échantillonnée du signal.

Une fois échantillonnée, la tension analogique doit être numérisée par un


convertisseur analogique numérique et pour ce faire, la tension échantillonnée doit
rester constante pendant toute la durée de conversion. C'est le rôle de
l’échantillonneur/bloqueur illustré dans la figure ci-dessous à titre purement
indicatif.
6. convertisseur analogique numérique :

Le convertisseur analogique numérique (CAN) (ADC pour Analog to Digital


Converter) est un composant électronique hybride, en ce sens qu’il interface le
mode analogique et le mode numérique. Sa constitution interne est largement au-
delà de l’ambition de cet enseignement.

Nous nous contenterons d’en décrire le principe général du point de vue de


ses entrées/sorties, et nous listerons ses principales caractéristiques qui permettent
de guider le choix du concepteur quand il s’agit de déterminer une référence
particulière dans un problème de conception. Du point de vue des entrées/sorties, il
est conforme à la figure ci-dessous :

Convertisseur analogique numérique - Source : INSA


Le composant a pour entrée la tension analogique à convertir, notée Vin, et
détermine en sortie un mot codé sur n bits, équivalent numérique de l’entrée selon
l’équation :

Le composant a pour entrée la tension analogique à convertir, notée Vin, et


détermine en sortie un mot codé sur n bits, équivalent numérique de l’entrée selon
l’équation :

Vin=N.q+ϵ
q est appelé pas de quantification donné par q=(Vref+-Vref)/2𝑛

où Vref+ et Vref− sont deux tensions connectées sur les deux broches du même
nom du composant CAN.

ϵ est une erreur systémique appelée erreur de quantification, qui n’est pas liée
aux imperfections de la technologie mais au principe même de la conversion, qui fait
correspondre un nombre entier entre 0 et 2𝑛−1à une infinité de valeurs possibles en
entrée, puisque Vin varie continûment au sens des nombres réels sur la
plage Vref− à Vref+

Pour compléter le panorama sur les principales caractéristiques des CAN, il faut
encore citer sa rapidité donnée par le temps de conversion. Ce temps de conversion
doit être compatible avec la fréquence d’échantillonnage visée. En audio, on
échantillonne couramment à 48 kilo-échantillons par seconde. Si nous arrondissons
à 50 kilo-échantillons par seconde pour l’ordre de grandeur, ça signifie qu’il faut faire
50 000 conversions par seconde ; autrement dit, il faut que le temps de conversion
soit inférieur à 20 microsecondes.

Vous aimerez peut-être aussi