Vous êtes sur la page 1sur 37

ELEMENTS DE PHOTOGRAPHIE NUMERIQUE

L'idée de remplacer le film argentique utilisé en photographie traditionnelle par un autre type de
récepteur sensible à la lumière est très ancienne. C'est ainsi que dès les années 1930, on savait
produire des images électroniques avec une caméra de télévision. Mais il fallut attendre les années
1980 pour voir la naissance des capteurs CCD (Charged Coupled Device - en français « dispositif à
transfert de charge ») pour disposer d'un système de prise de vue capable de rivaliser avec les
émulsions chimiques. Le premier appareil photo numérique présenté au public est le MAVICA de Sony
dont le prototype fut montré au public en 1981 mais dût attendre 1990 pour être commercialisé avec
très peu de succès. Suite aux difficultés de réaliser des capteurs suffisamment performants, il fallut
attendre 1995 pour voir cette technique connaître une certaine vulgarisation. Actuellement le
marché toujours en pleine évolution, mais si le rythme des nouveautés marquantes tend à ralentir.
Ce succès est dû essentiellement au développement des ordinateurs personnels et aux possibilités
créatives offertes par les logiciels de traitement d'images.

• En 1975, Steven Sasson, un ingénieur américain travaillant chez Kodak, met au point le premier appareil photo
électronique1. Ce prototype pèse 3,6 kg et capte des images de 100 x 100 pixels en noir et blanc grâce à un nouveau
capteur CCD. L'enregistrement de la photo, sur le support d'une banque magnétique sur cassette, prend 23 secondes.
• En 1981, Sony lance le Mavica (Magnetic Video Camera). Il est doté d'un capteur CCD de 279 300 pixels (l'Amstrad
D950 qui arrive en même temps sur le marché en possède dix fois moins) et stocke les photos numériquement sur
une mini-disquette d'une capacité de cinquante photos. Avec des accessoires supplémentaires, il est possible de
visualiser les photographies sur un téléviseur, les imprimer ou les envoyer par le réseau téléphonique, sans possibilité
de retouche ;
• En 1989, Canon sort son premier appareil numérique, le Canon Ion RC-760, équipé d'une disquette de 2 pouces
(Video Floppy Disk), les photos sont en noir et blanc.
• En 1990, Kodak sort plusieurs appareils à usage professionnel. Le Fotoman (1992) de Logitech, à destination du
grand public, permet de stocker sur 1 Mo, trente-deux photographies en niveaux de gris ;
• En 1991, Kodak sort à l'intention des professionnels un dos numérique2 de 1,3 mégapixels (le DCS 100) pour le Nikon
F3, un appareil photo reflex classique (argentique). C'est la première fois qu'on peut utiliser un reflex pour produire
des images numériques ;
• En 1994, apparaît chez Apple le premier appareil photo grand public couleur, le QuickTake 100 de 0,3 million de
pixels, comme le Fotoman Plus de Logitech sorti peu de temps après ;
• En 1995, apparaît chez Casio le QV-10. Premier appareil photo doté d'un dos LCD à destination du grand public ;
• En 1999, Nikon lance le Nikon D1, premier appareil reflex numérique conçu entièrement par un grand fabricant. Il est
équipé d'un capteur de 2,74 mégapixels. Les capteurs de plus d'un mégapixel se généralisent ;
• En 2000, Canon lance son premier reflex entièrement conçu par eux-mêmes, le D30 de 3 mégapixels. Jusqu'alors,
Canon était associé à la firme américaine Kodak pour produire conjointement des boîtiers avec capteur Kodak ;
• En 2002, Canon lance son premier appareil reflex numérique 35 mm (36 x 24 mm), le EOS 1Ds. Deux capteurs APS-C
CMOS apposés côte à côte permettent d'obtenir un capteur 36 x 24 mm de 11 mégapixels ;
• En 2002, il se vend en France deux fois plus d'appareils photo numériques que l'année précédente. 70 % du chiffre
d'affaires de ventes d'appareils photographiques proviennent du numérique3 ;
• En 2003, Canon sort le premier reflex numérique à destination du grand public : l'EOS 300D en Europe et Digital
Rebel en Amérique du Nord ;
• En 2004, Canon lance le 1Ds Mark II de 16 mégapixels. Le deuxième appareil avec capteur CMOS 36 x 24 mm ;
• En 2004, des capteurs numériques équipent un bon nombre de téléphones cellulaires, le plus souvent avec une
définition de 640 x 480 pixels (0.3MP) (VGA), parfois avec un capteur de 1,3 million de pixels ou plus ;
• En 2005, Canon sort le premier reflex numérique 24 × 36 à prix « attractif » : le EOS 5D, référence pour les photo-
journaliste jusqu'à l'arrivée des D300/D700 chez Nikon et du 5D Mark2 sortis tous trois en 2008 ;
• En 2006, le géant américain Kodak ainsi que l'ensemble de ses concurrents (Fuji, Agfa, Konica Minolta…) connaissent
des baisses de chiffres d'affaires records dues à la non rentabilité des appareils et accessoires argentiques ;
• En 2007, Kodak crée un nouveau type de capteur4 qui, au lieu de tester en chaque point la luminosité de trois
couleurs, sépare les informations de luminance et de chrominance, et utilise donc quatre capteurs. Le bénéfice
attendu en est une plus grande stabilité de luminance ;
• En 2008, certains téléphones cellulaires disposent d'un APN de 8,1 mégapixels, flash au xénon ou à DEL ;
• En 2008, Panasonic présente ses G1 et GH1, à objectifs interchangeables et dotés d'un capteur CMOS 4/3 de
12,1 mégapixels. La firme inaugure une nouvelle catégorie d'APN : les hybrides ;
• En 2009, la diversification des appareils photos numériques se poursuit avec la sortie de l'Olympus Pen E-P1 à
objectifs interchangeables et doté d'un capteur CMOS 17,3 x 13 mm de 12,3 mégapixels. Leica sort le 9 septembre
2009 le plus petit appareil en équivalent 24 x 36 (plein format) du monde, le M95 (appareil télémétrique). Fuji sort le
premier appareil photo numérique stéroscopique à deux objectif périscopiques écartés de 77 mm, le Finepix REAL 3D
W1, avec deux capteurs 10,0 Mpixels et un écran de contrôle autostéréoscopique.
• En 2010, Fuji sort le Finepix REAL 3D W3, le premier appareil photo numérique 3D au monde réalisant des vidéos 3D
HD.

Pascal DAMUSEAU St-Luc Liège Page 1 20/11/2013


1. COMPARAISON ENTRE LES DEUX PROCEDES.

La chaîne analogique, procédé négatif - positif La chaîne numérique :

1 - sujet 1 - sujet
2 - appareil photo 2 - appareil numérique
3 - développement du film 3 - carte mémoire
4 - film négatif 4 - ordinateur
5 - agrandissement 5 - imprimante
6 - développement du tirage positif 6 - photo imprimée
7 - tirage papier final

Remarque : certaines imprimantes ne nécessitent pas d'être raccordées à un ordinateur, elles peuvent
reproduire directement les images à partir de la carte mémoire.

Toutes les opérations, depuis le moment où l'on appuie sur le déclencheur jusqu'à celui où on imprime
les épreuves, sont effectuées à partir de données numériques.

Pascal DAMUSEAU St-Luc Liège Page 2 20/11/2013


Le processus habituel est le suivant :

- prise de vue avec un appareil numérique


- écriture des données sur une carte mémoire
- transfert des données sous forme de "fichier image" vers le disque dur de l'ordinateur
- retouche - amélioration de l'image à l'aide d'un logiciel approprié
- tirage sur papier à l'aide d'une imprimante à jet d'encre ou à sublimation (ou tirage sur papier
photographique via un laboratoire – procédé hybride de type Fuji Frontier).
- archivage des fichiers sur un support de stockage (CD-ROM)

La chaîne hybride analogique - numérique :

Cette solution conjugue les avantages des deux procédés : la haute résolution des films photo
(surtout en moyen et grand format) et la souplesse de l'ordinateur. Grâce à un scanner le négatif, la
diapositive ou le tirage papier est numérisé. La suite des opérations peut alors se faire comme pour la
photographie numérique pure.

Principe de la photo numérique :

En prise de vue numérique, les variations de luminance et de couleur de la scène photographiée sont
traduites en informations électriques et puis transformées en données binaires grâce au processus de
numérisation. La numérisation des informations recueillies par le capteur CCD permet le stockage,
l'exploitation, le traitement, puis la restitution de l'image sous sa forme analogique sur un support
fugace (écran) ou permanent (papier) via une imprimante.

Luminance et Chrominance.

Une image numérique en noir-et-blanc est une "matrice" ou un tableau rectangulaire de valeurs
numériques comprises entre deux extrêmes, la plus petite représentant le noir et la plus grande le
blanc ; le nombre de lignes et de colonnes de la matrice correspond au nombre de lignes et de points
par lignes de l'image numérique: ce que l'on appelle "la définition", comme en photographie
conventionnelle. Une image numérique divise donc le plan-image et pour chaque point, appelé pixel
(picture élément), donne le niveau de gris le caractérisant ou LUMINANCE.

Pascal DAMUSEAU St-Luc Liège Page 3 20/11/2013


La représentation de la couleur repose sur le principe de la synthèse additive de la lumière. Depuis
Newton (XVIIè siècle) et Maxwell (XIXè siècle), on sait que la rétine de l’œil humain possède trois
types de cellules de vision diurne : les "cônes" sensibles soit au rouge, soit au vert, soit au bleu. Une
image numérique en couleur sera donc la combinaison de trois images numériques monochromes,
rouge, verte et bleue, exactement comme en photographie couleur conventionnelle.

Après "la saisie" vient l'enregistrement. Ici, au début de la photographie électronique, c'est l'apparition
de la vidéo qui a ouvert la voie à l'enregistrement magnétique d'une image. Ce dernier s'effectue en
convertissant dans un premier temps un signal optique (l'image obtenue par l'objectif de l'appareil) en
signal électrique qui vient ensuite s'inscrire sur un support magnétique. Le plus souvent, cette
dernière opération s'effectue de manière analogique : l'aimantation du support suit continuellement
les variations du signal à enregistrer. Notons que dans ce cas, il est impossible de tenir compte du
système rouge, vert ou bleu lors de l'enregistrement des images en couleurs, mais ces images sont
représentées en général par une information dite de "CHROMINANCE" pour les couleurs (on
retrouve ces termes dans les caractéristiques des appareils vidéo et télévision).

2. LE CAPTEUR MATRICIEL (CCD).

Un capteur CCD comporte une matrice formée de la juxtaposition en rangées et en colonnes de


plusieurs centaines de milliers de cellules photosensibles, que par commodité on assimile à des pixels.
Pendant l'exposition, le capteur reçoit l'image formée par l'objectif et chacun de ses pixels génère une
tension électrique proportionnelle à l'intensité de la lumière qui l'a frappé. Les charges électriques
recueillies à la sortie du capteur sont alors numérisées, dans certains cas traitées par un Digital Signal
Processor (DSP) et "vidées" dans une carte mémoire. Pour enregistrer les couleurs, on procède
comme en photographie traditionnelle, en analysant les proportions des 3 couleurs primaires, grâce à
des filtres rouge, vert, bleu (RGB) placés en quinconce devant les cellules du capteur.

Un capteur est composé des éléments suivants :

Le support

Support semi-conducteur recouvert de couches polarisées. Selon la technique utilisée, ces couches
sont constituées de silice dopée positivement recouverte d'une fine couche isolante d'oxyde de silicium
supportant un réseau d'électrodes, ou d'une couche photosensible en dioxyde de silicium prise en
sandwich entre une couche dopée positive et un substrat négatif.

Le photo-capteur (CCD ou C-Mos)

Disposés en rangées et en colonnes, les photo-capteurs sont composés d'un élément photosensible -
le pixel - et de composants électroniques tels que des drains qui acheminent la charge électrique, ainsi
que des portes et des stoppeurs qui autorisent ou empêchent son déplacement.

Pascal DAMUSEAU St-Luc Liège Page 4 20/11/2013


Le photosite (souvent appelé par erreur Pixel).

Sous-élément de la cellule, le photosite est l'élément photosensible qui réagit à la lumière. Selon la
technologie utilisée le photosite occupe une surface plus ou moins grande de la cellule. Dans un
capteur de 2/3 de pouce de diagonale, un photosite occupe jusqu'à 32% de la surface totale de la
cellule. Cette valeur appelée rapport d'ouverture du photosite, conditionne la densité des photosites
dans un réseau CCD. Plus ce rapport est élevé, plus l'image est détaillée car l'intervalle entre les
photosites est réduit.

Le piqué de l'image dépend, entre autre, de la taille du photosite. Selon la technologie utilisée, sa
largeur varie de 3 à 17 microns (millième de mm). Or, en théorie, plus un photosite est petit, plus on
peut en loger dans une surface donnée. Chaque rangée horizontale d'un capteur de 2/3 de pouce
compte 500 photosites de 17 microns. Si leur taille est de 11 microns on en logera 780, ce qui
représente un gain de définition notable.

La zone image.

C'est la partie du capteur qui est effectivement utilisée. Les cellules qui la composent sont entourées
d'une zone de photosites aveugles qui ne sont pas exposés à la lumière et servent à étalonner le noir.
Elles forment des marges de 5 à 25 cellules de large.

Pascal DAMUSEAU St-Luc Liège Page 5 20/11/2013


Le registre.

Zone de transit recevant les signaux; ils sont ensuite transmis vers un amplificateur puis dirigés vers
la sortie.

Pascal DAMUSEAU St-Luc Liège Page 6 20/11/2013


LES DIFFERENTS TYPES DE CAPTEURS POUR LA PHOTOGRAPHIE

Pascal DAMUSEAU St-Luc Liège Page 7 20/11/2013


3. LE PRINCIPE DE FONCTIONNEMENT DE L' APPAREIL NUMERIQUE.

4. LA PIXÉLISATION D' UNE IMAGE :

Si l'on devait chercher une analogie entre une surface sensible photoélectrique (capteur CCD) et une
surface sensible photochimique (film), on pourrait comparer le délai pour produire la charge électrique
à la durée de rotation des molécules d’halogénure d'argent, lorsque la lumière frappe le film.
L'analogie ne s'arrête pas là : de même que la taille et la densité des cristaux métalliques (grain )
déterminent la définition de l'image argentique, la quantité de cellules et donc leur densité détermine
la précision de l'image numérique. L’image prise par un appareil photo numérique est constituée d'un
réseau de points ordonnés en rangées et en colonnes, calqués sur les pixels du capteur CCD. Ce type
d'image point par point est appelé bitmap, abréviation du terme anglais « bit mapping », cartographie
de bits.

Tout pixel d'une image se caractérise par :

• Sa position dans le réseau, définie en X (ordonnée) et en Y (abscisse) à partir d'un point d'origine
situé en haut à gauche de l'image

• Le codage de ses couleurs (en termes de luminance et chrominance)

5. LA RESOLUTION

En infographie, la résolution est définie par le nombre de pixels en longueur et en hauteur. On dira
ainsi qu'une image est de 800 x 600 pixels (exemple de taille écran) ou de 7360 x 4912 pixels (taille
de l'image prise avec un Nikon D800) par exemple. En photographie, les fabricants ont pris l'habitude
d'exprimer la résolution par le nombre total de pixels produits par le capteur; c'est ainsi que le Nikon
cité plus haut à une résolution de 36.152.320 photosite (qui deviendront des pixels), le fabricant
toujours prêt à "gonfler" les performances de son matériel l'annonce comme un 36.800.000
photosites; il tient compte des pixels "aveugles" situés à la périphérie du capteur et qui ne servent pas
à constituer l'image proprement dite mais qui sont là pour étalonner le noir.

Pascal DAMUSEAU St-Luc Liège Page 8 20/11/2013


La qualité d'une photographie numérique imprimée dépend donc directement du nombre de pixels de
l'image originale, aucune imprimante ne pouvant restituer des pixels qui n'ont pas été enregistrés par
l'appareil (ou le scanner). Il est évident si l'image est agrandie, les pixels sont agrandis dans les
mêmes proportions et la résolution diminue d'autant.

La résolution d'une image numérique s'exprime en ppi (pixel per inch en anglais) ou en ppp (pixel par
pouce en français). Pour information la résolution d’un écran d’ordinateur avoisine les 100 ppi.

La qualité "photo" s'obtient avec une imprimante à jet d'encre à partir d’un fichier à 200 ppp.

Les imprimeurs et les labos d’impression professionnels exigent généralement une résolution de 300
ppp.

Une résolution supérieure ne nuit pas à la qualité de l'image mais génère des fichiers d'une taille
excessive et inutile.

L'image 1 (volontairement altérée) qui mesure 1 x 1 pouce (approximativement 2.56 x 2.56 cm) est
imprimée avec une résolution de 4 ppi. comprend donc 4 x 4 pixels soit au total 16 pixels qui
mesurent ¼ pouces

L'image 2 est imprimée avec une résolution de 10 ppi. Elle comprend donc 10 x 10 pixels soit au total
100 pixels qui mesurent chacun 2.56 mm.

L'image 3 est imprimée avec une résolution de 16 ppi. Elle comprend donc 16 x 16 pixels soit au total
256 pixels qui mesurent chacun 0,16 mm. La taille du fichier est de 360.000 octets soit 352 Ko. Si elle
était imprimée sur un papier de qualité appropriée, on pourrait parler de "qualité photo".

Pascal DAMUSEAU St-Luc Liège Page 9 20/11/2013


6. NETTETE - RESOLUTION - GRANDEUR D' IMAGE

La netteté est une sensation subjective qui dépend de nombreux facteurs : la distance d'observation
de l'image, sa luminosité, son contraste, le nombre de détails fins qu'elle comporte etc... Telle image
qui semblera nette quand elle est petite ou observée de loin peut paraître floue si elle est agrandie ou
observée de près.

Il faut savoir que l' oeil humain moyen peut percevoir à 30 cm de distance (cette distance est
appelée punctum proximum de l’œil) 2 traits séparés de 0,15 mm.(c'est d'ailleurs cette même
valeur qui régit les règles de calcul de la profondeur de champ). A partir de là, il est facile de calculer
la résolution minimum que doit avoir une photo numérique pour atteindre la "qualité photo" c'est-à-
dire quand, à première vue, l'image numérique ne se distingue pas d'un excellent tirage photo
traditionnel.

Puisque, pour que l'image semble nette, chaque pixel doit avoir une taille plus petite ou au moins
égale à 0,15 mm, une simple division nous permet de calculer le nombre minimum de pixels par mm,
par cm et par pouce soit : 7 pixels par mm - 70 pixels par cm ou 178 pixels par pouce ou arrondi
(avec une marge de sécurité) 200 ppi pour une imprimante à jet d'encre. Rappelons que cette
démonstration n'est valable que pour une distance d'observation de 30 cm.

On voit donc bien que le meilleur appareil numérique ne vaut que ce que vaut son capteur CCD.

A propos des imprimantes :

II y a trop souvent confusion entre les ppi (pixels per inch) exprimés pour les outils de prises de vues
(capteur CCD, scanner...) et les dpi (dots per inch) exprimés pour les périphériques de sorties
(imprimantes). Quand on dit qu'une imprimante à une résolution de 1.200 dpi, cela veut simplement
dire qu'elle dispose de 1.200 points d'encre par pouce pour restituer le plus fidèlement possible les
pixels de l'image. En fait, si par exemple une image d'une résolution de 300 ppi est éditée par une
imprimante de 1.200 dpi, chaque pixel sera restitué à l'aide de 4 points d'encre. En aucun cas, une
imprimante ne peut restituer des pixels qui n'existent pas sur la photographie.

7. LA TAILLE DES CAPTEURS CCD & LA RESOLUTION.

A l'heure actuelle, les capteurs CCD sont encore de petite, ou de très petite taille. Les plus grands de
2 pouces (longueur de la diagonale) ont une dimension de 36 x 36 mm et sont utilisés sur les dos
numériques qui équipent les appareils de grand format et de moyen format et sont extrêmement
onéreux. Un Nikon D 300, appareil reflex, est muni d'un capteur de 23,7 x 15,6 mm pour une
résolution de 12 Mo pixels.

Les appareils compacts grand public sont pour la plupart dotés d'un capteur d'origine SONY de 1/1,8
pouce de diagonale soit environ 11,5 x 8 mm pour une résolution de 12 à 16 Mo pixels. Il est
vraiment étonnant qu'une si petite surface puisse loger autant d'informations (plus de 350 pixels
par mm).

Aucune émulsion photographique argentique courante n'atteint cette résolution. On comprend dès lors
que les appareils numériques doivent impérativement être équipés d'objectifs de très haute qualité, ce
qui n'est pas toujours le cas.

8. LA SYNTHÈSE DES COULEURS :

Les couleurs peuvent résulter de l'addition ou de la soustraction de différentes radiations visibles : un


mélange à peu près égal de toutes les radiations visibles donne de la lumière blanche. Mais il suffit de
prendre les trois régions principales du spectre c-à-d le rouge, le vert et le bleu et de les mélanger en
différentes proportions pour pouvoir reproduire toutes les teintes intermédiaires.

Pascal DAMUSEAU St-Luc Liège Page 10 20/11/2013


Cette constatation est importante car elle signifie qu'un film couleur n'a besoin que de 3 couches
respectivement sensibles à ces 3 lumières primaires pour restituer une image couleur complète.

Il en est exactement de même en infographie. Une image numérique couleur est constituée de 3
images noir et blanc : l'une formée par les radiations rouges, l'autre par les radiations vertes et la
troisième par les radiations bleus. La superposition de ces trois "couches" respectivement colorées
dans leur teinte respective formera l'image. En numérique ce mode de restitution RVB est utilisé par
les capteurs CCD, les moniteurs, les écrans de télévision ainsi que par certaines tireuses photo
argentiques et les machines de tirage numérique de type « Fuji Frontier ». Mais, si l'on peut former
les couleurs en additionnant les lumières colorées "primaires" on peut également soustraire certaines
proportions de radiations de la lumière blanche pour parvenir à cette synthèse des couleurs.

Par exemple, pour soustraire le bleu, il suffit de placer un filtre jaune dans le faisceau de lumière
blanche, parce que ce filtre laisse passer la lumière rouge et la lumière verte. Pour soustraire la
lumière verte, il faut un filtre magenta et pour soustraire la lumière rouge, un filtre cyan. Ce mode de
formation d'une image par la soustraction des couleurs est utilisée par la plupart des agrandisseurs
photo couleur et certaines (plus anciennes) machines de traitement d'images argentiques. Il est
également utilisé en imprimerie (quadrichromie) les imprimeurs disposant d'encres de ces couleurs.
Toutefois, le mélange des 3 couches d'encres jaune, magenta et cyan ne permet pas un noir profond;
une quatrième couche de noir est alors ajoutée. Ce mode de restitution des couleurs est appelé CMJN.
Les imprimantes informatiques à jet d’encre fonctionnent selon ce principe également.

La synthèse additive :

3 projecteurs envoient respectivement 3 faisceaux de Si l'on dose l'intensité lumineuse des 3 projecteurs, toutes
lumière rouge, verte et bleu. les teintes intermédiaires peuvent être obtenues

La superposition des lumières rouge et bleu donne du


magenta,

La superposition des lumières rouge et verte sonne du


jaune,

La superposition des lumières verte et bleu donne du cyan,

La superposition des trois faisceaux lumineux donne du


blanc,

Les trois couleurs ROUGE. VERT et BLEU sont dites


« PRIMAIRES » pour cette synthèse et le jaune, magenta
et cyan sont dites «COMPLEMENTAIRES » pour la
synthèse additive.

La synthèse soustractive :

Sur une table lumineuse émettant de la lumière blanche, Les trois couleurs JAUNE, MAGENTA et CYAN sont dites
on pose 3 filtres: jaune, magenta et cyan. "PRIMAIRES" pour la synthèse soustractive.

La superposition du filtre jaune et du filtre magenta donne


du rouge,

La superposition du filtre jaune et du filtre cyan donne du


vert,

La superposition du filtre magenta et du filtre cyan donne


du bleu,

La superposition des trois filtres arrête le passage de toute


lumière et il en résulte du noir.

Pascal DAMUSEAU St-Luc Liège Page 11 20/11/2013


9. LE SYSTÈME BINAIRE :

Les ordinateurs ne comptent pas comme nous avec les 10 caractères (de 0 à 9) du système décimal
mais avec seulement deux caractères 0 et 1 (système binaire). Dans ce système, l'unité élémentaire
d'information est le bit (contraction le l'anglais « binary digit », qui ne peut prendre que 2 valeurs
distinctes selon qu'un courant électrique passe (valeur 1) ou ne passe pas (valeur 0).

Il faut donc 2 bits pour compter jusqu' à 4, 3 bits pour compter jusqu'à 8, 4 bits pour compter
jusqu'à 16 etc... Le nombre décimal que l'on peut représenter en système binaire double à chaque
fois que l'on utilise un bit de plus. L'expression binaire d'un nombre décimal élevé nécessite un très
grand nombre de bits. Par exemple, le nombre 37 100 requiert 16 bits et s'écrit en binaire
1001000011101100. Pour simplifier, on compte souvent en "mots" de 8 bits appelés "octet" qui est la
plus petite unité utilisée en informatique. Pour la facilité et pour de très grands nombres, on utilise les
unités suivantes :

1 kilo-octet (Ko) = 1.024 octets


1 méga-octet (Mo) = 1.024 Ko = 1.048.576 octets
1 giga-octet (Go) = 1.024 Mo = 1.048.576 Ko = 1.073.741.824 octets *

* et non 1 Ko= 1000 octets -1 Mo = 1000 Ko -1 Go = 1000 Mo comme les préfix kilos, méga et giga le laissent supposer, ces
nombres sont en effet des puissances de 2 et non des puissances de 10 ! Ceci dit, la plupart du temps, nous arrondissons pour
plus de simplicité.

10. LE CODAGE D' UNE IMAGE :

Nous savons que chaque "pixel" d'une image est en fait une petite cellule photosensible qui produit
une charge électrique proportionnelle à la quantité de lumière qu'elle reçoit. Nous allons essayer de
comprendre comment ces charges électriques sont transformées en une suite de 0 et de 1 et
comment ces chiffres sont ensuite utilisés pour restituer les différentes teintes.

Pour la facilité du raisonnement, on suppose que nous avons à faire à un capteur noir &
blanc et on supposera également, de façon arbitraire, que les cellules peuvent produire
chacune une charge de 0 à 2,55 volts. La division de cette valeur en 256 valeurs étagées
de 0 à 255 facilitera la compréhension.

Zéro volt, qui correspond à une charge nulle d'une cellule photosensible (donc pas d’exposition à la
lumière), ne produit pas de charge électrique et donne du noir; à l'inverse, le blanc est produit par
une charge maximum (donc exposition à une lumière vive), soit 2,55 volts; les charges intermédiaires
produisent 254 valeurs de gris.

La charge produite étant un phénomène analogique (elle varie continûment selon l'éclairement du
moment) il va falloir la transformer en valeurs numériques, valeurs liées à un moment précis pour
chaque cellule. Cette tâche est confiée à un composant électronique qui restitue pour chacune des
charges une valeur numérique précise. Cette valeur n'est pas exprimée en base décimale (1,78 volts
par exemple) mais en base binaire. Dans ce mode de calcul, 1,78 volts est représenté par 10110010.
Cette étape constitue la numérisation du signal électrique.

11. LE CODAGE BINAIRE ET PROFONDEUR DE COULEUR:

Dans le cas le plus simple : le codage du noir et du blanc sur un seul bit, 0 ou 1. Ce codage minimum
ne permet que deux combinaisons :

0 - pas d'électricité : noir


1 - charge électrique - blanc

Pascal DAMUSEAU St-Luc Liège Page 12 20/11/2013


Imaginons maintenant que nous voulions obtenir du gris. Au lieu de coder une cellule sur un seul bit,
nous la coderons sur 2 bits, ce qui autorise 4 combinaisons.

00 - pas d'électricité : noir


01 - charge au tiers du maximum : gris clair
10 - charge au deux tiers du maximum : gris foncé
11 - charge maximum : blanc

Un codage sur 3 bits (de 000 à 111) autorise 8 permutations, soit autant de valeurs de gris. Chaque
fois que l'on ajoute un bit au codage, les possibilités de permutation doublent. De 16 niveaux de gris
pour 4 bits, on arrive à 32 pour 5 bits; 64 pour 6 bits, 128 pour 7 bits et la qualité "photo" est atteinte
avec 8 bits, soit 256 niveaux de gris. Les charges électriques produites par les cellules photosensibles
sont ainsi traduites par les valeurs suivantes :

0,00 volts = 00000000 = 0


0,01 volts = 00000001 = 1
0,02 volts = 00000010 = 2
0,03 volts = 00000011 = 3
0,04 volts = 00000100 = 4
0,05 volts = 00000101 = 5
0,06 volts = 00000110 = 6
0,07 volts = 00000111 = 7 ... et ainsi de suite jusqu'à 2,55 volts qui est codé 11111111.

12. LE CODAGE DES COULEURS :

Les appareils photo numériques codent la couleur selon le principe de la synthèse additive (système
RVB qui se base sur le mélange du rayonnement de trois couleurs dites "primaires" soit, le ROUGE, le
VERT et le BLEU.

Une image numérique étant composée de 3 "couches" superposées noir et blanc (destinées à restituer
respectivement le rouge, le vert et le bleu), chaque couche est donc codée sur un nombre égal de
bits, pour les appareils photo : 3 x 8 bits = 24 bits ce qui donne 256 valeurs pour chacun des trois
canaux. Le nombre total de couleur ainsi obtenue est de : 256 x 256 x 256 = 16.777.216 couleurs.
Chacune de ces 16 millions de couleurs peut donc être définie par ces trois valeurs en rouge, vert et
bleu ainsi par exemple :

Pascal DAMUSEAU St-Luc Liège Page 13 20/11/2013


R V B

000 - 000 - 000 -------- noir


255 - 255 - 255 ------- blanc
255 - 000 - 000 -------- rouge
000 - 255 - 000 -------- vert
000 - 000 - 255 -------- bleu
255 - 255 - 000 -------- jaune
128 - 128 - 128 -------- gris moyen
etc.-

En infographie, le codage de la couleur détermine la profondeur de pixel ou de couleur. On dira ainsi


d'une image codée sur 24 bits qu'elle a une profondeur de pixel ou de couleur de 24 bits.

Le codage sur 24 bits n'est pas le seul utilisé, les images pour le WEB sont généralement codées sur
16 bits et les systèmes les plus performants (certains appareils "très haut de gamme" et certains
scanners) atteignent une profondeur de pixel de 48 bits, ce qui donne 281.474.976.710.656
couleurs !!!

13. LA TAILLE DE L' IMAGE :

Lorsqu'une image est codée par un convertisseur analogique - numérique, il en résulte un fichier,
c'est-à-dire un document informatique contenant un en-tête signalant de quel fichier graphique il
s'agit, la résolution de l'image et aussi le codage de chacun des pixels. La position en abscisse et en
ordonnée n'est pas mentionnée car les pixels sont placés les uns après les autres par lignes puis par
rangées, jusqu'à ce que l'espace qui leur est assigné soit rempli.

La détermination de la taille en octets du fichier "image" (on dit aussi le poids de l'image) peut être
effectuée par un calcul simple. Cette information est utile pour estimer combien on peut placer
d'images sur une carte mémoire ou tout autre moyen de stockage - disque dur, disquette, CD-ROM,
etc...

Pascal DAMUSEAU St-Luc Liège Page 14 20/11/2013


La taille du fichier informatique est obtenue en multipliant le nombre de pixels (résolution) par la
profondeur de couleur et en divisant le résultat obtenu par 8 afin de convertir les bits du codage en
octets, car rappelons-le, un octet contient huit bits.

Supposons par exemple une image prise avec un appareil 12,3 Mo et codée sur 24 bits. - elle contient
4288 × 2848 pixels - le résultat est le suivant :

(4288 × 2848 x 24) / 8 = 36.636.672 octets soit en divisant par 1024 : 35.778 Ko ou encore en
divisant par une fois de plus par 1024 : 34,94 Mo

Malgré que les capacités des cartes mémoires augmentent de jour en jour, une telle "lourdeur" de
fichier limite fort l'autonomie des appareils numériques. Heureusement il existe des techniques de
"compression" qui permettent de réduire la place occupée par un fichier.

14. LA COMPRESSION DES DONNEES :

La compression est un procédé qui sert à réduire la taille d'une image numérique. Il repose sur un
principe simple basé sur le codage des redondances.

Prenons la suite de 50 bits que voici, qui pourrait décrire une minuscule partie d'une image :
000000088000000777777777777777222222221111111111111

En langage "parlé", nous pourrons dire qu'il y a un zéro, puis un zéro et un zéro et ainsi de suite
jusqu'à la fin de la série. Cette énumération est pour le moins fastidieuse, il est bien plus simple de
dire qu'il y a 7x0 suivis de 2x8 puis de 6x0, 15x7, 7x2 et 13x1, cette formulation est bien plus
compacte. La compression des données agit de la même façon. Au lieu de délivrer le codage de
chacun des pixels séquentiellement l'un après l'autre, tous les codes qui se ressemblent sont groupés.

Si un ciel uniformément bleu est décrit par 25000 pixels dont le codage RVB est par exemple 26-54-
255 il sera bien plus rapide de l'exprimer sous la forme : (26-54-255) X 25.000

Ce système convient bien pour des images comportant de larges aplats de couleurs, ce qui est
rarement le cas en photographie, même un mur peint avec une couleur qui semble uniforme présente
d'imperceptibles variations de couleur, de grain et d'ombrage qui font qu'il ne pourra pas être décrit
par une séquence unique. Une compression selon ce procédé manque donc souvent d'efficacité mais
présente l'avantage de ne provoquer aucune perte de données.

15. LA COMPRESSION " JPEG " :

Les algorithmes sans perte de données ne permettant pas une compression maximale, les
mathématiciens ont proposé des algorithmes plus performants mais au prix d'une dégradation de
l'image. Le principe de la compression à perte de données repose sur une dégradation mineure de
l'image qui échapperait à l'œil humain, du moins jusqu'à un certain point. Le format d'image JPEG (
Joint Photographique Expert Group) est le type même de ce procédé. Il est largement adopté pour la
photographie numérique et autorise des taux de compression très élevés qui génèrent des fichiers
assez "légers" pour être facilement expédiés par ligne téléphonique.

La compression JPEG consiste à découper une image en carré de 8 pixels de côté à l'intérieur desquels
les pixels de couleurs voisines sont assimilés comme ayant la même couleur, une compression selon la
méthode expliquée précédemment peut alors être appliquée avec plus d'efficacité.

Les logiciels capables de compresser en JPEG proposent des boutons ou des glissières permettant de
régler le taux de compression selon une échelle graduée de 1 à 12 et par conséquent la dégradation
tolérée de l'image.

Pascal DAMUSEAU St-Luc Liège Page 15 20/11/2013


Les appareils numériques sont moins précis et ne proposent habituellement que 3 taux de
compression seulement, souvent appelé "FINE" - "NORMAL" ou "BASIC".

Remarque : pour faciliter la compréhension, les explications ci-dessus sont volontairement simplifiées à
l'extrême, en fait les algorithmes de calcul utilisés par les mathématiciens pour mettre au point les systèmes de
compression de données sont bien plus complexes !

Une compression de données avec perte d'informations peut altérer rapidement la qualité d'une
photographie si elle est appliquée plusieurs fois consécutivement. On peut juger du résultat sur les
photos ci-contre.

Pascal DAMUSEAU St-Luc Liège Page 16 20/11/2013


L'image n°2 a été ouverte et "sauvegardée" 10 fois successivement en format JPEG. Elle ne
"pèse" plus que quelques Ko mais la dégradation est importante et bien qu'elle compte exactement le
même nombre de pixels que la précédente, il apparaît un "effet d'escalier" appelé artefact qui donne
une impression de flou. Faut-il préciser qu'une telle dégradation est IRREVERSIBLE ! Il sera donc
impératif de soigner la sauvegarde et l’archivage de vos images selon des processus bien réfléchis
pour éviter les pertes et détériorations d’images.

16. LES FORMATS DE FICHIERS IMAGES :

On appelle "format de fichier" la description informatique de la manière dont les pixels sont ordonnés
dans le fichier et aussi le nombre de couleurs qu'ils sont capables de restituer et de leur organisation
dans une palette chromatique. Il existe actuellement plusieurs dizaines de formats parfois propres à
certain logiciels et pas forcément reconnus par d'autres. Les formats d'images sont généralement
désignés par l'extension de leur nom, c'est à dire par les 3 lettres qui suivent le point.

Exemple : dans le nom de fichier "fleur.jpg", l'extension est "jpg" et indique que le fichier est écrit
dans le format JPEG.

Citons les principaux :

-TIFF : Développé par Mac (mais compatible toute plate-forme), pour standardiser une population
toujours croissante d'images numérisées, c'est le format le plus répandu. Il comprime les fichiers sans
perte de données. Dans sa dernière version il est capable de sauvegarder les calques et couches de
Photoshop.

-PSD : Est le format « natif » (ou « propriétaire ») de Photoshop, il permet de sauvegarder une image
de travail sans perdre les calques et les transparences.

-BMP : Est le format natif de Microsoft Paint (donc spécifique à Windows). Il est reconnu par diverses
applications.

-GIF : Permet d'accélérer le transfert de photos par modem mais ne peut manipuler que 256 couleurs.

-JPEG : Voir ci-dessus - est également bien adapté au WEB et au stockage sur cartes mémoires des
appareils de prise-de-vues. Il possède différents niveaux de compression mais (toujours destructeurs)
etc...

- RAW : Ce format est spécifique à chaque marque et chaque appareil quand il est disponible et est un
format de fichier brut, sans intervention du DSP de l’appareil pour le « prétraitement » des images.
L’avantage pour le professionnel est l’interprétation totale de l’image du capteur. L’inconvénient est la
lourdeur du post-traitement et le poids des images presque aussi lourdes qu’en TIFF

17. REDIMENSIONNEMENT ET REECHANTILLONNAGE :

Au contraire du "redimensionnement" qui redéfinit les dimensions de l'image destinée à l'impression


en adaptant la résolution sans modifier le nombre total de pixels, le rééchantillonnage proposé par la
plupart des logiciels de traitement d'images consiste à changer l'échelle de l'image de telle sorte
qu'elle contienne un nombre de pixels plus grand ou plus petit que l'original. Le rééchantillonnage est
toujours synonyme de dégradation de l'image.

Le rééchantillonnage soustractif :

Imaginons une photo prise avec un appareil numérique dont la résolution est de 2048 x 1536 pixels,
par exemple, cette image serait imprimée dans les dimensions de 7 x 5 cm avec une résolution tout à
fait superflue de 750 ppi et alourdirait considérablement et inutilement le fichier de mise en page.
Dans ce cas, un rééchantillonnage en 200 ppi et aux dimensions de 7 x 5 cm s'impose,

Pascal DAMUSEAU St-Luc Liège Page 17 20/11/2013


l'image est alors réduite à 551 x 413 pixels. Il en est de même pour les images qui doivent être vues
uniquement sur l'écran de l'ordinateur et pour lesquelles une résolution de 72 ou 96 ppi suffisent.

Le rééchantillonnage additif :

II est d'ordinaire préférable d'éviter le rééchantillonnage additif (ajout de pixels) qui demande au
logiciel d'enrichir le détail de l'image avec du "vent". En effet, le programme n'est pas capable de
créer des pixels qui n'existent pas sur l'image originale, il va "inventer" des pixels d'une manière
arbitraire et aléatoire. Une image ainsi "dopée" offre très rarement un aspect meilleur que l'image
originale. Celle-ci se contente d'occuper d'avantage de place sur le disque dur et de s'imprimer plus
lentement.

Une bonne façon d'opérer avec un appareil numérique :

- Réaliser les prises de vue en résolution MAXIMUM, en RAW, solution qualitativement la plus
intéressante. Cependant, tout dépend de l’usage prévu de l’image : le JPEG (en compression
la moins forte possible) peut suffire s’il s’agit d’exploiter les images au plus vite (presse, sport,
etc)... La plupart des boîtiers actuels permettent des enregistrements en parallèle des formats
JPEG et RAW de la même photo, parfois même sur des cartes mémoires différentes, ce qui
est intéressant pour différencier les dossiers par la suite.

- Enregistrer, après la session de prise de vues et avant toute autre manipulation, ces images
sur un disque dur de sauvegarde. Ainsi elles seront à l'abri des erreurs de manipulation et
pourraient servir ultérieurement en cas de perte ou de défaillance.

- Créer un dossier dans un volume d’archivage sur l’ordinateur et lui donner un nom (sujet) et
une date.

- Transférer les images de la carte mémoire de l’appareil dans le dossier précédemment créé.

- Ouvrir les photographies, les réduire, si ce n’est déjà fait lors d’un enregistrement en double,
à un format (JPEG) et une définition (96 ppi) qui facilite l’examen rapide. Enregistrer ces
images dans un dossier « basses définitions » que l’on pourra effacer par la suite. Relever les
images à garder et à travailler.

- Ouvrir les images devant être éditées, les redimensionner si nécessaire à la résolution
d’impression de 300ppi, appliquer les divers traitement et corrections DANS DES CALQUES DE
REGLAGES et les enregistrer dans le format natif du logiciel de retouche (PSD pour
Photoshop) ou en TIFF multicalques (plus universel) dans un dossier réservé aux bonnes
images retravaillées.

- Sauvegarder éventuellement en plus cette image dans le format TIFF si elle doit être exportée
vers un autre logiciel de traitement de texte ou de mise en page.

- Sauvegarder éventuellement cette image dans le format JPEG avec le taux de compression
approprié si elle doit être expédiée par Internet.

- Dans tous les cas, prendre conscience que la photographie numérique est « volatile » et qu’il
est très facile de perdre des images si on ne prend pas soin de s’appliquer à une méthode de
travail et d’archivage efficace.

Pascal DAMUSEAU St-Luc Liège Page 18 20/11/2013


18. LA PHOTO NUMÉRIQUE EN GRAND ET MOYEN FORMAT :

Les photographes professionnels spécialisés dans la publicité ont été les premiers à se convertir à la
photo numérique. Dans un studio de production, en effet, il n'y a aucun inconvénient à utiliser un
équipement lourd et un puissant ordinateur directement connecté au "dos numérique" monté à la
place du dos à film d'un appareil moyen format ou d'une chambre technique. On peut ainsi créer des
images de très haute définition nécessitant d'énormes volumes de fichiers.

Dès 1995, des firmes comme Scitex-Leaf, Dicomed-BigShot, Phase-One...ont développé des dos
numériques de type "scanner". L'analyse de l'image s'effectue grâce à une barrette CCD d'environ 4
cm de large comprenant 4 à 6.000 cellules, laquelle se déplace, guidée par un moteur pas à pas sur
toute la longueur de l'image. La photographie de très grande qualité ainsi obtenue compte 30 Mo
pixels environ. Selon ce processus une prise de vue en N&B s'effectue en une seule passe, tandis
qu'une prise de vue en couleur doit s'effectuer à l'aide de trois expositions successives à travers des
filtres de sélection RVB.

Ce qui, évidemment, impose des prises de vues de sujets parfaitement immobiles. A l'heure actuelle, il
se développe pour ce type de matériel des dos à capteur CCD matriciels (jusque 80 Millions de
photosites) autorisant des sujets dynamiques.

Les avantages du numérique en studio :

Si le numérique s'est si vite imposé en studio, c'est que les photographes lui ont trouvé des
avantages.

• Les paramètres de l'image (cadrage, exposition, éclairage,...) sont directement contrôlables à l'écran
sans avoir à réaliser plusieurs films à développement instantanés (onéreux).

• Si le photographe ou le client n'est pas satisfait du résultat, aucun consommable n'a été gâché, il
suffit de recommencer en corrigeant ce qui doit l'être.

• L'étape du développement est supprimée. Les images obtenues sont directement retouchables sur
ordinateur.

• Les images peuvent être directement transmises au client, à l'agence de publicité, à l'imprimeur par
e-mail.
Le gain de temps, la souplesse et l'économie ainsi réalisée (films Polaroid, ekta, photogravure...)
justifie pour les studios de production de grande ou de moyenne importance cet investissement qui
reste cependant très onéreux.

19. LES SYSTÈMES REFLEX À OBJECTIF INTERCHANGEABLES :

Construits sur le base d'appareils reflex 24 x 36 haut de gamme (Nikon F5, Canon EOS1...) ces
appareils actuellement très performants sont destinés aux photographes, "reporter" de presse ou
autres, qui désirent utiliser les nombreux objectifs et accessoires disponibles pour ce type de matériel.

Il faut toutefois souligner que la taille de beaucoup de capteurs CCD reste sensiblement plus petite
que celle des films argentiques. Le Nikon D2X, par exemple, utilise un capteur de 23,7 x 15,6 mm ce
qui réduit l'allongement apparent de la focale de ses objectifs à un facteur 1,5. C'est ainsi qu'un
objectif de 28 mm, confortable grand-angle pour le 24x36, devient s'il est utilisé en numérique
l'équivalent d'un 42 mm qui n'est plus grand-angle du tout. De même, si l'on désire l'équivalent d'un
28 mm il faudra utiliser un 18 mm et les objectifs de focales aussi courtes sont rares et très coûteux.
Pour être tout à fait impartial, il faut ajouter que cet inconvénient dans la gamme des grands-
angulaires devient plutôt un avantage dans la gamme des téléobjectifs pour les raisons inverses (un
200 mm est souvent moins cher et plus lumineux qu'un 300 mm).

Pascal DAMUSEAU St-Luc Liège Page 19 20/11/2013


Par contre on assiste aujourd’hui à l’éclosion en haut de gamme des fabricants à toute une série de
modèle à capteurs CCD 24 x 36 avec lesquels les focales auxquelles nous sommes habitués en petit
format argentique redeviennent familières

Ce genre d'appareil est surtout utilisé par les reporters de presse pour des raisons évidentes de
rapidité de transfert d'images, mais de plus en plus de travaux commerciaux de studio, de mode et
d’architecture sont assurés par des photographes utilisant ce type de boîtiers.

20. LES "BRIDGE-CAMÉRA"

Les "bridge-caméra" (littéralement : les appareils "passerelle "entre les vrais reflex à objectif
interchangeables et les simples compacts) sont l'une des pistes de développement les plus
prometteuses pour les "photoscopes".

Ces appareils, munis d'un capteur de plus petite taille que les vrais reflex sont équipés d'objectifs
zoom (parfois de très forte amplitude) qui leur sont propres mais qui ne sont PAS interchangeables.
Les meilleurs d'entre eux sont équipés d'une vraie visée reflex, la seule qui permet un contrôle précis
de l'image et de sa netteté. D'autres font appel à un viseur électronique de caméra vidéo très
insuffisant pour un réglage précis de la mise au point. Ce type d'appareil peut à moindre prix se
substituer aux reflex à objectifs interchangeables pour les photographes amateurs avertis et
professionnels polyvalents.

21. LES APPAREILS NUMÉRIQUES "GRAND PUBLIC" :

Coûteux et peu performants, les premiers photoscopes des années 1990 ne constituaient pas une
alternative sérieuse à la photo argentique traditionnelle. Cependant les fabricants ont très vite compris
que la prise de vue numérique ne pouvait se développer que s'ils proposaient des modèles à des prix
modérés, capables de fournir des images de qualité comparables à des photos traditionnelles. Grâce
au fulgurants progrès de la technologie, ils y sont parvenus et l'on trouve aujourd'hui sur le marché
des appareils de tous les prix et pour tous les goûts. On trouve des appareils numériques de prix
comparables aux appareils compacts "bon marché" argentiques (moins de 100 €).

22. L’UTILISATION ET LES RÉGLAGES SPÉCIFIQUES :

L'utilisation d'un appareil numérique n'est pas fondamentalement différente de celle d'un appareil
classique, on y trouve, automatisé ou non, les trois réglages de base communs à tout matériel de
prise de vue, à savoir : ouverture du diaphragme - vitesse d'obturation - mise au point. La spécificité
la plus évidente de l'appareil numérique est son écran LCD qui permet de contrôler tous les aspects de
l'image, avant et après la prise de vue. Aussi pratique que soit cet accessoire (qui est parfois
difficilement utilisable au soleil) ne saurait remplacer un viseur classique, reflex ou optique, qui
demeure indispensable.

Mais c'est par sa gestion radicalement différente des images et par les caractéristiques qui en
découlent que l'appareil numérique se distingue surtout. Par le fait que certains paramètres qui en
analogique étaient propres au type de film utilisé (sensibilité, température de couleur,...) sont
désormais imposées par l'appareil ou sont réglables par l'utilisateur. Puis en second lieu, par la
possibilité de choisir à la prise de vue la "qualité de l'image"
(résolution en nombre de pixel, taux de compression etc...)

La sensibilité :

La sensibilité du système s'exprime en valeurs "équivalent ISO", comme pour les films argentiques.
Elle est normalement déterminée par l'appareil lui-même en fonction de nombreux facteurs comme,
par exemple, la luminosité de l'objectif, mais certains modèles permettent de la forcer manuellement,
en général, sur 100, 200, 400, 800,… ISO.

Pascal DAMUSEAU St-Luc Liège Page 20 20/11/2013


Les modèles reflex à objectifs interchangeables permettent d'atteindre 6400 ISO et parfois plus. Sur la
plupart des appareils, la sensibilité du capteur peut aussi s'adapter "automatiquement" à la luminosité
du sujet.

Une augmentation de la sensibilité en ISO ne va pas sans inconvénient, on constate aux sensibilités
élevées l'apparition d'une certaine altération de l'image qui s'appelle " le bruit ". Ce phénomène est
visuellement assez comparable aux émulsions argentiques qui présente un plus "gros grain" avec
l'augmentation de la sensibilité.

Résolution et taux de compression :

Ces réglages se font généralement via un menu qui apparaît sur l'écran LCD. On a alors le choix entre
plusieurs "niveaux de qualité" au point de vue de la résolution en nombre de pixels et selon le taux de
compression JPEG avec lequel l'image sera enregistrée. A titre d'exemple, un appareil grand public de
propose les options suivantes :

Taille de l'image : 4288 × 2848, 2144 x 1424 ou 1072 x 712 pixels


Taux de compression : aucun, fine, normal ou basic.

Evidemment, la capacité de la carte mémoire en nombre d'images est directement liée à la qualité de
celles-ci. C'est ainsi qu'une carte de 16 Go (soit 16.284 Mo) peut enregistrer 460 image en 4288 ×
2848 sans compression, 1865 images en 2144 x 1424 en compression "fine" et ... 7142 images en
1072 x 712 en compression "basic".

La balance des blancs :

Son réglage est automatique en fonction de la T° de couleur et de l'éclairage ambiant, mais on peut
parfois l'aligner sur une mesure préalable ou opter pour une valeur prédéterminée (ciel couvert, lampe
à incandescence, flash, etc...). Sur beaucoup d’appareils on bénéficie également d’une possibilité de
réglage manuel sur carton blanc qui permet de tenir compte des infimes changements dans les
qualités de lumière.

Fonctions supplémentaires :

On trouve sur les appareils numériques des fonctions diverses plus ou moins intéressantes parmi
lesquelles :
- réglage du contraste,
- réglage de la saturation des couleurs,
- ajout d'un filtre de netteté,
- mode panorama,
- microphone permettant d'enregistrer des petits commentaires sonores,
- mode vidéo permettant d'enregistrer de courtes séquences animées en faible résolution.
etc...

Affichage et effacement des images :

On peut, si on le désire, afficher les images captées sur l'écran LCD avant, pendant ou après la prise
de vue. Les photoscopes sont munis d'un sélecteur «RECORD» (enregistrement) ou «PLAY»
(visualisation après enregistrement). Dans ce cas, les images peuvent généralement être vues seules
et en groupe de 4 ou de 9; un zoom permet même d'agrandir des parties de l'image et de pouvoir
ainsi mieux juger de la netteté de celle-ci. Une autre fonction importante est l'effacement (ERASE) qui
permet à tout moment d'éliminer les images que l'on ne veut pas conserver, ce qui permet de libérer
de l'espace sur la carte mémoire. Ceci constitue un avantage, certes, mais à part les images qui,
techniquement sont vraiment inexploitables, il ne faut jamais effacer trop vite des images que l’on
juge peu intéressantes.

Pascal DAMUSEAU St-Luc Liège Page 21 20/11/2013


De même, il faut se méfier de l’aspect d’une image sur un écran LCD. Par contre il est plus sûr de
faire confiance en l’histogramme (représentation graphique et statistique des valeurs de l’image), si
l’appareil possède cette fonction. Les appareils numériques sont également généralement fournis
avec un câble "vidéo" qui permet la visualisation des images sur un téléviseur.

23. LE STOCKAGE DES IMAGES :

Le délai d'enregistrement :

La capture d'une image par la surface photosensible s'effectue en quelques millisecondes: en


revanche, l'enregistrement sur la carte est plus long et peut immobiliser l'appareil pendant plusieurs
secondes voire, pour les chambres techniques à très haute résolution, plusieurs dizaines de secondes.
Le délai d'enregistrement est un facteur important si l'on envisage de faire de la photo d'action. Plus
la définition de l'image est élevée, plus il est long, ce qui influence directement la cadence de prise de
vue; en général, les appareils numériques "grand public" ne permettent pas le mode "rafale" dans les
hautes résolutions. Par contre, cette possibilité est offerte par les appareils reflex.

Les cartes mémoire :

Les cartes mémoire jouent le rôle du film dans un appareil numérique : elles stockent les images au
fur et à mesure de leur capture. Néanmoins, elles accomplissent leur tâche d'une manière très
différente. La carte mémoire n'est pas, comme le film, un support contenant l'image de manière
définitive.

Au contraire, elle ne contient pas vraiment d’image; elle recueille sous forme de fichiers binaires les
données numériques invisibles qui lui sont fournies par le capteur. C'est un support de stockage
provisoire, en attendant le transfert de ses fichiers sur le disque dur de l'ordinateur. Une fois vidée,
elle est de nouveau prête à servir.

Évidemment, la capacité des cartes mémoire est un facteur déterminant en photographie numérique,
même si elle ne cesse d'augmenter presque de jour en jour, elle n'est pas infinie et ne permet de
stocker qu'un nombre limité de prises de vues. Pour bénéficier d'une autonomie suffisante, en voyage
ou en reportage par exemple, il n'y a guère d'autre solution que de s'équiper d'un certain nombre de
cartes ou de se munir d'un ordinateur portable, ce qui n'est pas forcément très pratique.

NB : Depuis peu, il existe une alternative à ce problème, certains fabricants ont mis sur le marché des
disques durs portables, autonomes, auto-alimentés et spécialement conçu pour le transfert des cartes
mémoire des appareils numériques. Guère plus grand qu’un paquet de cigarettes, ces appareils
peuvent avoir une capacité jusque 500Go

Pascal DAMUSEAU St-Luc Liège Page 22 20/11/2013


Actuellement, il ne reste plus que quelques standards de cartes mémoires et les plus courantes sont
les suivantes :

- ComplactFlash (CF) : elle offre l'avantage d'intégrer un contrôleur d'enregistrement/lecture qui lui
permet d'être reconnue par n'importe quel ordinateur. Les capacités proposées vont actuellement
jusque 128 Mo

- Memory Stick (MS) : Spécialement développée par Sony qui l'utilise pour le stockage des données
dans la plupart de ses appareils photo, vidéo, audio etc... Elle n'était utilisée que sur les produits de
cette marque, mais compte tenu de la position commerciale sur le marché des appareils de la
marque, elle s’est étendue à l’utilisation dans d’autres appareils.

- Secure Digital (SD, SD-HC et micro- SD). Plus récentes, ces cartes sont en train de prendre le devant
de la scène par leur compacité et leur capacité, du moins dans les appareils d’entrée et de milieu de
gamme. Capacités jusque 128 Go.

24. LE TRANSFERT DES IMAGES :

L'opération consiste à transférer les images de l'appareil photo vers l'ordinateur au moyen d'un câble
ou en lisant directement les cartes mémoire. Différentes technologies sont proposées. Si le matériel
photo est livré avec tous les accessoires requis (câbles, logiciel, adaptateur...) il n'est pas certain que
l'ordinateur soit équipé des dispositifs d'entrées/sortie (les ports) nécessaires. Pour transférer les
images, on a généralement le choix entre deux systèmes. Soit, relier directement l'appareil à
l'ordinateur par un câble; soit, passer par un adaptateur qui lira directement la carte mémoire.

Pascal DAMUSEAU St-Luc Liège Page 23 20/11/2013


La liaison directe :

2 types de liaisons coexistent actuellement sur le marché.

- Liaison USB 2.0 et USB 3.0: le port USB (Universal Sérial Bus) équipe les PC et certains Mac. On le
voit aussi apparaître en sortie sur un nombre croissant d'appareil numérique. Ce succès s'explique par
la rapidité de la transmission qu'il permet. L’USB 2.0 est un concurrent du Fire-Wire et propose un
débit théorique de 400 Mo/sec. L’USB trois propose un transfert théorique

- Bus Fire-Wire (IEEE-1394) : ce standard est aujourd'hui bien connu, initié sur par Apple. Son signal,
reconnu par les Mac et les PC est de plus en plus adopté par sur les systèmes de photo numériques
professionnels et les périphériques tels que les imprimantes et système de stockage, ainsi que sur les
caméras vidéo. Avec son débit (on dit aussi : bande passante) de l'ordre de 380 Mo/sec il permet de
vider une carte en quelques secondes. Il existe une version au transfert théorique de 800Mo/sec, mais
la concurrence plus universelle de l’USB 3.0 le confine à l’usage essentiellement sur les Mac.

Les adaptateurs :

Les difficultés, dues à l'absence de standardisation, que l'on rencontre parfois pour établir la liaison
par câble de l'appareil à l'ordinateur amène à être tenter de faire lire directement les cartes mémoires
par l'ordinateur. Comme les ordinateurs ne sont pas nécessairement équipés d'un lecteur approprié,
on recourt à un adaptateur conçu pour ce type de support. Ceci dit, les ordinateurs dédiés à la photo
reçoivent un lecteur multi-carte intégré qui remplace souvent le lecteur de disquette, ou externe et qui
se connectent au port approprié (souvent USB) de l’ordinateur.

Les scanners.

Les scanners, sont les appareils qui permettent le mariage de la photographie argentique et de la
photographie numérique. Comme les photoscopes, ils convertissent des images analogiques en
fichiers binaires exploitables par l'informatique et par là même se prêtant à toutes les manipulations
permises par les logiciels de traitement d'images mais ils se distinguent de ceux-ci par les
caractéristiques suivantes :

- C'est un périphérique de l'ordinateur, auquel il est relié par câble. Il n'est pas autonome et ne
fonctionne que piloté par l'unité centrale.

- En théorie, il ne numérise pas une scène en 3 dimensions issue du monde réel et formée sur
une surface sensible par un objectif, mais des images ( épreuves papier, dessin, illustrations,
négatifs, diapositives.. ) qui sont déjà en 2 dimensions (sauf dans des applications créatives et
artistiques).

- L'original qu'il numérise étant statique, il l'analyse séquentiellement grâce au déplacement d'une
barrette dotée d'une seule rangée de cellules CCD et de filtres de sélection rouge-vert-bleu (RVB)
ou de trois lignes de capteurs RVB parallèles.
- Moins soumis aux impératifs de miniaturisation qu'un appareil photo il peut intégrer davantage de
capteurs. Certains modèles de haut de gamme permettent aussi d'échantillonner l'image sur 36
bits ou 48 bits, soit 12 ou 16 bits par couleur primaire, au lieu des 3x10 ou 3 x 12 bits des meilleurs
appareils photo. Ce gain de profondeur de couleur augmente notablement la dynamique des
contrastes et permet une reproduction plus détaillée des nuances. Comme les images à numériser
peuvent être très différentes, deux types de scanners ont été mis au point. Le scanner à films est
spécialisé dans les reproductions d'originaux transparents (négatifs ou diapositives) et le scanner à
plat est étudié pour les documents opaques.

Pascal DAMUSEAU St-Luc Liège Page 24 20/11/2013


25. LES SCANNER FILMS :

Pascal DAMUSEAU St-Luc Liège Page 25 20/11/2013


Destinés surtout aux films 24x36, mais aussi aux films 120 et parfois plus, les scanners à films
numérisent des diapositives ou des négatifs, couleur et noir & blanc. Le scan se fait généralement en
deux étapes : une acquisition rapide de l'image à basse résolution (10 à 35 secondes, selon les
modèles) permet une prévisualisation sur l'écran de l'ordinateur, avec une qualité suffisante pour
permettre à l'utilisateur le cadrage et éventuellement d'effectuer certains réglages de base de la
luminosité, du contracte etc..., avant l'acquisition définitive. Le scan à haute résolution, selon la
résolution demandée peut durer de quelques dizaines de secondes à plusieurs minutes.

Compte tenu de la faible taille de l'image à analyser, un bon scanner à film doit offrir d'emblée une
très haute résolution allant de 2.700 à 4.000 ppi. Le Nikon COOLSCAN 4000 ED a une résolution
optique de 4.000 x 4.000 ppi.

Pour la numérisation de diapositives ou de négatifs plus grands que 24x36 mm (6x6 cm - 4x5 pouces
etc...) on utilise généralement des scanners à plat dotés de dos à transparents. Certaines de ces
« machines » à très haute résolution utilisées par les professionnels (graphistes, photograveurs,
imprimeurs..) peuvent être de très grande taille et atteindre des prix très élevés, (parfois plus de
25.000 €)

26. LES SCANNERS A PLAT :

La plupart des scanners à plat «grand public» permettent la numérisation d'originaux opaques
jusqu'au format A4 (21 x 29,7 cm). Leur barrette mobile d'analyse comprend de 600 à 4000 capteurs
selon la qualité recherchée, les performances en ppp d'un scanner à plat sont parfois inférieures à
celle d'un scanner à film : les documents qu'il doit numériser sont en effet de plus grande taille et le
rapport d'agrandissement (donc la définition) qu'on lui demande n'a donc pas besoin d'être aussi
élevée. Les modèles mixtes « bon marché» sont généralement très insuffisants pour une numérisation
de qualité des négatifs ou des diapositives de petite taille (24x36).

Pascal DAMUSEAU St-Luc Liège Page 26 20/11/2013


Principe de fonctionnement du scanner à plat :

Pilotée par un mécanisme de précision la tête de scannage balaie successivement toute la surface du
document opaque ( photo sur papier par exemple ). Cette tête comporte une ou trois barrettes de
capteurs CCD, les filtres de sélection trichrome et une lampe tubulaire d'éclairage. Un scanner à film
fonctionne selon le même principe, le document étant éclairé par transparence.

27. RÉSOLUTION DU SCANNER ET DÉFINITION DE L' IMAGE :

La résolution d'un scanner est une donnée objective liée uniquement à la quantité d'informations que
son système imageur est capable de recueillir, donc au nombre de cellules photosensibles qu'il affecte
à l'acquisition de l'image. Cette grandeur s'exprime logiquement en nombre de pixels, comme sur les
appareils numériques. La définition d'une image, au contraire, est un paramètre subjectif, qui dépend
à la fois de sa résolution, de son format et du pouvoir séparateur de l'oeil lequel varie en fonction de
la distance d'observation. On admet généralement que, pour paraître impeccablement nette, une
photographie A4 observée à la distance minimale de vision distincte de l'oeil doit avoir une résolution
de 200 pixels per inch (ppi). Partant de ces données, il est facile de déduire l'agrandissement
maximum que l'on peut faire subir à un document original scanné en une résolution donnée pour
obtenir une image finale satisfaisante. Il suffit de diviser la résolution de scannage par la résolution
finale souhaitée ( ici 200 ppi ) pour obtenir le rapport d'agrandissement maximum.

Par exemple, une diapositive 24 x 36 scannée avec un très bon appareil à 2.700 ppi permet un
agrandissement de : 2.700 / 200 = 13,5 fois, soit 324 x 486 mm ou arrondi : 35 x 50 cm.

28. L' IMPRESSION.

L'image numérique devient une photographie au sens habituel du terme quand elle prend la forme
d'une épreuve permanente sur papier. Le passage du fichier image à cette image finale se fait à l'aide
d'une imprimante. La photographie numérique a été longtemps freinée par ce "maillon faible de la
chaîne" (qualité médiocre, lenteur d'impression, prix élevé des consommables...). Heureusement, ce
problème semble réglé aujourd'hui et l'on trouve pour le grand public des imprimantes à jet d'encre
ou à sublimation abordables et capable d'atteindre la qualité "photo" . Cependant, ces "petites
machines" ne sont pas adaptées aux productions importantes à cause de leur lenteur relative. Pour
résoudre ce problème, les industriels ( AGFA - FUJI - DURST ...) ont mis au point des systèmes très
complexes assurant, à partir de fichiers images numériques des épreuves sur papier couleur
argentique. Quant aux agrandissements géants ils se font souvent à l'aide d'imprimantes à jet d'encre
spéciales de grande largeur.

Pascal DAMUSEAU St-Luc Liège Page 27 20/11/2013


L'imageur DURST LAMBDA permet, grâce à un système de balayage à trois rayons lasers RVB de tirer
les fichiers numériques sur papier argentique. L'impression se fait en continu sur des rouleaux de 50 à
127 cm de largeur.

Pascal DAMUSEAU St-Luc Liège Page 28 20/11/2013


On retrouve dans les machines Frontier de Fuji le même principe mais pour des largeurs de papiers
plus conformes avec la production amateur.

Alors que la prise de vue et la visualisation des images s'effectuent selon le principe de la synthèse
additive (RVB) des couleurs, l'impression en jet d’encre (bubble-jet ou piezo) est faite en synthèse
soustractive à partir des trois couleurs : cyan, magenta et jaune. La somme de ces couleurs absorbe
totalement la lumière, d'où du noir, tandis que leur absence donne du blanc. Théoriquement ces trois
couleurs devraient être suffisantes pour restituer toutes les teintes. Dans la réalité, les choses sont
moins simples car il faut tenir compte de la nature du papier (la qualité de son blanc), l'opacité des
encres, leur pouvoir de recouvrement, leur absorption par les fibres etc... Tous ces facteurs expliquent
que la simple superposition des trois couleurs CMJ ne donne pas un résultat satisfaisant. L'ajout du
noir par dessus les couleurs CMJ renforce le contraste et la vigueur de l'image et sur certaines
imprimantes ce ne sont pas moins de sept ou huit couleurs de base qui sont mises à contribution
pour restituer toutes les nuances : aux quatre couleurs de base CMJN s'ajoutent deux couleurs cyan
et magenta clairs et éventuellement un gris supplémentaire. On voit aussi apparaître des imprimantes
qui utilisent, outre les encres CMJN habituelles, un rouge et un bleu (couleurs de base de la synthèse
additive).

Pascal DAMUSEAU St-Luc Liège Page 29 20/11/2013


Le principe de ces imprimantes repose sur la projection de gouttes d'encre sur le papier, par un grand
nombre de buses très fines (entre 48 et plus 200) dont le diamètre est très fin (entre 20 et 50
microns). La tête d'impression se déplace très près du papier, envoyant à sa surface jusqu'à 20.000
gouttelettes par seconde, de chacune 3 à 6 pico litres (dix milliardième de litre), qui sèchent en un
centième de seconde. Les Stylus Photo d'Epson sont capables de déposer un point de 30 micromètres,
le tiers du diamètre d'un cheveu.
Deux méthodes de projection ont été développées :

Piézo-électrique :

Un composant piézo-électrique soumis à une impulsion électrique se déforme et comprime la paroi de


la buse, provoquant l'expulsion de la goutte d'encre vers le papier. Cette technique est utilisée par les
imprimantes Epson.

Pascal DAMUSEAU St-Luc Liège Page 30 20/11/2013


Thermique :

Un courant électrique chauffe un élément qui provoque une bulle de vapeur d'encre qui repousse
l'encre vers l'orifice. La bulle éclate, le dégagement de chaleur cesse et la dépression ainsi obtenue se
rempli d'encre (Canon et Hewlett-Packard).

Les plus performantes d'entre-elles sont aujourd'hui capables de produire des tirages dignes des
meilleurs agrandissements argentiques.

29. LES IMPRIMANTES A SUBLIMATION :

Pascal DAMUSEAU St-Luc Liège Page 31 20/11/2013


La sublimation est un phénomène physique au cours duquel un corps passe de l'état solide à l'état
gazeux sans passer par une phase liquide. Dans une imprimante à sublimation (ou à transfert
thermique), la température appliquée à chacune des 4 couleurs CMJN détermine le diamètre des
points de la trame. Le mélange des points de divers diamètres (256 possibles), correspondant à
autant de températures étalonnées avec une extrême précision, donne une sensation de tons continus
très réalistes.
Ces imprimantes exigent un papier de très grande qualité afin d'éviter la diffusion des points par
absorption de l'encre. Ces imprimantes sont surtout destinées à l'impression de photographies de
petite taille (10x15). Certains constructeurs proposent cependant des modèles au format A4
fournissant des épreuves de très grande qualité. Cependant, leur prix élevé, auquel il faut ajouter
celui des consommables en réserve l'emploi aux applications professionnelles.

Il est à noter qu'aujourd'hui, beaucoup d'imprimantes tant à jet d'encre qu'à sublimation thermique
sont prévues pour se passer d'ordinateur. Elle peuvent être reliées à l'appareil numérique ou
acceptent directement la lecture des cartes mémoires. Elles sont munies d'un logiciel très simple de
traitement d'image et peuvent être programmées pour différentes présentations d'épreuves. Elles
mettent ainsi la photographie numérique à la portée d'amateurs peu férus d'informatique.

30. LE TRAITEMENT DES IMAGES.

Contrairement à se qui se passe en photographie argentique, où toutes les interventions sur les
photos sont longues, délicates et nécessitent souvent des étapes intermédiaires complexes, les images
numériques peuvent être retravaillées à l’infini grâce à des programmes d’infographie dont on ne se
lasse pas d’explorer les fonctionnalités. C’est en partie ce qui explique l’immense succès de la
photographie numérique.

Toutefois, il ne faut pas se leurrer, si les retouches et les interventions simples sont relativement

Pascal DAMUSEAU St-Luc Liège Page 32 20/11/2013


aisées, un apprentissage approfondi d’un logiciel tel que Photoshop par exemple peut prendre
plusieurs mois voire plusieurs années.

On distingue deux types de logiciels utilisés en infographie:

Ceux destinés plus spécifiquement à l’archivage des images (Photostation, par ex). Ils permettent de
trier, de classer, de renommer les images à l’aide d’une base de données.

Ceux destinés plus spécifiquement à la retouche et à la manipulation d’images tels que Photoshop, ,
Corel Photo Paint (Paintshop Pro) etc.

Des versions parfois allégées de ces logiciels (Photoshop Elements par ex.) sont souvent fournies
gratuitement à l’achat d’un appareil numérique. Bien qu’incomplètes, elles suffisent généralement
pour faire ses premiers pas.

Attention !!!

La préservation des originaux doit être le souci constant d’un photographe. Il ne faut
jamais travailler sur un original mais toujours sur une copie. il faut stocker les images
originales dans une photothèque bien organisée: dossier du disque dur contenant des
sous dossiers thématiques ou sur un DVD

De telles manipulations d’images qui n’ont de limite que le savoir faire et l’imagination au point que
rien ne distingue plus l’image originale de l’image "arrangée" ne va pas sans poser des problèmes
juridiques (protection des droits) et éthiques (authenticité des oeuvres). Quelle que soit la réponse
que l’on peut apporter à ses interrogations morales, rappelons aux puristes que de tout temps la
photographie a été « truquée » (retouches, masquage etc...) et que un simple « cadrage » est déjà
un « trucage » et une dissimulation de la vérité.

31.LES FONCTIONS DE BASE DES LOGICIELS:

Bon nombre de fonctions sont communes à la majorité des logiciels de retouche, nous nous limiterons
ici à décrire sommairement les principales.

Le réglage du contraste:

En infographie, le contraste est lié à la répartition des pixels gris dans l’image. Idéalement, ils
devraient l’être sur une échelle de 0 à 255, c-à-d du noir au blanc. Quand une image est peu
contrastée, elle paraît terne: les noirs ne sont pas profonds et les blancs sont gris car seule une partie
de l’échelle est utilisée (l’histogramme).

Le contraste doit être réglé avec soin. S’il est exagéré les parties claires de l’image risquent d’être
transformées en blanc absolu (RVB=255-255-255); si des pixels contenaient de subtiles variations de
blanc elles seront perdues. A l’autre extrémité de l’échelle de gris, les zones très sombres risqueraient
d’être calées en RVB 0-0-0, entraînant là encore une perte d’information si les zones noires
contenaient de légères variations.

Que ce soit en photographie argentique ou en photographie numérique, une gamme de gris complète
et aussi détaillée que possible. Il faut cependant garder à l’esprit que la correction du contraste peut
améliorer une image à peu près correcte et la rendre plus agréable à regarder, mais elle n’inventera
jamais les détails perdus. Lorsqu’elle est très fortement contrastée elle a tendance à ne monter que
des plages très blanches ou très noires avec une forte perte de détails.

Il faut rappeler qu’en photographie argentique, le photographe peut agir facilement sur le
contraste de son image en noir & blanc, soit déjà au développement du film ou lors du
tirage en utilisant un papier de gradation appropriée. Ce n’est malheureusement pas le
cas en couleur ou très peu d’interventions sur le contraste peuvent être effectuées lors du
traitement chimique du film ou du papier. D’où la supériorité du numérique, du moins en
ce domaine!

Pascal DAMUSEAU St-Luc Liège Page 33 20/11/2013


32. LE REGLAGE DE LA LUMINOSITE:

Le réglage de la luminosité est souvent associé à celui du contraste. Ce dernier varie selon l’étendue
de la plage de gris alors que la luminosité la décale: la couverture reste identique, mais l’ensemble
des pixels verra la valeur globale tendre vers 0 ( assombrissement ) ou vers 255 ( éclaircissement).

Quand on travaille sur le couple contraste-luminosité, il faut bien avoir à l’esprit cette double variation.
La correction du contraste entraîne souvent un changement de la luminosité globale de l’image, qu’il
faudra donc corriger spécifiquement. La perte d’information décrite pour le contraste s’applique aussi
à ce réglage mais au lieu de concerner à la fois les parties noires et blanches, elle n’affectera que le
noir ou que le blanc, selon que l’on assombrit ou éclaircit l’image. Le réglage RVB modifie le dosage
de la couleur dans les trois canaux rouge, vert et bleu. L’utilisation de cette commande est des plus
facile, mais son application judicieuse l’est beaucoup moins, car elle exige une bonne connaissance du
dosage des couleurs. le réglage s’effectue dans une plage de valeurs de + 100% a - 100%. Lorsque
les trois glissières sont déplacées d’une valeur égale, la luminosité de l’image change, mais d’une
manière différente qu’avec la commande “luminosité”. En fait, c’est la qualité même de la lumière qui
varie. Remonter les valeurs donne un éclairage plus cru, plus violent. Ne jouer que sur une ou deux
glissières modifie le dosage des teintes selon les règles de la synthèse additive de la lumière. Etudié
pour corriger les imperfections chromatiques et les corrections des dominantes, le réglage des
couleurs RVB peut aussi être un outil créatif.

Photoshop, par exemple, propose d’autres outils agissant sur les couleurs de l’image tel la
commande « teinte- saturation » qui permet d’augmenter ou diminuer la saturation
(l’éclat) des 6 couleurs de base. il est également possible d’agir sur la luminosité des 3
couches RVB.

Faut-il ajouter que, bien entendu, des images couleurs peuvent très facilement être
transformées en noir & blanc.

Un bon “tireur” en photographie argentique n’éprouve généralement aucune difficulté


pour effectuer correctement les différents réglages de contraste, de luminosité et de
balance des couleurs en photographie numérique, les deux techniques reposant sur les
mêmes principes. Toutefois, en numérique, la correspondance entre l’image vue à l’écran
et l’image imprimée n’est pas forcément assurée et pour éviter des mauvaises surprises il
faut pouvoir régler au plus près la luminosité, le contraste et les couleurs de son moniteur
(ce que l’on appelle l’étalonnage). Pour éviter cet écueil, les fabricants mettent sur le
marché des écrans et des imprimantes “étalonnée PANTONE” selon les normes
internationales utilisées par les imprimeurs. Malheureusement ce type de matériel “haut
de gamme” est très coûteux et de toute façon, il ne faut jamais perdre de vue qu’une
image sur l’écran est observée par « transparence » comme une diapositive, et est donc
plus riche en contraste et en détails que l’image « papier » qui est observée par
« réflexion »

33. LE REDIMENSIONNEMENT ET LE RECADRAGE:

Les commandes de redimensionnement servent à agrandir ou à réduire l’image. Les côtés sont mis à
la taille voulue, soit séparément, soit simultanément. Le redimensionnement ( et /ou
rééchantillonnage) peut s’effectuer de deux manières:

- En tapant la valeur d’un côté dans une boîte de dialogue. Le logiciel calcule automatiquement le
rapport hauteur/largeur. Si l’image doit être étirée ou écrasée, une option permet de désactiver le
maintient des proportions. Après validation de la boîte de dialogue, le logiciel redimensionne l’image.

- En agissant sur les poignées de redimensionnement, l’image est redimensionnée à vue. Pour
maintenir les proportions, il faut maintenir une touche enfoncée, généralement la touche (Maj).

L’agrandissement ou la réduction doivent toujours s’effectuer en toute connaissance de cause car le


redimensionnement quand il est lié au rééchantillonnage est toujours destructeur.

Pascal DAMUSEAU St-Luc Liège Page 34 20/11/2013


Lors de l’agrandissement, des pixels sont dédoublés, parfois par interpolation : les pixels ajoutés
reçoivent une couleur obtenue en faisant la moyenne des pixels environnants. L’image paraît détaillée,
mais ce n’est qu’une illusion. Lors d’une réduction, des pixels sont supprimés.

Il va sans dire qu’une image qui aurait été réduite de taille ne peut plus être ré-agrandie à
sa taille originale sans perte de données, c’est une des raisons principales pour laquelle
tout travail sur les images doit toujours s’effectuer sur une copie de l’image originale qui
doit être sauvegardée dans un dossier séparé ou mieux sur un CD-ROM qui une fois gravé
n’accepte plus aucun enregistrement même accidentel de l’image.

Le recadrage découpe l’image comme on le ferait avec des ciseaux. Il ne doit pas être confondu avec
le redimensionnement car il s’en distingue par la conservation du rapport d’agrandissement d’origine.
L’image n’est ni agrandie, ni réduite, mais seulement rognée.

Si en photographie argentique le redimensionnement peut être comparé à l’usage d’un agrandisseur,


le recadrage est comparable au positionnement des règles du châssis margeur, ou encore - lorsque la
photo à été tirée au découpage à l’aide d’une rogneuse.

34. LES ROTATIONS:

Les rotations d’image permettent de basculer une image autour de son axe horizontal ou vertical. Ces
manipulations servent surtout à créer des effets de symétrie ou de kaléidoscope.

35. LES OUTILS DE DESSIN:

Les crayons et les plumes:


A l’instar des instruments réels, ces outils servent à tracer des lignes et des courbes qui peuvent être
ouvertes ou fermées. L’épaisseur du trait, sa couleur et son opacité ( c-à-d. la transparence du tracé)
peuvent être réglés.

L’aérographe:
Cet outil fonctionne a la manière d’un aérosol. Il reproduit fidèlement l’instrument que les graphistes
utilisent pour créer des beaux modelés dégradés, donner un aspect satiné ou métallique à un dessin
ou créer de subtils reflets dans les formes galbées. La couleur, le diamètre de la zone de pulvérisation,
l’aspect de la bordure ( dégradée ou à bords nets) et le pouvoir de recouvrement sont paramétrables.

Le pot de peinture:
Il sert à remplir une partie de l’image avec une couleur unie ou avec un motif prédéfini. Il est souvent
associé à des fonctions de dégradé (linéaire, radial...).

36. LES OUTILS DE SELECTION:

Ils servent à isoler une partie de l’image afin de la déplacer, la copier ou d’en modifier les
caractéristiques

Le rectangle de sélection:
Il s’agit d’une zone que l’on étire avec la souris Des options permettent de choisir une ellipse. De
nombreux logiciels permettent de tracer une zone parfaitement carrée ou circulaire en appuyant une
touche (MAJ) pendant que l’on définit la zone.

Le lasso - le lasso polygonal - le lasso magnétique:


Ces outils permettent de tracer une zone de sélection à main levée ou selon un contour polygonal. Le
lasso magnétique, comme son nom l’indique, colle littéralement à l’objet qu l’on veut détourer.

Pascal DAMUSEAU St-Luc Liège Page 35 20/11/2013


La baguette magique:
Cet outil, très pratique et souvent utilisé, sélectionne automatiquement tout les pixels adjacents ayant
la même couleur. Il est possible de définir une tolérance afin d’inclure dans la sélection des couleurs
plus ou moins voisines. Il est en effet très rare que, dans une photo, tous les pixels d’une zone aient
exactement la même couleur. La tolérance permet par exemple de prendre en compte tous les gris
d’un ciel délavé afin de remplacer celui-ci par un autre plus agréable.

Lorsqu’une zone est sélectionnée, elle est isolée du reste de l’image. Cette caractéristique est très
utile pour protéger un partie de l’image de l’action d’un outil comme l’aérographe par exemple.

Les transformations :

Ces fonctions permettent de déformer l’image dans tous les sens. Elles sont surtout très utiles pour
redresser des perspectives (lignes fuyantes) lors de la prise de vue d’architecture ou d’objets aux
formes rectangulaires.

Un objet parallélépipédique photographié en plongée présente des arêtes verticales obliques et le


sommet de l’objet semble plus grand que la base. Bien que tout à fait réelles, ces lignes fuyantes
peuvent parfois être désagréables à l’oeil. En quelques clics de souris, Photoshop permet très
facilement de redresser les arêtes verticales.

On remarquera que cette manipulation modifie complètement les perspectives de l’objet. Il est à noter
que cette fonction recalcule les pixels de l’image, elle est analogue au redimensionnement et il y a
donc altération de l’image et perte de qualité.

C’est la raison pour laquelle il est toujours préférable, lorsque c’est possible, de redresser les lignes de
fuites lors de la prise de vue soit en utilisant les possibilités de bascules et décentrement d’une
chambre technique, soit d’utiliser sur un appareil reflex un objectif à décentrement (PC).

Les calques :

Les calques sont une métaphore des films en celluloïd utilisés par les animateurs de dessin animés:
chaque élément d’une image est dessinée sur un calque, ce qui permet de régler très précisément
leur position en les faisant glisser les uns par rapport aux autres. Les calques, dont l’utilisation est
extrêmement riche en possibilités, sont indispensables pour réaliser des montages composés
d’éléments de photographies ou de dessins provenant de sources différentes. Si l’ordinateur est
suffisamment puissant, Photoshop peut gérer une image composée de 8.000 calques superposés

37. LE TAMPON DE DUPLICATION:

C’est peut-être l’outil le plus utilisé, il est particulièrement utile pour nettoyer les poussières d’une
image ou éliminer des éléments gênants ( poteaux électriques, personnages, objets indésirables). En
portrait, il permet aussi de supprimer les petits défauts de la peau, d’atténuer les rides etc...

La duplication consiste à reporter une petite zone de l’image ailleurs. C’est un peu comme si l’outil que
l’on manipule était un crayon à deux pointes: l’une lit des pixels à un endroit, l’autre les reporte
ailleurs dans l’image.

38. LES FILTRES:

Les filtres permettent de modifier l’aspect général de l’image ( ou de la zone sélectionnée).,


Photoshop en propose une bonne centaine dont les effets peuvent être plus ou moins prononcés.
Nous nous bornerons à citer les principaux en rappelant qu’il ne faut pas en abuser, beaucoup
d’entre-eux donnant des résultats amusants mais peu artistiques.

Les filtres d’atténuations: rendent l’image plus floue peuvent être très utile pour détacher le sujet
principal du fond ou créer des effets de filé pour des objets en mouvement.

Pascal DAMUSEAU St-Luc Liège Page 36 20/11/2013


Les filtres de renforcement: accentue les contours des pixels et donne une impression de netteté
artificielle.

Les filtres artistiques: transforme une photo en peinture à l’huile, en aquarelle, en dessin à la
plume etc...

Les filtres de torture: ajoute une texture de fond à l’image, comme si elle avait été imprimée sur un
carton grenu, sur une toile, sur du bois etc...

Et bien d’autre encore...

Pascal DAMUSEAU St-Luc Liège Page 37 20/11/2013

Vous aimerez peut-être aussi