Vous êtes sur la page 1sur 68

Projet Technologies

Médicales et Rayons X

Groupe : Hussein Ssozi


Riccardo Kancel
Mohammad Reza Golamaully
Gaël Tchantcheungounou
Rémi Gibeau
Zheng Zhao
Maoun Nalla

M1 Physique-Imagerie 2011/2012 1
PLAN

I/ Rayonnement X

1) Historique du rayonnement X p. 3 Hussein

2) Physique du Rayonnement X p. 4 à 9 Hussein


A) propriétés générales des rayons X
B) dangers
C) comment créer un faisceau de rayons X ?

II/Le Rayonnement X dans l'imagerie Médicale

1) La radiologie conventionnelle
A) l'optique radiologique p. 10 à 14 Riccardo
B) la détection de l'image radiante p. 14 à 18 Riccardo
C) le principe de l'imagerie tomographique p. 18 à 29 Reza
D) règles de radioprotection en radiologie p. 29 à 32 Reza

2) Le scanner
A) les tomodensitomètres p. 32 à 37 Gaël
B) la formation d'une image tomodensitométrique p. 38 à 41 Rémi
C) les artefacts en TDM p. 41 à 44 Rémi
D) doses en scanographie p. 44 à 48 Rémi

III/ Le traitement d'image

1) La numérisation en imagerie médicale p. 49 à 62 Zheng

2) Les critères de qualité d'une image p. 62 à 65 Maoun

3) Les éléments d'améliorations pour la qualité d'image p. 65 à 68 Maoun

M1 Physique-Imagerie 2011/2012 2
I/ Le rayonnement X
Les rayons X sont une forme de rayonnement électromagnétique à haute fréquence dont la longueur
d'onde est comprise approximativement entre 5 pico mètres et 10 nanomètres. L'énergie de ces
photons va de quelques eV (électronvolts), à plusieurs dizaines de MeV. C'est un rayonnement
ionisant utilisé dans de nombreuses applications dont l'imagerie médicale et la cristallographie.
Les rayons X ont été découverts en 1895 par le physicien allemand Wilhelm Röntgen, qui a reçu
pour cela le premier prix Nobel de physique ; il les nomma ainsi car ils étaient d'une nature
inconnue (la lettre x désigne l'inconnue en mathématiques).
La distinction entre les rayons X et les rayons gamma (qui sont de même nature et d'énergie
semblable) vient de leur mode de production : les rayons X sont des photons produits par les
électrons des atomes alors que les rayons gamma sont produits par les noyaux des atomes.

1) Historique des rayons X

À la fin du XIXe siècle, Wilhelm Röntgen, comme de nombreux physiciens de l'époque, se


passionne pour les rayons cathodiques qui ont été découverts par Hittorf en 1869 ; ces nouveaux
rayons avaient été étudiés par Crookes (voir l'article Tube de Crookes). À cette époque, tous les
physiciens savent reproduire l'expérience de Crookes mais personne n'a eu d'idée d'application de
ces rayonnements.

En 1895, Wilhelm Röntgen reproduit l'expérience à de nombreuses reprises en modifiant ses


paramètres expérimentaux (types de cibles, tensions différentes, etc.). Le 8 novembre 1895, il
parvient à rendre luminescent un écran de platino-cyanure de baryum. C'est une intuition que l'on
peut qualifier de " géniale " qui va mener Röntgen dans la direction de sa découverte : il décide de
faire l'expérience dans l'obscurité en plongeant son tube de Crookes dans un caisson opaque. Le
résultat est identique à la situation normale. Röntgen place ensuite différents objets de différentes
densités entre l'anode et l'écran fluorescent, et en déduit que le rayonnement traverse la matière
d'autant plus facilement que celle-ci est peu dense et peu épaisse. Plus troublant encore, lorsqu'il
place des objets métalliques entre le tube et une plaque photographique, il parvient à visualiser
l'ombre de l'objet sur le négatif.

Röntgen parvient à en déduire que les rayons sont produits dans la direction des électrons du tube et
que ce rayonnement est invisible et très pénétrant.
Comme il ne trouve pas de dénomination adéquate pour ses rayons, Röntgen les baptise " Rayons
X ". Notons au passage que ce rayonnement est encore souvent appelé Röntgen Strahlen (litt.
rayons de Röntgen) en Allemagne.
Le premier cliché est celui de la main d'Anna Bertha Röntgen (22 décembre 1895, pose de 20
min.) ; il s'agit de la première radiographie, la radiologie est née.
Un mois plus tard, Bergonié reproduit à Bordeaux l'expérience de Röntgen, avant que ce dernier
publie officiellement.
Le 28 décembre 1895, Röntgen publie sa découverte dans un article intitulé " Über eine neue Art
von Strahlen " (" À propos d'une nouvelle sorte de rayons ") dans le bulletin de la Société physico-
chimique de Wurtzbourg.
C'est cette découverte qui lui vaudra le premier prix Nobel de physique en 1901.

M1 Physique-Imagerie 2011/2012 3
2) Physique du Rayonnement

A) Propriétés générales des rayons X

1. " les rayons X sont absorbés par la matière ; leur absorption est en fonction de la masse
atomique des atomes absorbants ;
2. les rayons X sont diffusés par la matière ; c'est le rayonnement de fluorescence ;
3. les rayons X impressionnent la plaque photographique ;
4. les rayons X déchargent les corps chargés électriquement."

B) Dangers des rayons X

L’unité de mesure de l’effet biologique de radiations, correspondant à une dose de radiation de


10-5J dans 1g de matière, est le rem (“Röntgen Equivalent Man” ou “Equivalent-Homme de
Röntgen”).
Les dangers des rayons X pour le corps humain sont beaucoup mieux connus qu’à l’époque de ses
premières applications. Le bref passage d’un photon provoque des excitations et des ionisations qui
déclenchent une succession de réactions physico-chimiques pouvant aboutir à une modification des
fonctions et des structures cellulaires puis tissulaires. L’ADN de la cellule, qui contient le
programme génétique, est parfois touché : les molécules de l’ADN sont détériorées.
L’effet biologique d’une dose donnée dépend du taux de dose : si le taux est faible ou si la dose est
fractionnée, les processus biologiques de réparation peuvent agir et l’effet sera moins marqué que si
le taux est grand. Toutes les radiations subies s’ajoutent et se cumulent tout au long de la vie.
Les rayons X ont deux types d’effets différents sur l’organisme :

• Les effets dits non-stochastiques (qui ne sont pas le fruit du hasard) se manifestent lorsque
la dose reçu atteint ou dépasse une certaine valeur; il existe donc un seuil au-dessous duquel
ces effets n’apparaissent pas.
• Les effets aléatoires (ou stochastiques) ne se manifestent que chez certains individus,
apparemment au hasard, d’une population irradiée. Il s’agit notamment de l’apparition de
cancers ou de malformations dans la descendance. Il n’existe, semble-t-il, pas de seuil :
même de faibles doses peuvent déclencher ces effets. Ils sont tardifs et leur gravité est
indépendante de la dose reçue. La fréquence d’apparition des effets aléatoires dépend
cependant de la dose.

Dans le cas de doses conséquentes, le corps ne parvient plus à remplacer les cellules mortes si bien
que le tissu fonctionnel ne peut plus assurer son rôle. Pour une dose supérieure à 100 rems, il est
possible que l’intestin ne puisse plus digérer ni eau, ni nutriments, ni même assurer sa défense
immunitaire. Cela conduit à des nausées, des diarrhées et une faiblesse générale. Au-delà de ces
doses, c’est la destruction du système immunitaire qui a le plus de conséquences : sans assistance
médicale, le malade n’a pas plus de 60 jours d’espérance de vie. A 1 000 rems, les dommages
vasculaires conduisent à une mort certaine.
Pour diminuer au maximum la dose de rayon X reçue et la surface touchée lors d’un scanner, on
utilise divers moyens : en prenant des mensurations adéquates, en orientant correctement le faisceau
des rayons X vers la région examinée, en réduisant la quantité de rayons secondaires que le patient

M1 Physique-Imagerie 2011/2012 4
reçoit, en protégeant au moyen de protecteurs de plomb ("tablier de plomb") certaines régions plus
sensibles comme les organes génitaux reproducteurs quand cela est possible. De plus, pour éviter
que les organes génitaux soient touchés de façon trop importante, le patient est parfois installé sur le
dos. En effet, les rayons X doivent traverser beaucoup plus de muscles en pénétrant par le dos que
par le ventre. Aujourd'hui ces protecteurs en plomb sont très peu utilisés.

C) Comment créer un faisceau de rayons X ?

Actuellement, il y a principalement deux méthodes de formation des rayons X résultant d'un flux
d'électrons lancé à grande vitesse sur une cible: l'émission générale (Bremsstrahlung) et l'émission
caractéristique.

L'émission générale :

C'est la méthode principale de formation des rayons X en radiologie. Elle a lieu quand un électron
est envoyé vers une cible, passe à proximité du noyau et se trouve attiré par sa charge: l'électron est
dévié et ralenti.
La perte d'énergie se retrouve sous la forme de l'émission de rayons X. La quantité d'énergie
produite par cette méthode est donc variable: elle dépend de l'attraction du noyau, de la trajectoire
de l'électron (précisément sa distance au noyau) et de l'énergie cinétique de l'électron.
L'énergie produite est comprise entre 0 et l'énergie cinétique de l'électron (l'énergie de l'électron
provenant de son mouvement).

M1 Physique-Imagerie 2011/2012 5
L'émission caractéristique :

C'est une autre méthode de formation des rayons X: On envoie sur un atome des électrons, et quand
ceux-ci entrent en collision avec un électron d'une des couches internes (K ou L par
exemple), l'électron est éjecté de sa couche électronique. Ainsi, un « trou » se forme et afin
de combler la non-stabilité de cet atome qui n'a maintenant plus sa couche intérieure
complète, les électrons des couches périphériques viennent remplacer l'électron éjecté dans
la couche en déficit électrique.
Cette différence d'énergie entre les différentes couches d'un atome se retrouve sous forme de
rayons X. On peut donc en conclure que puisque l'énergie de liaison des électrons est unique
pour chaque couche et chaque atome, cette création de rayon X dépend de la nature de
l'atome qui va être « attaqué ».

Le spectre lors de la formation des rayons X :

Avec l'émission générale, méthode la plus utilisée, l'énergie produite des rayons X est comprise
entre 0 et l'énergie cinétique.
On obtient ainsi un spectre d'émission des rayons X sortant du tube radiogène ressemblant à ceci:

M1 Physique-Imagerie 2011/2012 6
Les différentes tubes des rayons X :

1. Tube de Crookes

Un tube de Crookes est un des premiers tubes à décharge électriques expérimentaux, inventé
par le physicien britannique William Crookes et autres entre les années 1869 et 1875 durant
lesquelles les rayons cathodiques (autrement dit les électrons), ont été découverts.
Le savant Wilhelm Röntgen découvrit les rayons X grâce au tube de Crookes en 1895.
L'appellation est aussi utilisée pour la première génération de tubes à rayons X à cathodes
froides, qui est issue des tubes de Crookes expérimentaux et qui fut utilisée jusque dans les
années 1920.

Fonctionnement

Les tubes de Crookes étaient des tubes à cathode froide, ce qui veut dire qu'ils ne comportaient pas
de filament chauffant comme on en mettra plus tard dans les tubes électroniques pour générer des
électrons. Dans le tube de Crookes, les électrons sont générés par l'ionisation du gaz résiduel excité
par une tension continue de quelques kilovolts à 100 kV, appliquée entre les deux électrodes. Cette
tension est fournie par une bobine de Ruhmkorff. Le niveau de vide du tube doit se situer entre 10-6
à 5×10-8 atmosphère (7×10-4 - 4×10-5 torr ou 0,1 - 0,005 pascal).
Lorsque qu'une tension élevée est appliquée au tube, le champ électrique induit l'accélération des
ions (chargés) présent dans le gaz, qui peuvent être créés par des processus naturels comme la
radioactivité. Ils entrent en collision avec les autres molécules du gaz, leur arrachant des électrons et
créant ainsi des cations par une réaction en chaîne. Ces cations sont attirés par la cathode, ou
électrode négative. Lorsqu'ils la percutent, ils éjectent un grand nombre d'électrons de la surface
métallique, qui sont par la suite attirés par l'anode (ou électrode positive). Ces électrons sont les
rayons cathodiques.

M1 Physique-Imagerie 2011/2012 7
Image simple d’un tube de Crookes

2. Tube de Coolidge

Le tube de Crookes fut amélioré par William Coolidge en 1913. Le tube de Coolidge, encore appelé
tube à cathode chaude, est le tube le plus largement utilisé. C'est un tube sous vide poussé (env. 10-4
Pa, env. 10-6 torr), recouvert d'une enceinte plombée.
Dans le tube de Coolidge, les électrons sont émis par un filament de tungstène chauffé par un
courant électrique (effet thermoïonique également utilisé dans les tubes cathodiques de téléviseur).
Le filament constitue la cathode du tube. La haute tension est établie entre la cathode et l'anode, ce
qui accélère les électrons émis par le filament. Ces électrons viennent frapper l'anode.

Fonctionnement

M1 Physique-Imagerie 2011/2012 8
Quel que soit le type de tube, la génération des rayons X se fait selon le même principe.
Une haute tension électrique (de l'ordre de 20 à 400 kV) est établie entre deux électrodes. Il se
produit alors un courant d'électrons de la cathode vers l'anode (parfois appelée « anticathode » ou
« cible »).Les électrons sont freinés par les atomes de la cible, ce qui provoque un rayonnement
continu de freinage ou Bremsstrahlung, dont une partie du spectre est dans le domaine des rayons
X.
Ces électrons excitent les atomes de la cible, et ceux-ci réémettent un rayonnement X
caractéristique par le phénomène de fluorescence X. Le spectre sortant du tube est donc la
superposition du rayonnement de freinage et de la fluorescence X de la cible.
Les tubes de rayons X ont une efficacité énergétique extrêmement mauvaise, la majeure partie de la
puissance électrique (99 %) étant dissipée sous forme de chaleur. Les tubes doivent donc être
refroidis, en général par une circulation d'eau.

M1 Physique-Imagerie 2011/2012 9
II/Le Rayonnement X dans l'imagerie
Médicale

1) La radiologie conventionnelle
La radiologie dans le domaine médical, désigne l'ensemble des modalités diagnostiques et
thérapeutiques utilisant les rayons X, ou plus généralement utilisant des rayonnements. Mais la
radiologie, dans son sens plus commun, désigne la spécialité médicale exercée par un médecin
radiologue en France, ou radiologiste au Canada. Un établissement de santé peut donc abriter un
service de radiologie. En médecine, on parle de radiologie conventionnelle pour désigner les
examens diagnostiques utilisant un tube à rayons X classique servant à réaliser des images
bidimensionnelles, radiographiques ou fluoroscopiques. La radiologie conventionnelle comprend la
radiologie standard qui concerne les examens radiographiques standards dont la réalisation obéit à
des protocoles reconnus de manière internationale.

A) L'optique radiologique

La formation de l'image radiologique :

Trois facteurs sont indispensables à la formation d'une image radiologique :

1- le foyer radiogène (F), quasi ponctuel, source du faisceau de RX


2- l'objet radiographié (O), dont on veut former une image (région anatomique)
3- le récepteur (R), film le plus souvent, mais progressivement remplacé par des procédés
électroniques, qui supporte l'image utile.

M1 Physique-Imagerie 2011/2012 10
Chacun de ces éléments de base peut varier dans des conditions multiples, le faisceau de RX se
définit par sa géométrie, le spectre d'énergie des photons, les rapports géométriques propres entre
Foyer, Objet et Récepteur.

Un cliché comporte une échelle de densité allant du noir au blanc qui résulte de l'absorption
différente des rayons X par les milieux traversés.
Dans le corps humain, il existe 4 densités fondamentales.

L'os : densité calcique et tous les produits de contraste à base d'iode ou de baryte.
Les différents parenchymes : foie, rate, reins, etc sont à densité hydrique (eau).
Les tissus cellulaires et la graisse: qui entoure de nombreux organes sont de densité graisseuse.
Toutes les structures contenant de l'air : trachée, bronches alvéolaires pulmonaires, etc ont la
densité de l'air.

La loi des tangences (loi de Tillier) :

Loi de la projection conique


Les rayons X étant émis par une source ponctuelle, toute l’image représente la base d’un cône,
tangent à l’objet radiographié, et ayant la source pour sommet.

Loi de la confusion des plans


Sur un cliché radiologique, les images des différents plans de l’objet sont confondues dans un même
plan.
Loi des teintes
Pour une épaisseur donnée, la teinte de l’image fournie par un faisceau de caractéristiques
déterminées est fonction de la densité du corps radiographié et du numéro atomique des éléments
qui le constituent.
Loi des traits
Un trait prend naissance dans l’image radiologique lorsque le rayon incident aborde
tangentiellement la surface d’un objet opaque, ou la surface séparant deux objets d’opacité
différente.

La qualité de l'image se jugera sur plusieurs paramètres

Netteté : l'image doit être nette, sans flou, ses contours sont bien délimités.
Contraste : les différences d'intensité dans le noircissement du film permettent de reconnaître les
structures que l'on souhaitait étudier.
Incidence : l'analyse anatomique impose une comparaison à des clichés pris dans une position
définie de référence.
Centrage : l'image utile doit se trouver au centre d'un film de dimension minimale.

M1 Physique-Imagerie 2011/2012 11
Netteté de l'image : Flou :

Les contours de l'image doivent être nets, c'est-à-dire parfaitement délimités ; une ligne précise
sépare les zones opaques, sombres et claires. L'absence de netteté est le flou défaut que l'on
s’efforce de réduire. Le flou est en fait inévitable et les phénomènes qui le produisent sont
nombreux. Pour des raisons didactiques on les résume à 4 causes principales :

-flou géométrique
-flou cinétique
-flou d'écran
-flou de forme

Flou géométrique

Ce flou est lié à la disposition géométrique des éléments concourant à la formation de l'image :
taille du foyer, agrandissement, décalage par rapport au rayon directeur.

Problème géométrique

Le foyer géométrique (ou optique), source du rayonnement X n'est pas un point ; cette surface
d'émission est un carré de 0,6mm à 1,2mm de côté sur la majorité des tubes radiogènes actuels ; ses
dimensions peuvent atteindre 2 mm ou descendre à 0,1 mm.

On reconnaît la formation de l'image d'un foyer sur le bord fin d'un objet opaque.
On peut distinguer trois zones de l'image.

-Ombre : aucun rayon provenant directement du foyer ne touche le film

-Lumière: tout point du récepteur est en vue directe de la totalité du foyer ; l'éclairement est
maximum.

-Pénombre : cette zone intermédiaire ne reçoit qu'une partie du rayonnement du foyer ; le passage
de l'ombre à la lumière se fait progressivement et la limite entre ces deux zones est indistincte,
floue.

M1 Physique-Imagerie 2011/2012 12
Flou de mouvement

Trois types de mouvements :

Mouvement de l'objet

Le malade respire, le cœur bat, les organes digestifs bougent, l'immobilité musculaire ne peut être
maitrisée longtemps.
C'est le flou le plus préoccupant. L'élément anatomique mobile se déplace à une vitesse parfois
importante (vitesse instantanée atteignant 100 à 200 mm/seconde). La longueur parcourue est
fonction du temps d'exposition ou temps de pose.

Mouvement de foyer radiogène

Il s'agit le plus souvent de vibration d'un plateau d'anode voilé, d'une vibration de gaine mal
contenue par une suspension qui, en vieillissant, a pris un jeu mécanique : l'amplitude de cette
vibration autour d'une position moyenne augmente la dimension apparente du foyer. L'effet est donc
plus marqué pour un foyer de petites dimensions qui pourrait alors donner des résultats équivalents
à un gros foyer. En tomographie les mouvements mécaniques obligatoires et leur jeu associé
créaient une limite à l'intérêt de foyers de petite taille (inférieur à 0,6 mm).

Mouvement du récepteur

Il s'agit là encore de déficiences mécaniques.

-La lettre de repérage un peu épaisse, collée par un sparadrap peut créer un contact entre une
cassette supposée immobile et la grille mobile ; la cassette est donc entraînée par les vibrations de la
grille.

-Le temps séparant le lancement de l'anode de la prise de cliché sur une table télécommandée doit
être bref (moins de 2 secondes) ; ce temps comprend non seulement la mise en vitesse de l'anode
(9000 tours) mais le transport d'un tiroir contenant la cassette sur une distance de 50 cm et une
immobilisation en fin de course. Si l'on déclenche le deuxième temps de prise de cliché trop tôt, le
cliché est pris alors que la cassette est encore en mouvement ou en vibration.

-Les sérigraphies prenant des clichés à un rythme rapide et cahngeant le film peuvent si le temps de
pose est trop long déplacer le film pour mettre en place le suivant alors que l'émission des rayons
n'est pas encore terminée.

Flou de récepteur

Le récepteur a une structure granuleuse, grains de bromure d'argent pour le film, grains
luminescents de l'écran renforçateur ou de l'amplificateur de luminance et même structure de
matrice d'un système numérisé.
Une ligne droite de délimitation idéale se traduit donc par une ligne irrégulière et donc par une
imprécision de contours.
La qualité de résolution spatiale du récepteur règle donc le degré de netteté de l'image.

M1 Physique-Imagerie 2011/2012 13
Flou de forme

Les contours parfaitement défini d'un objet produira une image plus nette qu'un objet au contour
imprécis. Nous avions envisagé jusqu'ici des objets ayant une opacité absolue au rayonnement ; en
fait l'atténuation du rayonnement est liée à la nature et à l'épaisseur. La limite d'une structure
incomplètement opaque et épaisse même de forme géométrique crée une image de noircissement
passant progressivement de la lumière à l'ombre.
Ce flou de forme est plus particulièrement lié à la forme des objets et aux variations d'épaisseurs
pour des rayons grossièrement parallèles. Une forme en coin donne une image différente selon
l'angle de ce coin. Une forme courbe sera reconnue essentiellement par la ligne de tangence à cette
courbe et non par les zones limites de cette courbe. Elle est une composante essentielle de la
formation de l'image osseuse : on voit mieux la voûte crânienne dans la partie centrale , les
corticales tangentielles d'un os que celle qui sont perpendiculaires au rayon.

B) La détection de l'image radiante

Les rayons gamma proviennent de l’interaction des nucléaires tandis que rayon-X proviennent de
l’interaction des électrons Ex = 30Kev pour la radiologie imagerie des tissues moues faible KV

Egamma : spectre de raie 511Kev inhalation de particule β( spectre discret)

L’effet photoélectrique:

Le photon entre en collision avec un électron des couches internes de l’atome. L’énergie E du
photon incident est transférée à l’électron qui est éjecté de sa couche. Une partie de cette énergie est
utilisée pour “extraire” l’électron interne (énergie de liaison W); l’excédent d’énergie se retrouve
sous forme d’énergie cinétique de l’électron éjecté. Par conséquent, E = W+Ecin.

-L’effet photoélectrique ne peut avoir lieu que si l’énergie du photon incident est supérieure à
l’énergie de liaison de l’électron.
-L’énergie cinétique du photoélectron est finalement transférée au milieu lors d’ionisations
ultérieures. Le retour de l’atome à l’état fondamental s’accompagne d’une émission d’énergie sous
forme d’un photon de fluorescence ou d’un électron Auger.
-Le photon de fluorescence est émis lorsqu'un électron des couches supérieures prend la place
laissée vacante par l'électron éjecté. Parfois, pour des milieux de Z petit, le photon de fluorescence
produit un nouvel effet photoélectrique avec émission d'un électron: c'est l'effet Auger.

M1 Physique-Imagerie 2011/2012 14
L’effet Compton :

Le photon entre en collision avec un électron libre ou faiblement lié auquel il cède une partie de son
énergie. Un photon d’énergie plus faible est diffusé dans une direction différente de la direction
initiale. Pour les photons X étudiés ici, la majeure partie de l’énergie est emportée par le photon
diffusé. Il y a trois possibilité soit un plein choque(e et Px direction opposé, soit un frôlement
direction perpendiculaire l’un par rapport à l’autre, soit un choc mou.

Contraste et Tension :

En plus de son action sur la densité photographique, la tension agit sur la qualité de l'image c'est à
dire sur le contraste : il diminue quand la tension augmente (effet Compton prédominant), alors
qu'en technique basse tension (<100Kv), le contraste est grand (effet photoélectrique prédominant).

En technique haute tension (>100Kv), le contraste entre deux plages est faible mais il est possible
de visualiser toutes les structures radiographiées : compression du contraste.

A l'opposé en basse tension, les différences d'atténuation étant grandes, il faut souvent plusieurs
expositions pour visualiser avec des densités radiographiques valables des structures de radio-
opacités très différentes.

Ainsi la tension doit être choisie en fonction du contraste recherché :

-basse tension pour un contraste marqué (recherche de corps étrangers dans les parties molles,
mammographie, clichés du squelette)

-haute tension pour un contraste comprimé (cliché pulmonaire avec effacement des côtes,
pénétration du médiastin, examens digestifs barytés).

M1 Physique-Imagerie 2011/2012 15
Contraste et dimension du pixel :

Pour un flux constant si la dimension du pixel augmente le contraste diminue, et inversement pour
la même dimension du pixel si on diminue le flux le contraste diminue aussi, et si on divise le
contraste par le même coefficient on gardera le même contraste.

On doit noter qu’il faut une certaine dose (nombre de photon/u.surface/u.temps) pour sensibiliser un
pixel.

Les grandes familles de détecteurs :

Les principaux paramètres caractéristiques d'un détecteur sont :

- la résolution spatiale qui est indiquée par la fonction de transfert de modulation,

- l'efficacité quantique de détection (liée au pouvoir d'arrêt du milieu détecteur, aux différentes
sources de bruit et au nombre d'événements secondaires créés par photon X absorbé)

La fonction de transfert de modulation

(FTM) d'un détecteur est une courbe qui relie la variation de contraste de l'image en fonction de la
fréquence spatiale de l'objet pour un contraste objet donné. Elle rend compte des possibilités de
visualiser un contraste donné dans l’image. Dans une chaîne où interviennent plusieurs éléments de
transformation de l'information, la FTM de l'ensemble du système est le produit des diverses
fonctions de transfert. C'est l'élément qui a la FTM la plus mauvaise qui a le rôle le plus important
dans la dégradation de l'image (capteur, optique...).

La résolution spatiale

En général, c'est la valeur correspondant à 5% de contraste qui est la limite au-delà de laquelle on
considère qu'un détail n'est plus décelable. Elle se mesure en μm ou en paires de lignes par
millimètre. Pour les détecteurs à pixels indépendants, on admet que cette résolution limite est

M1 Physique-Imagerie 2011/2012 16
définie par la fréquence de Nyquist (inverse du double de la taille du pixel élémentaire).

L'efficacité quantique de détection (EQD)

Elle caractérise probablement le mieux une chaîne de détection de l'image, puisqu'elle reflète
l'aptitude d'un système à convertir fidèlement l'image radiante sans la distordre en comparant le
rapport Signal/Bruit en sortie au rapport S/B en entrée. Ceci tient compte de l'efficacité d'absorption
du rayonnement X et de la conversion et rend compte de l'utilisation de la dose incidente au patient.

L'EQD s'exprime sous la forme suivante:

Le signal à l'entrée est lié au nombre de photons incidents(N), et donc le bruit associé, qui est
statistique, est la racine carrée du nombre de photons incidents (Sxentrée / BXentrée)

L'efficacité quantique de détection mesurée à fréquence spatiale nulle, inférieure à 1, devrait être
supérieure à 0,5 dans une chaîne d'imagerie médicale. Elle peut être voisine de 0,8 dans les cas les
plus favorables (intensificateurs de brillance).

Autres détecteurs :

On peut préciser en outre quelques autres notions utilisées pour caractériser les détecteurs :

La sensibilité qui correspond à la plus petite variation d'absorption des rayons X que l'on arrive à
mesurer. Cette notion est très importante pour la scopie. Elle se mesure en μGy typiquement.

La dynamique de l'objet qui est égale à l'inverse de l'atténuation (environ 300 pour un patient
"standard" en imagerie thoracique).

La dynamique vraie de l'image correspond au rapport de l'amplitude du signal non atténuée sur
l'amplitude du bruit du signal le plus atténué.

La traînée, qui rendra le détecteur plus ou moins apte à la radioscopie.

Le champ

Le détecteur idéal de photons X pourrait avoir une série de caractéristiques qui représentent un
compromis des valeurs des différents paramètres préalablement envisagés.

CCD petit composant électronique de toute résolution, il sert à numériser l’image en temps Presque
réel

X-ray detector for digital radiography

Scintillateur il permet de recevoir les rayons X et de les transformer en photon pour produire une
image

M1 Physique-Imagerie 2011/2012 17
Fluoroscopie utilisé en bloc opératoire qui permet de faire plusieurs image dans le temps (sont en
train de disparaître et exige la protection du personnelle EQD=60-70, sensibilité qqn gray, champ 40
cm résolution/contraste faible, encombrement important, sensible aux champs magnétique

ERLM écran radio luminescent a mémoire

Film d’épaisseur 40 cm les RX sont bloqué par des électrons et donc mémorise, pour les relire il
faut un système a rayon laser >photo multiplicateur >CAN>image, très bonne résolution, peut être
traité, elle demande du temps, EQD 25, luminescence supérieur au film standard

Détecteur au silicium Ils sont en effet caractérisés par une faible dose d’exposition et une grande
résolution. Utilisé en imagerie pulmonaire

Détecteur a semi-conducteur : utilisé un réseau de transistor sous la couche de scintillation ce qui


assure une résolution élevé, inconvénient la haute tension, avantage bonne résolution et rapidité.

Détecteur a silicium amorphe : c’est l’avenir, même principe d’utilisation de transistor MOS-FET,
sont très utilisé, avantage basse tension, inconvénient : grande matrice donc pas de cadence
d’image, si on réunit les pixels de cet détecteur on arrive à diminuer la dose et passe de la
fluoroscopie a la graphie.

Solution hybrides écran luminescent + fibre optique réductrice + photo détecteur CCD

Détecteur de scanner : couronne de détection, reconstitution des images à partir de la projection «


algorithmique », utilisation des tubes Rx, problème > câblage avec la rotation, solution >
miniaturisation du générateur de tension, système de frottement +fluide.

PET-scan : détecteur a semi-conducteur, grande sensibilité, détecteur a gaze avec de très haute
pression pour augmenter la probabilité d’interaction.

C) Le Principe de L'imagerie Tomographique

Historique :

La tomographie, technique radiologique d'étude en coupes du corps humain, est une méthode déjà
ancienne : en 1921, un dermatologue français, A. Bocage, en publie les principes, et fait breveter le
premier système.
L'idée est reprise en Italie par Vallebona, qui développe en 1930 le premier tomographe médical
dont les résultats soient réellement rigoureux ; à la même époque Ziedses des Plantes invente la
planigraphie multidirectionnelle.
Dans les années qui vont suivre, les chercheurs perfectionnent leur technique, cependant que les
médecins étudient les images. Cette période est celle de la prospection et de la recherche mais les
résultats ne dépassent pas le stade de la publication, et la tomographie ne sera pas utilisée dans la
pratique radiologique courante.

A partir de 1945, les recherches vont s'intensifier dans ce domaine et conduire à des résultats plus
performants. Rapidement, les images tomographiques deviennent indispensables en radiologie
pulmonaire, les artefacts sont peu à peu éliminés (Pizon et Tellier) ; la tomographie osseuse se

M1 Physique-Imagerie 2011/2012 18
développe (Herdner), cependant que Vallebona en Italie, Frain et Lacroix en France mettent au point
la tomographie axiale transverse, avec obtention des coupes transversales, perpendiculaires à l'axe
longitudinal du corps. Les développements technologiques ultérieurs vont conduire à des appareils
de plus en plus élaborés et précis. Sans et Porcher construisent, en 1950, le premier tomographe à
balayage pluridirectionnel, qui passe rapidement dans le domaine commercial (Polytome - Massiot).

Les progrès techniques de développement de l'image, l'amélioration constante des émulsions


photographiques et des écrans renforçateurs permettent d'affiner les coupes et d'obtenir des images
proches de la perfection. La tomographie devient alors une méthode de haute précision permettant
de visualiser des structures de l'ordre du millimètre ; elle devient indispensable en neuroradiologie,
dans l'étude du squelette et du thorax. La radiologie de cette période est inconcevable sans l'apport
de la tomographie, et les tomographes se multiplient sous toutes les formes.

Depuis 1972, la mise au point de la tomodensitométrie et des scanographes de haute précision


entraîne le recul de la tomographie conventionnelle. La tomographie axiale transverse reconstruite
par ordinateur et ses résultats laisse prévoir le remplacement progressif des tomographes, aussi
bien pour l'exploration des organes profonds que pour l'analyse des structures osseuses les plus
fines. Cependant beaucoup de statifs de radiographie resteront équipés de systèmes
tomographiques.

Définition :

Le mot tomographie provient du grec"tomos": tranche et "graph": image

La tomographie a pour but de fournir une représentation en coupes des structures anatomiques
et/ou de leur fonction.
L'image radiologique habituelle additionne une infinité de plans superposés ; la tomographie est
l'étude d'un plan de coupe unique, sélectionné, cependant que tous les autres plans sont effacés
aussi complètement que possible.

Les principes de reconstruction tomographiques:

Les définitions

Plusieurs phénomènes physiques peuvent être à l'origine de la production d'images


médicales anatomiques et/ou fonctionnelles. Il existe en fait 4 grandes modalités d'imagerie
médicale: la radiologie, l'échographie, l'IRM, la médecine nucléaire. Ces modalités reposent sur
l'interaction d'ondes, de natures différentes, avec les tissus biologiques: les ondes
électromagnétiques (rayons X pour la radiologie, rayonnement gamma pour la médecine nucléaire,
ondes radio pour l'IRM) et les ultrasons, (onde mécanique), pour l'échographie. Ces techniques
d'imagerie se regroupent aussi
en imagerie: - par transmission: rayons X par emission: médecine nucléaire et dans une
moindre mesure IRM et enfin échographie.

M1 Physique-Imagerie 2011/2012 19
Eléments de vocabulaire

L'image numérique ou digitalisée: en tomographie l'image de la coupe anatomique


est reconstruite par ordinateur, pour cela les informations (d'absorption de RX par les tissus
biologiques) ou données sont "numérisées ou digitalisées".

La matrice image: elle est représentée par un tableau de (n)lignes x (m)colonnes, chaque élément
de l'images est appelé pixel (picture element). Les matrices images peuvent être de taille carrée ou
symétrique (64x64, 128x128, 256x256, 512x512, 1024x1024), mais ells peuvent être asymétriques
(64x128, 192x256 par exemple). L'information contenue dans un pixel représente, suivant la
modalité
d'imagerie retenue, par exemple l'absorption du rayonnement X.
Cette grandeur est exprimée par un nombre compris en général entre 0 et 256 et dont la valeur est
caractérisé par le niveau d'une echelle de gris ou celui d'une echelle de
couleur.

Le contraste: il est représenté par la différence du contenu (du niveau ou de la couleur) de deux
pixels adjacents. C'est la variation du contraste qui détermine la possibilité de différenciation des
tissus biologiques en imagerie (forme anatomique et
structure des tissus et/ou fonction et métabolisme des organes).

pixel: la résolution spatiale de l'image est la distance minimum séparable de l'objet imagé, elle est
mesurée en [mm] en imagerie médicale (c'est la dimension du plus petit
détail visible). Il est préférable de lui substituer la résolution par pixel [mm/pixel ]ou si l'on tient
compte de la matrice symétrique ou non [(x)mm]x[(y)mm], (x) et (y) étant les dimensions du pixel.
Plus une image est résolue meilleure est sa définition.

L'épaisseur de coupe: elle est aussi donnée en (mm) et représente la troisième dimension de l'image
tomographique, c'est l'épaisseur de la tranche de tissu biologique qui est à l'origine de l'interaction
physique de l'onde utilisée. Cette épaisseur ne peut être infinitesimal bien sur. Plus l'épaisseur est
faible (plus la tranche est fine) plus le temps nécessaire à l'obtention de l'image sera élevé. Dans la
matrice image c'est l'épaisseur de coupe et la nature et/ou fonction des organes et des tissus qui y
sont contenus (ou qui la traversent) qui sont à l'origine du contraste image, mais l'épaisseur de

M1 Physique-Imagerie 2011/2012 20
coupe affecte aussi la resolution spatiale comme le montre la figure suivante où un objet incliné qui
traverse deux coupes d'épaisseurs différentes donnera deux tailles
d'images :

figure 1: influence de l'épaisseur de coupe sur la résolution spatiale

Le voxel: c'est l'élément de volume de l'objet qui est à l'origine du pixel de l'image.

figure 2: définition du voxel "i,j"[dimensions = (x mm) x (y mm) x (z mm)]

La reconstruction de l'image tomographique

Les principes et algorithmes de reconstruction des images tomographiques


par rétroprojection, rétroprojection filtrée et reconstruction algébrique itérative et
statistique peuvent en théorie s'appliquer aux 4 modalités d'imagerie décrites
précédemment. L’image tomographique représente actuellement une coupe des tissus

vivants, obtenue après reconstruction, de différentes modalités d’intéractions d’ondes


électromagnétiques, comme le RX avec ces tissus.

M1 Physique-Imagerie 2011/2012 21
→ La rétroprojection simple

Considérons d’abord l’acquisition des projections de l’objet (ici par exemple un organe «fixant » un
radiotraceur) dont on souhaite reconstruire les coupes.
Les "projections" sont obtenues dans ce cas analogue (tomographie de
transmission) par un scanner X où la source de rayons X , à l’extérieur du
patient, est tournante tournant autour du patient, pas à pas, sur un arc de cercle de 180° ou sur la
totalité du cercle soit 360. Ainsi les images de projections sont obtenues par l’atténuation des rayons
X par le patient à chaque angle d’incidence.

figure 3: acquisitions de projections orthogonales en tomographie de transmission

Les sinogrammes des différentes coupes sont obtenus à partir de l'ensemble des projections. Ils
correspondent à une autre représentation des données d’acquisition où l’angle de rotation est en
ordonnée alors que le profil d’atténuation est en abscisse.

M1 Physique-Imagerie 2011/2012 22
Le processus général de reconstruction des coupes tomographiques est représenté ci
dessous :

La rétroprojection simple consiste en un épandage successif des profils de projection


sur la matrice image finale. Comme le montre l’illustration ci dessous la solution n’est pas unique
sauf si l’on dispose d’une infinité de projections. En pratique un minimum de 60 projections sur
360° est recommandé.

figure 4 : (a) un objet de forme différente donne deux projections identiques dans la
même direction de projection, (b) 4 ou 2 objets donnent deux projections orthogonales
identiques

M1 Physique-Imagerie 2011/2012 23
Malheureusement après rétroprojection l'image reconstruite de l'objet n'est pas aussi pure que
l'image réelle de l'objet lui même. L'image reconstruite est altérée par des artéfacts (ou bruit) en
étoile provenant de l'épandage de chaque profil sur toute la matrice image comme l'illustre la figure
suivante.

figure 5: exemple d'artéfacts de reconstruction en rétroprojection simple provenant de


l'épandage des rayons de rétroprojection

Afin d'atténuer ces artéfacts en étoile on procède au filtrage des projections ou des
sinogrammes avant l'opération de rétroprojection.

→ La rétroprojection filtrée

Le filtrage des projections fait appel à une "convolution" qui est illustrée à l'aide de la
figure suivante.

M1 Physique-Imagerie 2011/2012 24
figure 6: convolution de la fonction B par la fonction A notée A+B. L'opération de
convolution s'effectue par etapes successives(1,..7 dans cet exemple où on peut l'illustrer en
réalisant l'addition de A et de B en décalant A à chaque pas de calcul). La
convolution a pour but de modifier la formede la fonction B.

Afin de minimiser les artéfacts en étoile de la rétroprojection on convolue les profils de projection
ou les sinogrammes par une fonction "filtre" . Cette étape est démontrée sur les figures suivantes.

figure 7: effet de la convolution d'un filtre sur le profil de projection original.

figure 8: les projections orthogonales génèrent en rétroprojection simple des artéfacts en étoile. Si
l'on convolue les projections de telle sorte qu'elles deviennent de nouvelle fonctions, comme celles
représentées sur la figure 7, avec une partie positive mais deux parties négatives de part et d'autre,
on voit que les rayons des rétroprojections provenant des parties négatives diminueront et même
annuleront les artéfacts qui sont engendrés par les parties positives.

M1 Physique-Imagerie 2011/2012 25
Le rôle du filtrage des projections ou des sinogrammes
L’exemple ci dessous illustre les fréquences spatiales existant dans une image.
Les basses fréquences spatiales contiennent l’information des contrastes de l’image alors que les
hautes fréquences spatiales contiennent les détails.

La fréquence spatiale est définie comme le rapport 1/a où « a » représente la dimension


du pixel. Le filtrage des images de projection ou des sinogrammes va « lisser » ces images, c’est à
dire atténuer l’influence de certaines fréquences spatiales. Différents filtres sont illustrés çi dessous.
Le filtre rampe atténue linéairement les basses fréquences, alors que le filtre passe bas coupe les
hautes frequencies à partir d’une fréquence seuil dite de coupure.

L’exemple ci dessous montre bien comment le filtrage des projections ou des


sinogrammes, avant la rétroprojection elle même, modifie la qualité de l’image de la
coupe finale qui est ici un fantôme de résolution. Si la fréquence de coupure du filtre est trop basse
les détails sont perdus, si elle est trop haute le bruit haute fréquence est trop important

M1 Physique-Imagerie 2011/2012 26
→ Les méthodes algebriques itératives

Ce sont des méthodes de reconstruction mathématique des coupes tomographiques basées sur des
approximations successives des valeurs des voxels lorsque l'on connait les résultats des sommes des
lignes, des colonnes et des diagonales de la matrice d'acquisition (les projections) et que l'on veut
retrouver les valeurs correspondantes de chaque pixel de l'image. Cette technique est illustrée à

l'aide de l'exemple d'un objet simple représenté par une matrice objet 2x2, et démontré par figure
12.

figure 9: soit deux objets circulaires correspondant à des voxels valant


respectivement 2 et 3, on compte 1 lorsqu'il n'y a pas d'objet.

M1 Physique-Imagerie 2011/2012 27
figure 10: illustration des étapes successive du processus ART. En (a) on répartit de façon identique
la somme deslignes sur chaque pixel des lignes. En (b) on fait de même pour les colonnes et on
ajoute les résultats aux pixels de l'image. En (c) et en (d) on répète ce processus pour les diagonales.
En (e) on normalise les résultats par la soustraction de la somme des valeurs des voxels, ici 7, puis
par division par 3 de chacun des pixels. Le résultat final est présenté en (f) où le contraste de
l'image est identique à celui de l'objet (figure 9).

Ces procédés algébriques ne génèrent pas d'artéfacts de reconstruction mais


nécéssitent des temps de calculs plus longs, surtout pour des matrices images de taille
importante comme 1024 x 1024 par exemple. Ces procédés de calcul s’expriment de façon
matricielle : on mesure les projections (P), on connaît aussi l’opérateur de projection (R) qui dépend
des conditions physiques des intéractions des rayonnements avec les tissus biologiques et des
conditions d’acquisition
des images de projection, et l’on doit trouver (F) qui correspond à la matrice image. Dans le cas de
l’exemple précédent les deux equations à deux inconnues F1 et F2 sont representatives du problème
à résoudre.

M1 Physique-Imagerie 2011/2012 28
→ Les méthodes statistiques

Ces méthodes de reconstruction des coupes tomographiques reposent sur une


formulation probabiliste du problème de reconstruction. Ainsi les projections (P) sont
des variables aléatoires et on détermine (F) qui maximise la vraisemblance, c’est à dire la
probabilité de P par rapport à F en fonction du modèle probabiliste choisi. Le nombre
d’itérations du calcul affine le résultat comme on le voit çi dessous.

Méthodes statistiques:
MLEM: Maximum Likelihood Expectation Maximisation
• On utilise une formulation probabiliste du problème dereconstruction : Les projections P sont des
variables aléatoires et on determine la solution F qui maximise la vraisemblance c’est à dire la
prob(P|F) par rapport au modèle probabiliste choisi.

D) Règles de Radioprotection en Radiologie

Effets biologiques :

Compte tenu de leur énergie, les rayonnements ionisants ont un effet néfaste sur les cellules
vivantes et particulièrement sur l'ADN. Les rayonnements peuvent ainsi induire des modifications

M1 Physique-Imagerie 2011/2012 29
ou ruptures de la chaîne d'ADN, réparables ou non.
Les effets ainsi produit peuvent être :
• stochastiques (aléatoire) pour des faibles doses d'irradiation et dans le cas où la cellule a
réussi à se réparer mais de manière incomplète, entraînant ainsi des modifications de sa
fonction. Les effets sanitaires de ces atteintes à l'ADN sont peu étudiés de par le monde2 ;
• déterministes pour des doses plus fortes, entraînant la mort de la cellule à plus ou moins
court terme.

Expositions :

Les sources d'expositions aux rayonnements ionisants peuvent être de deux natures :
• l'exposition externe engendrée soit par un panache soit par une source éloignée ;
• l'exposition interne engendrée par l'incorporation de radionucléides dans l'organisme.
Il y a des différences majeures entre ces deux types d'exposition :
• il est possible de se soustraire aux effets néfastes des expositions externes en s'éloignant de
la source tandis que cela n'est pas possible en cas d'exposition interne ;
• l'exposition interne suppose une incorporation de radionucléides, et la personne devient
alors une source d'exposition externe pour ses voisins (voire de contamination) ;
• les rayonnements alpha sont trop peu pénétrants pour être dangereux en exposition externe,
alors qu'ils sont particulièrement radiotoxiques en exposition interne (20 fois plus
radiotoxiques que les rayonnements béta ou gamma pour la même énergie délivrée).

Radioprotection :

La radioprotection désigne l'ensemble des mesures prises pour assurer la protection de l'homme et
de son environnement contre les effets néfastes des rayonnements ionisants.

Principes
La radioprotection repose sur 3 principes fondamentaux :
• Justification: Les avantages (en médecine : diagnostiques ou thérapeutiques) doivent
dépasser les risques engendrés par l'exposition.
• Optimisation : L'exposition est à maintenir à un niveau aussi faible que possible (en
médecine : tout en obtenant l'information diagnostique utile au patient)
• Limites de dose: Les limites de dose définies par le législateur ne doivent pas être
dépassées. Ce principe ne s'applique pas aux doses reçues comme patient.

Chaque activité impliquant une exposition au rayonnement ionisant doit respecter ces 3 principes.

Remarques

Le principe de justification signifie que toute activité impliquant une exposition au rayonnement
ionisant doit être justifiée par les avantages qu'elle procure. Appliqué au domaine médical, le

M1 Physique-Imagerie 2011/2012 30
principe de justification signifie que le médecin (aussi bien le médecin qui prescrit un examen que
celui sous l'autorité il est réalisé) doit juger, si l'examen est médicalement justifié : Les avantages
diagnostiques (ou thérapeutiques) potentiels doivent dépasser les risques engendrés par l'exposition.
Les médecins sont obligés de prendre en considération
3. les informations diagnostiques antérieures (carnet radiologique, necessité de refaire
l'examen)
4. les techniques alternatives (tant qu'ils sont aussi efficaces et présentent moins de risque pour
la santé)
5. les recommandations concernant les critères de prescription
6. la présence d'une éventuelle grossesse (ou allaitement dans le cas de la médecine nucléaire)

Le principe d'optimisation signifie que pour les activités satisfaisantes au principe de justification,
il s'agit de réduire et à maintenir l'exposition au rayonnement à un niveau de dose aussi faible que
raisonnablement possible. Ce principe est parfois encore appelé principe ALARA (As Low As
Reasonnably Achievable).

En médecine, ce principe signifie: Une fois l'indication pour un examen radiologique posé, il faut
prendre toutes les mesures possibles (règles de bonne pratique) pour que l'information diagnostique
utile au patient soit acquise en maintenant l'exposition à un niveau aussi faible que possible, tant
pour le patient que pour le personnel. On parle du processus d'optimisation de la technologie
radiologique.

L'Union et le Ministère de la Santé ont établi des niveaux de référence diagnostiques pour les
examens les plus courants. Pour des patients de taille standard (70kg), ces niveaux de dose ne
doivent généralement pas être dépassés.

Le processus d'optimisation comporte:


• le choix de l'équipement
• la production régulière d'informations diagnostiques adéquates
• les aspects pratiques (règles de bonne pratique)
• l'assurance de qualité (y compris les contrôles réguliers des équipements et l'évaluation des
doses au patient).

La législation prévoit que certaines limites de dose ne doivent pas être dépassées. Les personnes
professionnellement exposées ne doivent pas êtres exposés à des doses de plus de 10 milli-Sievert
par année, tandis que les personnes du public ne doivent pas être exposés à des doses de plus de 1
milli-Sievert par année.
Toutefois, les limites de dose ne s'appliquent pas à l'exposition de patients dans le cas d'examens ou
de traitements médicaux, ni à l'exposition au rayonnement d'origine naturelle.

Protection des personnes professionnellement exposées

La radioprotection est un ensemble de mesures destinées à assurer la protection sanitaire de la


population et des travailleurs.

M1 Physique-Imagerie 2011/2012 31
Trois règles de protection contre toutes les sources de rayonnements sont :

• s’éloigner de la source de rayonnements, car leur intensité diminue avec la distance

• mettre un ou plusieurs écrans entre la source de rayonnements et les personnes (par exemple,
dans les industries nucléaires, de multiples écrans protègent les travailleurs. Ce sont des murs de
béton, des parois en plomb et des verres spéciaux chargés en plomb)

• diminuer au maximum la durée de l’exposition aux rayonnements.

Les personnes professionnellement exposées se protègent des rayonnements ionisants par les
méthodes de protection suivantes :
Ils veillent à
• une grande distance à la source de rayonnement
• un temps de manipulation aussi faible que possible
• utiliser des écrans protecteurs entre soi-même et la source de rayonnement (comme un écran
plombé, du verre de plomb, un tablier en plomb, ...)
• n'utiliser pas plus que l'activité demandée
• éviter une contamination avec une source radioactive

Ils portent un dosimètre afin de surveiller la dose reçue.

2) Le scanner
A) Les tomodensitomètres

Un scanner médical ou tomodensitomètre est un appareil d'imagerie à rayons X qui permet


l'étude de structures anatomiques à visée médicale.
La tomodensitométrie (TDM), dite aussi scanographie, tomographie axiale calculée par
ordinateur (TACO), CT-scan (CT = Computed Tomography), CAT-scan (CAT = Computer
Assisted Tomography), est une technique d'imagerie médicale qui consiste à mesurer l'absorption
des rayons X par les tissus puis, par traitement informatique, à numériser et enfin reconstruire des
images 2D ou 3D des structures anatomiques. Pour acquérir les données, on emploie la technique
d'analyse tomographique ou "par coupes", en soumettant le patient au balayage d'un faisceau de
rayon X.

Historique :

Le principe de la tomodensitométrie repose sur le théorème de Radon (1917) qui décrit


comment il est possible de reconstruire la géométrie bidimensionnelle d'un objet à partir d'une série
de projections mesurées tout autour de celui-ci. Cette méthode peut être étendue à la reconstruction
de la tomographie interne d'un objet à partir de la façon dont les rayons le traversant sont absorbés

M1 Physique-Imagerie 2011/2012 32
suivant leurs angles de pénétration. Toutefois, les calculs nécessaires à cette technique la rendaient

impraticable avant l'avènement des ordinateurs. L'ordinateur attribue à chaque pixel d'image une
valeur d'échelle de gris proportionnelle à l'absorption des rayons X par le volume corporel
correspondant. La densité mesurée en unités Hounsfield (UH) va de -1000 pour l'air à +1000 pour
l'os dense cortical, en passant par -50 pour la graisse et 0 pour l'eau.

Figure 1 :L'une des premières machines EMI

Le premier scanner à rayons X a été mis au point en 1972 par un ingénieur britannique travaillant
dans un laboratoire financé par EMI, Godfrey Newbold Hounsfield, d'après les travaux publiés
quelques années auparavant par un physicien américain, Allan MacLeod Cormack. Ces deux
savants ont ainsi obtenu le Prix Nobel de médecine en 1979 pour le « développement de la
tomographie axiale calculée ».
Les premiers prototypes de tomodensitomètre ne permettaient d'« imager » que le cerveau au
moyen d'une série de capteurs ou détecteurs disposés en arc de cercle autour de la tête. Pour réaliser
une seule image sur ces appareils, il fallait acquérir le signal pendant plusieurs minutes.
L'ordinateur auquel ils étaient couplés nécessitait deux heures et demie pour traiter chaque coupe ou
tomographie. Ces images tomodensitométriques du cerveau permirent de visualiser, pour la
première fois en imagerie, le tissu cérébral et les ventricules remplis de liquide céphalo-rachidien.
Les appareils suivants permirent ensuite de produire des images de toutes les parties du corps
humain. D'une matrice grossière de 80x80, on est passé rapidement à des pixels plus petits, jusqu'à
une résolution d'images de 512x512.

Description et utilisation du scanner :

Dans les appareils modernes, l'émetteur de rayons X (tube à rayons X) effectue une rotation
autour du patient en même temps que les récepteurs situés en face, et qui ont pour fonction de
mesurer l'intensité des rayons après qu'ils ont été partiellement absorbés durant leur passage à
travers le corps. Les données obtenues sont ensuite traitées par ordinateur, ce qui permet de
recomposer des vues en coupes bidimensionnelles puis des vues en trois dimensions des organes.
On peut faire ressortir le contraste de certains tissus, en particulier des vaisseaux sanguins, en
injectant un produit dit « de contraste » qui a la propriété de fortement absorber les rayons X et

M1 Physique-Imagerie 2011/2012 33
donc de rendre très visibles les tissus où ce produit est présent c'est-à-dire plus "blancs" sur l'image.

Grâce aux tomodensitomètres multidétecteurs (ou multi-barrettes) à acquisition spiralée


(déplacement lent de la table d'examen durant l'acquisition), on obtient depuis les années 1990 une
exploration très précise d'un large volume du corps humain pour un temps d'acquisition de quelques
secondes.

Les différentes générations de scanner :

Depuis la création des scanners on distingue 4 générations de scanner à savoir :


• Scanner à acquisition séquentielle
• Scanner spiralés
• Scanner multi-barrettes
• Scanner double tube

Les anciennes générations de scanners à acquisition séquentielle ne permettaient d'acquérir que


des coupes successives isolées : la table mobile sur laquelle le patient est étendu était déplacée de
quelques millimètres dans la structure circulaire ou anneau puis immobilisée pendant la mesure, et
ainsi de suite pour chaque niveau d'acquisition assimilé à une coupe transversale. Les anciennes
générations de tubes à rayons X avaient en outre une capacité d'évacuation de la chaleur trop faible
pour être compatible avec une cadence d'acquisition élevée.

Dans les scanners spiralés ou hélicoïdaux disponibles depuis les années 1990, l'émission des
rayons X est continue durant toute la séquence, la table d'examen progressant à vitesse constante et
fixée dans l'anneau. La réalisation de l'examen est beaucoup plus rapide, et plus confortable dans
beaucoup de cas et fournit une meilleure qualité d'images. La durée de révolution du tube émetteur
est passée de 1 seconde à 0,28 seconde sur les appareils de dernière génération. Les acquisitions
rapides ont permis le développement de l'angioscanner, technique non invasive d'exploration des
vaisseaux sanguins durant le court temps de transit vasculaire du produit de contraste après son
injection intraveineuse, supplantant l'angiographie invasive dans maintes indications à visée
diagnostique.

Le Scanner multi-barrettes associe, à la technique hélicoïdale, un nombre de capteurs plus


importants (de 2 barrettes ou rangées de détecteurs sur le premier modèle de 1993, jusqu'à 128
barrettes en 2008, permettant des coupes plus fines et l'accession à la reconstruction
tridimensionnelle de structures de taille réduite (artères coronaires ou osselets de l'oreille moyenne,
par exemple). La dose d'irradiation qui en résulte est néanmoins nettement supérieure aux premières
générations.

Le Scanner double tube est le premier scanner à double source mettant en œuvre une
technologie dans laquelle deux sources de rayons X disposées à angle droit l’une par rapport à
l’autre offre une vitesse d’acquisition (pitch 3,4) et une résolution temporelle (75ms) deux fois plus
élevée. Il est également possible d'utiliser les deux tubes simultanément à des énergies différentes
(double énergie), ce qui ouvre de nouveaux domaines d'utilisation, comme l'évaluation de la
composition des calculs rénaux, la réduction des artefacts métalliques ou bien encore la soustraction
automatique des os et du produit de contraste. Deux sources de RX placées à angle droit permettent
de diviser par deux la résolution temporelle. Cela entraîne une diminution du flou cinétique présent
sur les CT-scan à 64 barrettes de détecteurs et permet soit une acquisition deux fois plus rapide, soit
une acquisition avec une double dose de rayons X (patients obèses), soit une acquisition avec deux

M1 Physique-Imagerie 2011/2012 34
énergies différentes.

Figure 2 : Dernier cri dans la tomodensitométrie : le CT-scan à double source.

Réalisation et résultats de l'examen tomodensitométrique :

L'examen standard peut être fait dans toute circonstance, à condition que le patient puisse être
immobile sur la table une dizaine de secondes. Il n' y a pas de nécessité d'être à jeun sauf rares
explorations particulières. En cas de grossesse, la justification de l'examen et son rapport bénéfice
sur risque doivent être soigneusement évalués, du fait de la sensibilité particulière du fœtus à
l'irradiation, particulièrement en tout début de grossesse.

L'examen peut nécessiter une injection intraveineuse d'un produit de contraste iodé. On s'assure
que le patient a une fonction rénale correcte et qu'il n'existe pas d'antécédent personnel d'allergie à
un produit de contraste iodé.

Une voie veineuse est mise en place avant l'examen et le produit de contraste est injecté peu
avant l'acquisition. Au moment de l'injection du produit de contraste iodé , la majorité des patients
ressentent une sensation de chaleur au niveau de la gorge et du pelvis, qui dure environ 10 à 30
secondes et qui est liée à la vasodilatation provoquée par l'hyper-osmolarité du produit.

Durant l'acquisition, les images sont visualisées sur une console informatique par le médecin
radiologue. Simultanément, il reçoit sur sa console de visualisation et de traitement l'ensemble des
données acquises (de 150 à plus de 2000 images).

Ces images se présentent sous la forme de "coupes" ou tranches d'épaisseur millimétrique (de
0,4 mm à 10 mm) que le radiologue peut étudier et traiter dans tous les plans de l'espace
(augmentation de l'épaisseur des coupes visualisées, mise en valeur de certaines densités,
reconstructions volumiques en 3D, extraction des vaisseaux ou des structures osseuses, navigation
virtuelle endoscopique, etc.).

M1 Physique-Imagerie 2011/2012 35
Figure 3 :Images obtenues après traitement des données

Les images sont transmises au correspondant soit sous forme de films radiologiques ou
imprimées sur papier, soit sous format numérique, c'est-à-dire sous forme de fichiers informatiques
gravés sur un support CDROM; le format d'image couramment utilisé est le format "médical"
DICOM nécessitant un logiciel de visualisation, mais parfois les images sont converties au format
JPEG pour permettre la visualisation sommaire sur tout ordinateur.
RISQUES, PRÉCAUTIONS ET SOLUTIONS

L'irradiation de la population par les rayons X utilisés en imagerie médicale a été multipliée par
six aux États-Unis en moins de 25 ans, la moitié des doses administrées étant imputée aux
tomodensitomètres. En France, elle a augmenté de 50 % entre 2002 et 2007 .

L'augmentation de ces doses s'explique principalement par :


• Le changement de nature des actes (augmentation du nombre de scanners thoraciques qui
sont les plus irradiants).
• L'augmentation des doses pour obtenir une image plus contrastée.
• La banalisation de l'acte de radiodiagnostic.

La tomodensitométrie est un examen en théorie anodin. Il existe néanmoins quelques rares contre-
indications liés à l'injection éventuelle de produit de contraste iodé : insuffisance rénale, contre-
indication médicamenteuse (notamment les médicaments anti-diabetique de type II comme la
metformine), allergie avérée à un ou plusieurs produits de contraste iodés, l'allaitement et bien
évidemment en cas de grossesse .

→ Risques

Comme pour toute radiographie, l'exposition répétée aux rayons X peut être nocive pour
l'organisme, mais le rapport bénéfice/risque lié à l'irradiation penche largement en faveur de la

M1 Physique-Imagerie 2011/2012 36
tomodensitométrie, lorsque la demande d'examen est justifiée, ce qui en fait une technique
d'imagerie médicale de plus en plus pratiquée.

Le risque est celui d'une allergie au produit de contraste allant de la simple réaction cutanée
(urticaire) au choc anaphylactique engageant le pronostic vital.

Les produits de contraste iodés étant néphro-toxiques, il existe également une possible
aggravation d'une insuffisance rénale préexistante. Les risques sont majorés en cas de diabète et de
défaut d'hydratation.

→ Précautions et solutions

La prévention raisonnable est de proscrire définitivement l'administration du produit de contraste


qui provoque chez le patient une réaction adverse de type allergique ; soit de réaliser l'examen sans
produit de contraste, soit de le remplacer par une autre technique. En pratique, on recommande de
faire pratiquer des tests d'allergie par un allergologue, qui testera tous les produits de contrastes
disponibles sur le marché et indiquera dans ses conclusions s'il apparaît que le patient réagit
anormalement ou non à telle ou telle préparation. Le médecin radiologue évaluera le rapport
bénéfice/risque, sachant qu'une allergie peut apparaître ultérieurement à un produit jusqu'alors jugé
sans risque.

De plus, pour éviter une possible insuffisance rénale, le patient diabétique traité par des
médicaments à base de metformine ou biguanides doit interrompre ce traitement anti-diabétique
oral durant les 48 heures suivant l'administration de produit de contraste iodé, et le reprendre après
vérification de l'absence d'apparition d'une insuffisance rénale. Il est recommandé pour tout patient,
sauf contre-indication particulière, de bien s'hydrater par voie orale les heures précédant et la
journée suivant l'examen.

Les jeunes enfants, avant quatre ans, ont souvent du mal à conserver l'immobilité et nécessitent
une prémédication sédative ou une contention dans un matelas adapté.
Chez les patients anxieux, très agités ou non coopératifs, une prémédication anxiolytique ou
sédative voire une brève anesthésie, permettent la réalisation de l'examen.
Durant la grossesse, il faut éviter de principe l'exploration du pelvis ou l'utilisation de produit de
contraste iodé mais le rapport bénéfice/risque doit être apprécié au cas par cas.
L'imagerie par résonance magnétique(IRM), technique non irradiante utilisant les champs
magnétiques, représente une solution de remplacement ou un complément pour certaines
applications ; mais notons bien que cette technique ne pourrait en aucun cas remplacer l'imagerie
scanographique.

Autres usages et solutions :

La tomographie peut être utilisée pour examiner des objets anciens, le contenu à risque de
contenants fermés, ou encore l'intérieur de morceaux d'arbres8 pour y observer les structures
internes et épicormiques.

M1 Physique-Imagerie 2011/2012 37
B) Formation d'une image tomodensitométrique

abdomen ORL poumons

Dans cette partie, nous essaierons de comprendre comment créer une coupe en tomodensitométrie.
Cela fera appel à des théories mathématiques assez complexes : Radon, Fourier, itérations....

Théorie de Radon :

En 1917, le mathématicien autrichien Johann Radon développa une théorie sur laquelle repose les
fondements de la tomodensitométrie.
Cette théorie établit la possibilité de reconstituer un objet au moyen de ses projections. On ne peut
pas disposer de toutes les projections, c'est pourquoi pour palier ce déficit, on va prendre par
exemple une projection par degré.

La transformée de Radon s'écrit de la manière suivante :


+∞ +∞
p φ (x ' )=∫−∞ ∫−∞ f ( x , y )δ( xcos(φ)+ ysin(φ)−x ')dx dy

Exploitation de cette théorie :

-En 1963, après avoir remplacé les films radiologiques par des cristaux sensibles et en s'appuyant
sur la théorie de Radon, le physicien Cormack mesure grâce aux progrès de l'informatique, de
faibles différences de densités et propose une théorie de reconstruction par ordinateur.

-Parallèlement en 1968, l'anglais Hounsfield va orienter ses recherches sur la reconnaissance des
formes géométriques par ordinateur. Il va ainsi permettre de diviser un volume en un grand nombre
de petits cubes. Il obtient une valeur moyenne d'absorption des rayons X pour chacun de ces petits
cubes. En 1971, on obtient ainsi le premier prototype (EMI-scanner) qui permet en 1972 les
premières images en coupe du cerveau.

-En 1979, pour leurs travaux effectués, Cormack et Hounsfield ont reçu le prix Nobel de médecine.

Comment obtenir une coupe tomodensitométrique ?

En effet la théorie de Radon permet de reconstituer un objet au moyen d'un nombre élevé de
projections.
Nous avons en réalité une « matrice image » vide de toutes valeurs numériques. Il va donc falloir

M1 Physique-Imagerie 2011/2012 38
trouver un moyen de la remplir numériquement à partir des différentes projections.

Il existe à l'heure actuelle deux type de méthode : méthode algébrique dite d'itérations et méthode
analytique dite rétroprojection par transformée de Fourier.

→ méthode itérative : il s'applique facilement au problème matriciel, car en fait il suffit de


poser une solution première afin de la comparer avec les données du
problème (projections) puis d'effectuer les corrections nécessaires jusqu'à
obtention de la solution définitive. Cependant, c'est une méthode qui devient
beaucoup plus complexe pour une matrice contenant un nombre élevé
d'éléments. Ceci étant dit, on applique ce n'est pas une méthode ridicule car
celle-ci est utilisée pour reconstruire les images en TEP. Dans le cadre de la
tomodensitométrie, on privilégiera la méthode de rétroprojection par
transformée de Fourier.

→ rétroprojection par transformée de fourier

-simple : reconstruction d'une coupe en passant par le domaine fréquentiel, car en effet tout
signal peut se décomposer en une infinité de fonctions trigonométriques (Fourier).
On utilise le profil d'atténuation du faisceau de rayons X à la sortie du patient pour

M1 Physique-Imagerie 2011/2012 39
récupérer cette décomposition dans le domaine fréquentiel. Or, en TDM les profils
d'atténuation acquis sur 360° doivent être classés degré par degré dans un même
domaine fréquentiel. Ainsi, une fois le plan de Fourier « rempli », on applique la
transformée de Fourier inverse pour retourner dans le domaine spatial. On obtient
ainsi une image grâce à cette méthode qui se trouve être bien plus rapide que la
méthode itérative.

-filtrée : seulement une rétroprojection simple ne suffit pas pour obtenir une image d'une qualité
optimale. Il faut établir un filtrage dans le domaine de Fourier. Le problème majeur
avec la rétroprojection simple vient du fait que nous n'obtenons pas le niveau de
netteté de l'objet de référence, les contours par exemple apparaissent voilés. En effet,
cela vient du fait que l'ensemble des projections se superposent et on obtient un voile
en forme d'étoile autour de l'objet qui se trouve être beaucoup plus marqué lorsque le
nombre de projection est faible. Or, on sait que les basses fréquences correspondant
au contraste de l'image se trouvent dans la partie centrale du plan tandis que les
hautes fréquences responsables des détails se situent en périphérie. Il suffit donc

d'amplifier à l'aide d'un filtre les fréquences périphériques. C'est une méthode
relativement simple car informatiquement dans le domaine de Fourier il s'agit juste
d'une simple opération de multiplication. Ces filtres appliqués en TDM sont dits de
« rampe atténuée » (produit d'un filtre de rampe ; une droite, par un filtre lissant ;
passe-bas).

-adaptation du filtrage aux différents tissus : grâce à la technique précédente, on obtient des
images scanographiques non « voilées ». Cependant, en TDM certaines structures
demandent une résolution spatiale encore plus marquée (tissus osseux) alors que les
autres tissus (tissus mous) demandent une augmentation de la résolution en contraste.
C'est pourquoi il faut trouver un juste compromis afin d'adapter le filtrage du tissu
étudié. Pour privilégier la résolution spatiale, on utilise des filtres « durs » pour
l'étude des structures fines qui amplifient légèrement les hautes fréquences. A
l'inverse, pour privilégier la résolution en contraste, on utilise des filtres « mous »
pour l'étude des parties molles qui augmentent la proportion des basses fréquences
dans l'image finale.

M1 Physique-Imagerie 2011/2012 40
C) Artefacts en TDM

Les artefacts peuvent être définis comme étant des effets artificiels qui viennent nuire à la qualité et
à la fidélité de l'image. En TDM, les artefacts sont nombreux et peuvent masquer certaines
pathologies ou même créer de fausses images. Il faut donc les reconnaître et connaître les moyens
de diminuer leur apparition.

Artefacts de mouvement :

-Ils sont dus aux mouvements du patient : agitation, respiration, battements cardiaques,
tremblements.
-Ils s'expriment sur l'image par un dédoublement des contours des structures.
-Pour réduire les artefacts il faut :
→ coopération du patient
→ confort du patient
→ apnée
→ utilisation de pitchs élevés (distance parcourue par le lit en rotation/collimation)
→ synchronisation cardiaque et/ou respiratoire

M1 Physique-Imagerie 2011/2012 41
Flou géométrique :

-Il s'agit d'une « pénombre » due à la taille du foyer. Ainsi, plus le foyer est petit et plus le flou
géométrique baisse.
-Cependant, il est difficile de créer des foyer de petite taille pouvant générer des intensités élevés
pendant une longue durée.
-Il faut une collimation secondaire pour réduire ce flou géométrique.
-En pratique, lorsque l'on étudie les structures osseuses en haute résolution, on utilise des foyers
fins.

Artefacts de cibles :

-Ils vont se manifester sous forme de cercles d'intensité variable centrés sur l'axe de rotation.
-On permet énormément d'information au niveau des projections.
-Cela provient :
→ d'un capteur défectueux
→ d'un mauvais centrage du faisceau X sur les détecteurs

-Pour diminuer ces artefacts il faut recalibrer le couple tube-détecteurs

Artefacts de durcissement de faisceau :

-Ils apparaissent lorsque les rayons X rencontrent des transitions trop brusques d'épaisseur et de
densité.
-Ils se distinguent par des zones de densité inférieure à la normale (zone hypodense ou « barre de
Hounsfield ») au niveau de ces transitions.
-Les zones les plus touchées sont en général : la ceinture scapulaire (pectorale) et la base du crâne.
-Pour atténuer ces artefacts, on peut : utiliser un filtre papillon (pour compenser les différences de
densité), augmenter l'énergie des rayons X au niveau des zones denses.

M1 Physique-Imagerie 2011/2012 42
Artefacts métalliques :

-Il rejoigne les artefacts de durcissement de faisceau, sauf que cette fois-ci cela se traduit par la
présence d'un élément métallique dans le volume que l'on explore.
-Il faut ainsi veiller en pratique à ôter toutes les structures métalliques qui peuvent être présentes
dans le volume étudié (appareils dentaires, bijoux, piercing, bouton-pression, câbles/connecteurs...)

Effet de volume partiel :

-Cela se produit lorsque des structures de densité différente se situent dans l'épaisseur d'un même
voxel (pixel en 3D). L'intensité du pixel va correspondre à une moyenne de la densité des structures
du voxel.
-On peut diminuer cet artefact en utilisant des coupes fines et des incréments faibles.
-En effet, le mode d'action spiralé a permis de réduire très nettement ces artefacts.
-Pour comprendre l'origine de l'effet de volume partiel, il faut parfaitement maîtriser l'anatomie.

Artefacts de débordement de champ :

-On remarque des zones hyperdenses en bordure de coupe qui apparaissent lorsque le corps du
patient sort du champ de mesure.
-Afin de les éviter, il faut adapter le champ de mesure à la corpulence du patient.
-On rencontre parfois des difficultés pour les patient de forte corpulence mais les nouveaux
appareils possèdent des algorithmes informatiques permettant de corriger ces hyperintensités.

Artefacts propres au mode spiralé :

-Le problème de l'utilisation du mode spiralé peut parfois provoquer des artefacts spécifiques.
-Ils apparaissent sous la forme de variations d'intensités aux alentours de structures denses.
-Cela peut se produite lorsque :
→ le pitch est élevé
→ l'interpolation n'est pas optimale

M1 Physique-Imagerie 2011/2012 43
Artefacts pour les nouveaux appareils multicoupes volumiques :

-La conicité du faisceau X utilisée pour les scanners multicoupes provoque un artefact dit en
« moulin à vent ».
-Il est lié donc à cette conicité (multibarrettes) et à la muse en place d'un pitch élevé.
-Il se forme sous forme de « pales » qui, lorqu'on fait défiler les coupes, donnent l'impression de
tourner autour d'un axe matérialisé par une structure de densité élevée.
-On peut réduire ces artefacts en diminuant le nombre de pitch.

D) Doses en scanographie

Depuis l'arrêté du 24 mars 2003, la traçabilité des doses délivrées lors des examens scanographiques
est obligatoire.
Le médecin qui réalise l'acte indique sur un compte-rendu les informations au vu desquelles il a
estimé l'acte justifié, les procédures, les opérations réalisées et enfin toutes les informations relative
à l'estimation de la dose reçue par le patient.
Le couple radiologue-manipulateur doit chercher à optimiser les différents protocoles afin de rendre
la dose la plus faible que possible surtout pour les jeunes patients et les femmes enceintes.
Un indicateur de dose délivré est présent sur les consoles d'acquisition.

Comment estimer la dose délivrée :

→ Index de dose scanographique pondéré (IDSP) : grandeur qui exprime la dose reçue par
le patient nécessaire à l'obtention de chaque coupe. Cela prend en compte la partie
utile du rayonnement et la pénombre de part et d'autre de la coupe qui ne participe
pas à l'image mais qui fait partie de la dose reçue par le patient. L'IDSP s'exprime en
milligrays (mGy). Il existe aussi une variante de l'IDSP : l'IDSP volumique (IDSV).
Cette valeur tient compte du pitch. Ainsi, IDSV=IDSP/pitch ; cela correspond à la
dose moyenne multicoupes.

→ Produit dose longueur (PDL) : le PDL rend compte de la dose délivrée au patient au
cours d'un examen tomodensitométrique. Ceci est égal au produit de l'IDSV par la
longueur de volume irradiée : PDL(mGy.cm)= IDSV(mGy) * L(cm).
On peut aussi estimer la dose efficace en tenant compte des organe présents dans le
volume étudié. On parle alors de PDL régional :
PDL(régional)=PDL (mGy.cm) * E(PDL)

Comment optimiser la dose en scanographie :

→ paramètres accessibles par l'opérateur

-charge : c'est le produit de l'intensité du courant appliquée à la cathode par le temps


d'application de ce courant (mAs). Cela exprime la quantité de rayons X émis ;
l'irradiation au patient. Une diminution de la charge entraîne une réduction de la dose
délivrée mais diminue aussi le rapport signal sur bruit de l'image. On ne régule plus
vraiment ce paramètre car aujourd'hui les appareils assure un rapport SNR constant

M1 Physique-Imagerie 2011/2012 44
quelque soit le pitch utilisé.

-tension : augmenter la tension (kV) augmente le débit de photons et la pénétration des rayons
X (énergie). Cela va donc impacter sur la dose délivrée au patient et donc sur le SNR.
Il faut donc avoir des protocoles d'exploration à tension réduite pour les enfants et les
personnes de faible corpulence. Actuellement il est tout de même plus facile de jouer
sur une régulation de la tension que de jouer sur la charge.

-collimation : en TDM monocoupe, la diminution d'épaisseur de coupe augmente la dose


délivrée au volume étudié en raison de l'augmentation de la pénombre. Cela est aussi
vrai pour la TDM multicoupes. Le faisceau primaire est plus large que la zone
couverte par les barrettes afin d'exposer aux extrémités à la même quantité de
rayonnement que les barrettes centrales. La pénombre étant constante, on remarque
que son importance augmente quand le nombre de barrettes
diminue.

-épaisseur de reconstruction utile : il faut faire la différence entre l'épaisseur des coupes
d'acquisition et l'épaisseur des coupes reconstruites. Sachant que le bruit est
inversement proportionnel à l'épaisseur de coupe de reconstruction, celle-ci sera
choisie en fonction du tissu à étudier et du rapport SNR nécessaire à l'analyse de
l'image. Pour un volume donné, plus on « dépose » de dose, et plus il est possible de
reconstruire des coupes fines de bonne qualité (débruitées). Tout ceci réside donc
dans le choix de l'épaisseur de coupe à reconstruire.

-pitch : il faut savoir que le pitch n'influence que la rapidité à laquelle on souhaite délivrer la
dose au volume. Pitch grand : dose délivrée rapidement avec une bonne résolution
temporelle. Pitch petit : dose délivrée de manière plus lente avec des profils de coupe
de meilleure qualité.

M1 Physique-Imagerie 2011/2012 45
→ éléments technologiques de réduction de dose

-filtre papillon : ce dernier est disposé à la sortie du tube. Plus mince au centre que sur les
bords, il permet d'adapter le rayonnement à l'anatomie en laissant passer plus de
rayons au centre du corps qu'en périphérie. Ainsi, on homogénéise le dépôt de dose
dans le corps du patient.

-collimateurs de champs : ils limitent l'irradiation dans le plan déterminé par les axes x et y au
plan choisi au lieu d'irradier tout le volume. Ils réduisent l'excès de pénombre (flou
géométrique) inutile à la formation de l'image aussi bien dans le plan de coupe que
dans l'axe z.

→ logiciels d'optimisation et de réduction de dose

-modulation intracoupe : on peut modifier l'intensité des rayons X en fonction de la position


angulaire du tube à chaque rotation. Or, la plupart des corps sont plus larges qu'épais,
ainsi l'émission des photons X sera calculée pour être plus importante à 90° et 270°
qu'à 0° et 180°. Mais, certains appareils peuvent moduler l'intensité en fonction de
l'absorption mesurée en cours de rotation. On mesure dans ce cas l'absorption du
patient pour la coupe en jeu sur la première partie en rotation (0 à 180°) et l'appareil
module la charge sur la seconde partie (180 à 360°) en fonction des données de la
demi-rotation.

M1 Physique-Imagerie 2011/2012 46
-modulation sur l'axe z : il y a également une possibilité de modulation de l'intensité en
fonction de la position du tube sur l'axe z. Toutes ces options logiciels ont des noms
différents en fonction des constructeurs et permettent de réduire la dose de 20 à 40%.
Il faut souligner que ces outils ne permettent pas à l'opérateur de réduire
manuellement la charge car celle-ci est optimisée par l'appareil.

Que faire dans la pratique ?

→ paramètres modifiables : la charge est calculée automatiquement par le scanner en


fonction du SNR par épaisseur de coupe souhaitée et du type de tissu étudié. Pour
adapter ensuite la dose en fonction de l'épaisseur du patient, on modifie la tension.
Une diminution de 20% de la tension réduit la dose de 50% environ. On veille à cela
tout particulièrement pour les enfants et pour les patients pesant moins de 50kg. Le
paramètre de la tension à l'avantage de pouvoir être modifié à tout moment par

l'utilisateur, ce qui n'est pas le cas de la charge. Etant donné le développement des
options logiciels, le pitch n'est quasiment plus accessible par l'opérateur. A savoir que
ce dernier n'a pas une incidence directe sur l'irradiation volumique. Ainsi la
collimation et l'épaisseur de reconstruction utile ne sont pas donc pas accessibles.

→ respect du consensus ALARA : afin de réduire efficacement la dose actuelle, il faut


limiter les acquisitions (responsabilité médicale) et aussi ne pas en rater
(responsabilité du technicien). Aujourd'hui, avec les scanners multibarrettes le facteur
« temps d'examen » ne limite plus les explorations. De plus, il est recommandé de
réaliser des protocoles individualisés adaptés au patient et au diagnostic recherché.
Afin de réguler les pratiques radiologiques, les organismes européens et nationaux de
radioprotection ont établi des « guides de bonnes pratiques » ainsi que des niveaux

M1 Physique-Imagerie 2011/2012 47
de références diagnostiques à ne pas dépasser. Ces normes sont réactualisées
régulièrement par la Société Française de radiologie en France par exemple.
L'ensemble de ces pratiques doivent respecter le consensus ALARA (as low as
reasonably achievable) pour pouvoir agir de manière responsable, consensuelle et
équitable dans un contexte d'incertitude face au risque radiologique. Le but de cette
démarche est de promouvoir aux professionnels de santé et aux patients une réelle
culture de qualité et de radioprotection.

M1 Physique-Imagerie 2011/2012 48
III/ Le traitement d'image
1) La numérisation en imagerie médicale
En 1895, le physicien allemand Wilhelm Röntgen alors âgé de 50 ans étudie le rayonnement
cathodique avec des tubes de Crookes.

L’usage des rayons X pour réaliser des images médicales se répand dans le monde entier dès 1896.
En 1897, la France se dote du premier laboratoire de radiologie grâce au docteur Béclère qui met en
place, à ses frais, une installation radioscopique dans son service de médecine générale à l’hôpital
Tenon.

-1950-1970: Image Rayons X, amélioration de la qualité des images pour l'affichage

-1970-1980: Extraction automatique d'informations, seuillage, segmentation, extraction de contours morphologie


mathématique.

MAIS Problèmes de modélisation! Puissance de calcul insuffisante

-1980-: Image 2D --> modèle 3D, analyse du mouvement, application: Robotique et guidage de véhicule, vision
active, respectives: -Acquisition, -Analyse et interprétation de l'information image.

Principe de la production d'image par le rayon X:

A partir de la mesure du coefficient d'atténuation du faisceau de rayons X dans le volume étudié. La


tomodensitométrie a connu un essor considérable, justifié par son intérêt diagnostique et

M1 Physique-Imagerie 2011/2012 49
l'amélioration continue de ses performances techniques. Elle représente l'une des applications les
plus réussies et les plus fécondes de l'application de l'informatique à la médecine et à l'imagerie
médicale.

La tomodensitométrie repose sur deux principes fondamentaux :

1° On peut mesurer la densité de tissus traversés par un faisceau de RX à partir du calcul du


coefficient d'atténuation (Figure 1.0).

Si le faisceau de RX, à la sortie du tube, est rendu monochromatique ou quasi-monochromatique


par une filtration appropriée, on peut calculer le coefficient d'atténuation correspondant au volume
de tissu irradié, par application de la formule générale d'absorption des rayons X dans la matière.

I = I0 ⋅ e− µ x

I : intensité du faisceau de RX après traversée d'une épaisseur x de matière,


Io : intensité initiale du faisceau de RX,
x : épaisseur de matériau traversé
µ : coefficient d'absorption linéaire du matériau traversé (exprimé en cm-1)

On obtient : µ = ln ( Ix I 0 )

Hounsfield a choisi une échelle qui affecte aux quatre densités fondamentales les valeurs suivantes :

Air = -1000

Graisse = - 60 à - 120

Eau= 0

Os = + 1000.

Ainsi, on définit l'indice Hounsfield (IH) par la formule mathématique suivante :


µ − µ eau
IH = × 1000
µ eau

M1 Physique-Imagerie 2011/2012 50
L'image de la coupe d'un objet irradié par un faisceau fin de RX, est reconstituée à partir d'un grand
nombre de mesures du coefficient d'atténuation, effectuées selon diverses incidences. On recueille
ainsi toutes les données, qui proviennent des volumes élémentaires de matière, grâce aux détecteurs.
A l'aide d'un calculateur, on attribue aux surfaces élémentaires de l'image reconstruite à partir des
données projetées sur une matrice de reconstruction, une tonalité plus ou moins importante en
fonction des coefficients d'atténuation. Le scanner X, étudie l'atténuation d'un faisceau de rayons X,
au cours de la traversée d'un segment du corps. Toutefois, plusieurs éléments le différencient de la
radiologie classique :

- L'étude de l'atténuation se fait sur un faisceau de rayons X étroit, défini par une collimation portant
à la fois sur le faisceau et le détecteur de rayons X.

- Les détecteurs étaient faits de cristaux à scintillation ou de chambres d'ionisation permettant de


quantifier l'atténuation du faisceau de RX.

Actuellement, les détecteurs à semi-conducteurs ont pris le dessus dans la technologie des
détecteurs des scanners hélicoïdaux, donnant une bien meilleure réponse :
- Plus de 90% de l'information est restituée pour des détecteurs à semi-conducteurs
- Et un rendement de 50 à 90 % pour les détecteurs à gaz (chambre d'ionisation au Xe).

Quelque soit le détecteur, la sensibilité est considérablement plus grande que celle des films
radiologiques. L'ensemble générateur et détecteurs de rayons X est solidarisé par un montage
mécanique rigide qui définit un plan de détection. L'objet à étudier est placé dans le faisceau, le
dispositif fournit une mesure de l'atténuation du rayonnement dans ce plan. A l'aide des détecteurs,
on obtient une série de mesures de l'atténuation résultant de la traversée d'une tranche du corps. Une
seule de ces projections ne suffit pas à reconstituer la structure de la coupe. Un mouvement de
rotation de l'ensemble autour du grand axe de l'objet examiné, permet alors d'enregistrer des profils
résultants de la traversée de la même coupe suivant différentes directions. L'utilisation de méthodes
mathématiques complexes nécessitant l'emploi d'ordinateurs conduit, par « rétro projection » des
différents profils, à construire l'image de la distribution des coefficients d'atténuation au niveau de
la section examinée.

La matrice des scanographes récents varie entre 320*320 et 512*512, ce qui représente un grand
nombre de mesures et une bonne définition de l'image scanographique (le pixel est la surface de la
base du voxel, qui est très inférieur à 1 mm², ses côtés mesurent 0.2 mm avec les matrices
512*512). Quant à l'épaisseur de coupe, hauteur du voxel, elle varie actuellement entre 1 et 10 mm
selon les appareils et les régions à explorer.

M1 Physique-Imagerie 2011/2012 51
En fonction des chiffres périphériques d'absorption (Figure 1.3. a), l'ordinateur calcule les
différentes densités rencontrées par le rayonnement dans chaque unité de volume (Voxel), la
projection étant le pixel, (Figure 1.3. b).

Différentes générations d'appareils :

Plusieurs variétés de géométrie de scanner ont été produites, pour acquérir les données de
transmission des rayons X nécessaires à la reconstruction de l'image en CT. Certaines géométries
ont été nommées « génération » de CT scanner et ce label est très pratique dans la différentiation
des modèles de scanner. Il existe 4 générations de modèles de scanner :

M1 Physique-Imagerie 2011/2012 52
- 1ère et 2ème Génération : Translation, rotation du tube et des détecteurs autour de l'objet étudié
(La première génération ne comportait que 2 détecteurs séparés permettant d'obtenir 2 coupes
simultanément avec un temps d'acquisition de plusieurs minutes). C'était la technique initialement
utilisée, où le tube de rayons X était solidaire avec les détecteurs (Figure 1.4).

Le mouvement des scanners de géométrie de deuxième génération est décrit sur la figure 1.4. Une
rotation d'angle q de l'ensemble est égale à l'angle d'ouverture du mince faisceau de rayons X, suivie
d'une translation linéaire de la source et de la barrette de détecteurs en travers de l'objet étudié. Le
nombre de translations-rotations est égal à 180°/q. Le filtre compensateur tourne mais ne translate
pas avec la source et les détecteurs. Par exemple, si l'angle d'ouverture du faisceau est de 10° et
combiné à un nombre suffisant de détecteur pour absorber les rayons X émergents, seules 18
translations-rotations sont nécessaires pour obtenir des données adéquates pour la reconstruction de
l'image. Les derniers scanners de 2ieme génération ont des temps d'acquisition de 10 à 20 secondes.
Le handicap de la 2ieme génération est du au fait qu'il a un temps d'acquisition très long et est plus
utilisé pour l'imagerie des parties du corps que pour celle de la tête.

- 3ème Génération (plus nombreux actuellement) : Le tube et les détecteurs effectuent un


mouvement de rotation autour de l'objet. Du fait que cette technologie possède une couronne de
détecteurs face au tube de RX, elle permet d'obtenir la coupe en une dizaines de secondes (Figure
1.5).

M1 Physique-Imagerie 2011/2012 53
C'est un système à rotation unique (géométrie à Rotation-Rotation), la figure 1.5 montre ce modèle
de scanner avec un faisceau de rayons X ouvert, englobant entièrement le corps du patient pendant
l'intervalle d'acquisition, pour limiter les artefacts. Le faisceau de rayons X est absorbé par la rangée
de détecteurs en arc de cercle et en rotation avec lui. Les anciennes machines de 3ieme génération
avaient à peu près 300 détecteurs mais actuellement on dépasse les 1000 détecteurs avec une
ouverture angulaire de l'ordre de 50° sur les scanners Philips.

Dans cette configuration, les détecteurs voient la source de rayons X toujours sous la même
incidence à travers l'objet. Une grille concentre le faisceau de RX en sortie du patient pour réduire
le rayonnement diffusé dans les détecteurs, qui ne peuvent pas être calibrés pendant l'examen et
doivent avoir une grande sensibilité, ce qui explique le lent développement des machines de 3ieme
génération.

En comparaison avec la seconde génération, la troisième génération réduit le temps d'acquisition


par un facteur deux. Les temps d'acquisition des machines de troisième génération sont de l'ordre de
la seconde et même sub-seconde (ex : scan Time de 0.7 s). Pour optimiser l'acquisition et augmenter
la résolution spatiale, seulement ¼ des détecteurs de chaque côté du détecteur central est utilisé.

- 4ème Génération : La couronne de détecteurs est fixe et seul le tube tourne autour de l'objet.
(Figure 1.6)

Le mouvement des scanners de la quatrième génération est représenté en figure 1.6. Seul le tube de
rayons X tourne autour de l'objet examiné et il est plus près de l'objet que les détecteurs lors sa
rotation. Cette génération est aussi appelée, scanner à géométrie courte car l'ouverture du faisceau
est beaucoup plus importante pour couvrir tout l'objet examiné. Le nombre de profils obtenu est
limité par le nombre de détecteurs entourant le patient. Dans ce système de détection, une partie du
faisceau est utilisée pour calibrer les détecteurs, l'autre pour la formation de l'image. Du fait que le
tube est plus près de l'objet, la résolution spatiale est relativement dégradée. 2000 à 4800 détecteurs

M1 Physique-Imagerie 2011/2012 54
sont nécessaires pour disposer d'un appareil possédant de bonnes performances.

Un appareil de tomodensitométrie à rayons X comporte : Un système d'acquisition des données, Un


système de traitement du signal , Un système de visualisation , Un système de commande de
l'ensemble .

Acquisition des données :

L'acquisition des données se fait grâce à un tube à rayons X couplé à un ensemble de détecteurs,
disposés en arc de cercle ou en éventail (fan Beam). L'ensemble tube/détecteurs est solidaire et
animé d'un mouvement synchrone, circulaire, dans le même sens, selon un plan perpendiculaire à
l'objet examiné. Pendant l'acquisition, les séquences suivantes s'opèrent :

- Réalisation d'un profil de densité


Le faisceau émis par le tube à RX, irradie plusieurs détecteurs et permet de faire de multiples
mesures de densité sur différents axes. On obtient ainsi un « profil de densité » selon un angle de
projection a (Figure 2.2).

- Modélisation du faisceau par rotation.


Lorsque le faisceau de RX tourne autour de l'objet, on obtient une grande quantité de projections et
de mesures, dans le plan de référence avec différents angles de projections de a (voir figure 2.2). Le
nombre de projections effectué, dépend de la géométrie du système et en particulier de la largeur du
faisceau. Pour chaque valeur angulaire a, on obtient un profil de densité. La sommation de tous ces
profils de densité obtenus pour ces différentes valeurs angulaires, s'appelle un « sinogramme »
(Figure 2.3).

M1 Physique-Imagerie 2011/2012 55
Traitement du signal :

Le rayonnement X reçu par les détecteurs, est transformé en courant électrique. Cette conversion
aboutit à un signal qui va être amplifié et numérisé. La numérisation consiste à transformer le signal
de type analogique en données chiffrées qu'un ordinateur peut classer, stocker dans une matrice de
reconstruction et traiter ensuite. Le traitement proprement dit du signal, comporte en fait une
reconstruction de l'image à partir des données recueillies par le système d'acquisition. On sait,
depuis les travaux des mathématiciens, reconstituer un objet à partir de ses projections sur un plan
de référence. On effectue pour cela deux opérations :

1. Une « Rétro-projection » ou épandage : c'est le temps de reconstruction, consistant à projeter les


valeurs numériques obtenues sur le plan image, en leur attribuant des cordonnées spatiales
correspondantes à celles qu'elles avaient dans le plan de coupe examiné.

2. Une « déconvolution » ou filtrage : améliore la qualité d'image de l'objet reconstruit, pour le


rapprocher du modèle initial. Ces opérations mathématiques nécessitent des moyens de calcul
puissants qui ne peuvent être obtenus que par des ordinateurs. La reconstruction proprement dite
s'effectue par une méthode algébrique (calcul matriciel) ou plus couramment par la méthode de la
transformée de Radon ou de Fourier.

Méthode de la transformée de Radon

La mesure de l'intensité du faisceau de rayons X, dépend de l'atténuation le long de l'axe de


propagation et est indépendante des changements spectraux. Elle est donc donnée par la formule
suivante :
Equation 1 I (t , θ ) = I 0 e − ∫ µ ( x , y ) dy '

Io est l'intensité du faisceau sans l'objet, y' est la distance sur l'axe du faisceau.
En linéarisant l'équation 1 ci-dessus, on obtient les données suivantes :

I0
Equation 2 P (t ,θ ) = ln
I (t , θ )
= ∫ µ ( x, y)dy '

Pour un objet µ(x,y) vu sous un angle q, par un faisceau étroit de RX, selon la direction x' à la
distance t de l'axe Ox', direction de propagation du faisceau, t est exprimé par : t = x cosq + y sinq .

La deuxième équation est résolue pour déterminer la fonction µ(x,y), sa résolution se fait
analytiquement en utilisant sur les machines CT la rétro projection filtrée. La transformée de Radon
a permis en 1917 de résoudre ce genre d'équation. Actuellement, on utilise des méthodes de
convolution pour retrouver µ(x,y). La reconstruction s'effectue en deux temps :

Une première convolution des projections avec un Kernel g

Une rétro projection pour obtenir l'image. On a donc l'équation de convolution de g par P(t, q) :
+∞
Equation 3 P (t ,θ ) = ∫ g (t − t ) P(t ,θ )dt
−∞

M1 Physique-Imagerie 2011/2012 56
est rétro-projeté pour obtenir la distribution spatiale des coefficients linéaires d'atténuations µ(x,y).
Avec t=xcosθ+ysinθ

Méthode de la transformée de Fourier

L'idée est une reconstruction 2D de la transformée de Fourrier de l'image sous forme de projection,
suivie d'un filtrage et de la transformée inverse pour obtenir l'image finale. Une méthode utilisant la
transformée de Fourier 1D, a été mise en place. Elle consiste en une transformation de chaque
projection, suivie d'une reconstruction ou rétro-projection dans le domaine fréquentiel, puis d'un
filtrage et de la transformée inverse pour obtenir l'image voulue.

Système de visualisation et de traitement :

Visualisation

Les images sont présentées sur l'écran vidéo de la console. La matrice de présentation peut être
équivalente à la matrice de reconstruction ou présenter un plus grand nombre d'éléments image (
jusqu'à 1024 X 1024 pixels).

Traitement des images (Fenêtre et niveaux)

Les images comportent des niveaux de gris qui traduisent les coefficients Hounsfield. Compte tenu
de la dynamique propre des appareils vidéo et des performances de l'oeil humain, il est nécessaire
de se limiter à l'étude d'une fraction des densités qui peuvent s'étaler sur une large échelle de -1000
à +1000.

Le scanner permet de projeter une fraction de l'échelle de densité sur toute l'échelle de gris de
l'écran vidéo grâce à la fonction de fenêtrage (redistribution des niveaux de gris).

On appelle fenêtre la plage de densité étudiée. On la caractérise par sa largeur d'ouverture (L) et son
niveau (N).

Par exemple : Pour les tissus mous : N=40 à 50 et L = -50 à +50

M1 Physique-Imagerie 2011/2012 57
Dans l'exemple, on fait glisser la fenêtre de largeur 30 (20-50) sur l'ensemble des valeurs de
Hounsfield pour pouvoir analyser ou voir des zones de densité différentes proches.
D'autres traitements d'image sont possibles tels que : la reproduction des images, la filtration, la
reconstruction, l'agrandissement simple, les fonctions de mesure de longueur, de volume, de surface
et surtout de densité.
La filtration est très importante lors de la reconstruction de l'image en TDM, on utilise des filtres de
convolution, qui sont des programmes de calcul, pour améliorer l'aspect final de l'image. Il existe
des filtres de densité, un filtre spatial, un filtre standard servants à atténuer les hautes fréquences de
l'image.

Pixels :
Le signal vidéo envoyé par la caméra comprend des informations de luminosité qui changent au fur
et à mesure que le temps s’écoule. Toutefois, le temps (position sur l’écran) ne peut pas être
déterminé avec ce signal. Si on divise une ligne de balayage sur la base d’une impulsion d’horloge
possédant une fréquence spécifique (cf. illustration ci-dessus), on est alors en mesure de déterminer
la position horizontale sur l’écran. La position verticale étant à l’origine déterminée par le numéro
de la ligne de balayage, cela permet donc d’obtenir un quadrillage de l’écran. Chaque élément de ce
quadrillage est appelé pixel. L’image d’une cible est reconnue comme étant la combinaison de
pixels blancs et noirs. Tous les traitements d’image s’effectuent sur la base des pixels.

M1 Physique-Imagerie 2011/2012 58
Conversion binaire numérique :
Le signal vidéo envoyé par la caméra est un signal analogique. Afin de pouvoir utiliser le signal
vidéo pour différentes mesures et différenciations, ce signal analogique doit être converti en signal
numérique. On définit pour cela un niveau seuil pour le signal vidéo. Les zones qui sont plus claires
que le niveau seuil sont définies comme étant “blanches”, tandis que celles qui sont plus sombres
sont définies comme étant “noires”. Le signal numérique correspondant à un pixel blanc est égal à
“1”(= HI), le signal numérique correspondant à un pixel noir est égal à “0” (= LO).

M1 Physique-Imagerie 2011/2012 59
Traitement par les niveaux de gris :
Les processus de traitement d’images utilisent soit la conversion binaire, soit une échelle de gris.
Les appareils de la série CV-110 recourent à la seconde méthode, laquelle est basée sur les
variations de luminosité de l’image obtenue par la caméra. La conversion binaire ne permet de
reconnaître l’image qu’en deux couleurs, le noir et le blanc, autrement dit des “1” et des “0”. Le
traitement sur l’échelle des gris permet par contre d’obtenir une plus grande différenciation,
l’échelle de luminosité étant divisée en 8 bits (soit 256 niveaux). Cette seconde méthode permet
donc de garantir une bien meilleure précision dans la détection.

Traitement couleur (conversion binaire suppress par extraction de couleur) :

Le signal vidéo couleur provenant de la caméra est converti en données numériques RVB par la
conversion A/N de l’image. Ces données sont utilisées pour l’opération de différence afin d’obtenir
les données de R- (moins) V, B-V et R-B à partir des données RVB reçues. Ces six paramètres
d’information couleur sont utilisés pour contrôler le degré de correspondance par rapport à la
couleur spécifiée. Ceci s’effectue en définissant la plage sur l’écran puis en extrayant la couleur qui

M1 Physique-Imagerie 2011/2012 60
correspond à celle précédemment définie. Ensuite, chaque pixel subit une conversion binaire en
pixel extrait ou non extrait. Ce processus d’opération de différence assure une extraction stable
même pour les couleurs sombres et des vitesses de traitement rapides.

Traitement par échelle de nuances couleur :

Les données d’information couleur sont divisées en 256 niveaux.

En fonction de la couleur extraite, les couleurs sont divisées en 256 niveaux. La couleur extraite est
spécifiée comme étant le niveau 255 et les autres couleurs qui possèdent une plus grande différence
de données de teinte couleur sont spécifiées comme étant plus proche du niveau 0. À la différence
de la conversion binaire couleur, le traitement par échelonnement des nuances couleur utilise des
données de nuances à 256 niveaux et de ce fait ce traitement assure une détection stable même
lorsque la couleur d’une cible varie à cause de différences individuelles. Comme pour la conversion
binaire couleur, les six paramètres sont utilisés pour l’opération interne.

Caractéristiques du traitement d’échelonnement de nuances couleur :

Même si la luminosité ambiante change ou si la couleur de la cible varie à cause de différences


individuelles, le traitement par échelonnement de nuances couleur assure une détection plus stable
que la conversion binaire.
Étant donné que le traitement d’échelonnement des nuances couleur utilise des données à 256
niveaux, il est plus efficace pour la mesure de positionnement que la conversion binaire. (Un
traitement subpixel est possible).

Fonction filtre :
La fonction filtre supprime ou met en évidence le bruit et la distorsion des données de l’image
capturée si bien que l’image est facile à contrôler ou à différencier. Le filtre permet de convertir les
données de l’image d’origine sous une forme plus simple.

M1 Physique-Imagerie 2011/2012 61
EXPAND
Le pixel cible est remplacé par le pixel le plus brillant parmi le pixel cible et les huit pixels
l’entourant. Ce filtre restaure toute partie de lettre manquante. L’image blanche s’agrandit d’une
taille. EXPAND répète deux fois le même processus pour augmenter l’effet.

SHRINK
Le pixel cible est remplacé par le pixel le plus sombre parmi le pixel cible et les huit pixels
l’entourant. Ce filtre supprime les composantes de bruit faibles. L’image blanche se rétrécit d’une
taille.

2) Les critères de qualité d’une image

L’image photographique représente imparfaitement la réalité de l’objet radiographié dans le cas de


radiologie par exemple. Il est souhaitable de bien définir les critères de jugements de ces images ;
certains points sont accessibles à un opérateur, directement par l’examen du cliché, d’autres font
appel à des moyens techniques plus complexes.

La qualité d’image est difficile à apprécier objectivement .Néanmoins certaines mesures physiques
permettent de l’évaluer :
5. Le rapport signal sur bruit (S/B) ;
6. Le contraste ;
7. La résolution spatiale
Ces critères objectifs de qualités sont interdépendants et liés au temps d’acquisition de l’image.

Le rapport signal sur bruit :

Le rapport signal sur bruit (S/B) est certainement le facteur qui conditionne le plus la qualité de
l’image de résonnance magnétique. Il influencera le contraste et la résolution spatiale :

Le problème posé à l’opérateur est celui de la recherche du meilleure S/B avec la meilleure
résolution spatiale, c'est-à-dire le plus petit voxel (le pixel en trois dimensions). Ces deux facteurs
sont antinomiques et , de, plus prolonge le temps d’acquisition.

M1 Physique-Imagerie 2011/2012 62
Que signifie le rapport signal sur bruit ? Le S/B s’obtient en comparant le signal d’entrée avec le
signal de sortie afin de mesurer le niveau du bruit (signal parasite). Le rapport signal sur bruit
dépend de :

• Facteurs non modifiables : intensité du champ, séquence d’ondes RF, caractéristiques


tissulaires
• Facteurs modifiables : antenne utilisée
• Paramètre de la séquence : taille du voxel , nombre d’excitation, bande passante de réception
temps .

• Amplitude du champ magnétique

Le signal de la coupe sélectionnée est émis par les protons excités. La différence de
population entre spins parallèles et antiparallèles est d’autant plus grand que l’intensité du
champ magnétique est élevée. Ainsi, on peut considérer approximativement que le signal
augmente proportionnellement à l’intensité du champ employé.

• Antenne

Plus le volume de réception de l’antenne est restreint autour de l’intérêt, moins il y aura de
bruit enregistré en provenant des structures environnantes, et meilleur est le rapport
signal/bruit que l’antenne corps entier.

• Nombre d’excitations

• Si l’on réalise plusieurs mesures pour une même coupe, à chaque mesure :
• Le signal sera identique à chaque fois
• Le bruit sera différent (car il est aléatoire).

• Bande passante de réception

Une fois la taille et l’intensité du champs définis , le nombre de protons excités à l’origine
du signal est pratiquement inchangé :la qualité de signal enregistré sera constante quelle soit
la durée de lecture du signal .
Le temps nécessaire à l’acquisition du signal dépend de l’intensité du gradient de lecture du
bande passante de réception correspondante :
Une bande passante de réception correspondant à un gradient de lecture élevé et un temps
de lecture faible.
Une bande passante de réception étroite correspondant au contraire à un gradient de lecture
faible et des temps allongés.

• Le bruit est l’ensemble des signaux indésirables qui dégradent la formation de l’image. le
bruit a un niveau constant quelles que soient les fréquences (bruit “blanc“) : plus
l’enregistrement du signal comprend une gamme de fréquence large (bande passante de
réception large), plus la proportion de bruit élevée, et le rapport signal/bruit faible ( et l’
artefact de déplacement chimique peu épais).
Il est aléatoire, cohérent et provient :

M1 Physique-Imagerie 2011/2012 63
• du système électronique de traitement du signal (en particulier des fluctuations
électroniques dans l’antenne) ;
• des mouvements moléculaires ;
• des artéfacts (la présence des artéfacts peut considérablement réduire la qualité de l’image.
L’influence des artéfacts peut également être considérée comme un critère de qualité

Pour un contraste donné, le rapport S/B peut alors s’exprimer en fonction des autres paramètres :
S/B # Vvox. √Np. √Nex .1 /√ (BP)

Vvox = Volume du voxel =dx.dy.Ec

-Np = nombre de lignes de la matrice ( p pour phase = nombre d’étapes de codage de


codage de phase )
-Nex = nombre d’excitation
-BP = bande passante.

M1 Physique-Imagerie 2011/2012 64
Le contraste :

Autre critère de qualité de l’image, le contraste (C) est un caractère distinctif de la répartition
lumineuse d’image. IL est la variation de l’intensité de signal entre deux structures adjacentes. Le
contraste est un caractère distinctif de la répartition lumineuse d’une image ou entre deux points
d’une image. il est relié à la résolution par la fonction de transfert de modulation (FTM). Il peut
être exprimé en fonction du signal par la relation suivante :

C = dans laquelle représente l’intensité d’une structure ou d’une lésion et l’intensité de la


région avoisinante. Ce contraste encore appelé contraste image dépend à la fois de la résolution
spatiale comme nous l’avons déjà vu de la dimension du champ exploré et du nombre de ses
divisions, mais il dépend aussi du contraste objet de la densité de protons, des paramètres de
relaxation T1, T2, du flux mais aussi de facteurs programmables tels que : temps de répétition, temps
d’interimpulsion…. La relation contraste image, contraste objet et la résolution spatiale peut
s’écrit :

C = Cobj exp – (d/D)² dans laquelle C représente le contraste image, Cobj : le contraste objet , d :
la largeur à mi hauteur de la fonction de transfert de modulation qu’on supposera de type gaussien
et D le diamètre de la lésion ou de la structure qui se détache du contexte.
La relation entre contraste objet et contraste image fera l’objet de développements étendus dans les
chapitres suivants. En fait une troisième variable vient s’imposer à nous dans l’expression du
pouvoir de résolution : c’est d’acquisition et le temps d’examen.

La résolution spatiale :

La résolution spatiale (RS) permet de déterminer la dimension du plus petit volume observable.
Cette résolution spatiale dépend directement du volume du voxel qui est égal à la taille du pixel
multipliée par l’épaisseur de coupe (volume du = dx.dy.Ec c’est-à-dire dimension en x , dimension
en y , épaisseur de coupe). La taille du pixel est contrôlée par la taille du champ d’exploration (fov)
et par la matrice : la résolution spatiale augmente également lorsque l’épaisseur de coupe diminue.
Mais , l’augmentation de la résolution spatiale entraîneune baisse immédiate du rapport S/B, celui-
ci étant proportionnel au volume du voxel .
Le contrôle de la résolution spatiale par la taille du voxel est effectif si le contraste et le rapport S/B
sont suffisants. En effet, le gain en résolution peut être inefficace si l’image est trop bruitée du fait
d’un voxel petit . ce qui nous amène à établir une relation simple :
+ le voxel est petit, meilleure est de la résolution . Mais attention plus vous diminuez le voxel , plus
vous augmentez la résolution spatiale mais plus vous diminuez le rapport S/B !! c’est une histoire
de compromis.

3) Les éléments d’améliorations pour la qualité d’image

Appareils photo numérique, scanners, images météo …les images ont naturellement envahi notre
vie quotidienne. Leur traitement est devenu commun dans beaucoup de domaines . les logiciels de
traitement numérique de l’image sont maintenant capable de restaurer une image dégradée,
modifier les contrastes, compresser une image, détecter automatiquement des contours,reconnaître

M1 Physique-Imagerie 2011/2012 65
des formes dans une image…toutes les techniques et traitements numérique de l’images sont des
algorithmes basés sur des descriptions et des modélisations mathématiques d’images.

Quelques algorithmes de compression :

La compression numérique des images est indispensable pour les stocker,les transférer ou encore
les traiter rapidement. Mais comment est-il possible de réduire considerablement la taille mémoire
des images tout en gardant une grande qualité d’affichage ? les techniques de compression d’images
suppriment les informations redondantes et/ou inutiles .

Les techniques d’<<ondelettes>> (comme JPEG2000) utilisent une desciption statique particulière
de l’image qui permet d’éliminer une grande quantité d’information inutile pour la qualité visuelle
de l’image.

Graphe présentant les performances d'un algorithme de compression naïf à partir de la


transformation en ondelettes.
On réalise une décomposition à plusieurs niveaux et on seuille les imagettes hautes fréquences.
L'axe compression donne le nombre de coefficients seuillés :
• en vert : décomposition de niveau 1
• en rouge : décomposition de niveau 2
• en bleu : décomposition de niveau 3

M1 Physique-Imagerie 2011/2012 66
notons aussi les techniques de « bandelettes » très récentes, développées par des mathématiciens
français permettent des taux de compression encore plus spectaculaire pour stocker des photos
d’identité sur seulement 500 octet !!

Les bases de bandelettes sont des bases indicées par une géométrie : leurs vecteurs de bases sont
allongés le long de courbes qui sont choisies pour épouser au mieux les contours. Plus précisément,
l’image est segmentée en carrés dyadique et chacun de ces carrés est muni d’une base adaptée. Ces
bases locales sont construites à partir d’une base d’ondelettes anisotropes (obtenues par un simple
produit tensoriel de deux bases monodimensionnelles) déformée pour suivre le contour principal
dans chaque carré. La figure 4 illustre l’apport de cette représentation.
Le choix de la segmentation et de sa géométrie, et donc de la base utilisée, dépend alors de l’image
à comprimer et du taux de compression. Le surcoût de la spécification de cette base via la géométrie
est pris en compte dans un algorithme rapide de recherche de meilleure bas qui permet d’obtenir
automatiquement le meilleure compromis entre l’adaptation de la base à l’image (le bon suivi des
contours) et son coût de codage.
Cette méthode permet de démontrer des résultats théoriques d’optimalité pour les fonctions
régulières en dehors de contours réguliers puisque on obtient la décroissance optimale en M−α
pour l’erreur d’approximation. Elle donne également des résultats pour les images réelles.

M1 Physique-Imagerie 2011/2012 67
Quelques applications en imagerie médicale :

Les algorithmes de restauration des vidéos et des images médicales ont pour but d’amélorer la
résolution des données et d’atténuer le niveau de bruit. Ces deux problématiques sont cruciales en
imagerie médicales puisque la qualités des images est limitée par le fait que le patient doit recevoir
la plus dose possible de radiation pendant l’examen.
Les algorithmes d’amélioration d’images sont aussi utilisés pour réaliser une amélioration du
contraste local ou global sur les éléments de l’image. les professionnelles de l’imagerie médicale
l’utilisent pour déterminer l’information pertinente pour le diagnostic. On a notamment les
techniques de détection de contours servent à aider à la reconnaissance automatique de structures
anatomiques analyser des images d’échographie, comme le montre les figures ci-dessous.

M1 Physique-Imagerie 2011/2012 68

Vous aimerez peut-être aussi