Académique Documents
Professionnel Documents
Culture Documents
MÉTHODES NUCLÉAIRES
TOMOGRAPHIE PAR ÉMISSION DE POSITONS
1
Table des matières
INTRODUCTION ................................................................................................................................................... 3
CONCLUSION .......................................................................................................................... 15
BIBLIOGRAPHIE ...................................................................................................................15
2
INTRODUCTION
L’imagerie médicale représente un domaine d’application important pour le
développement des techniques tomographiques. Actuellement, on peut considérer que
si l’on regroupe les tomographies X, gamma, bêta et IRM, ceci constitue un tiers du
marché de l’imagerie médicale. Les systèmes tomographies sont des appareillages
lourds et chers, nécessitent souvent une infrastructure adaptée comme des dispositifs
de protection contre les rayons ionisants ou contre les champs magnétique, ou comme
un laboratoire de préparation des radiotraceurs. Mais la tomographie occupe une place
centrale dans les outils de diagnostic d’aujourd’hui et son impact est devenu majeur en
termes de santé publique.
En fait, y a deux types de mesure en imagerie médicale : Tomographie de
transmission (Source externe au patient) et Tomographie d’émission (Source interne au
patient).Dans notre cas, on s’intéressera par la tomographie par émission, et plus
précisément la tomographie par émission des positons (TEP). C’est une des méthodes
les plus utilisées en imagerie médicale, l’autre étant l’imagerie par résonnance
magnétique fonctionnelle (IRM).
La tomographie par émission de positons (TEP) est une modalité d’imagerie médicale
qui mesure la distribution tridimensionnelle d’une molécule marquée par un émetteur
de positons. L’acquisition est réalisée par un ensemble de détecteurs répartis autour du
patient. Les détecteurs sont constitués d’un scintillateur qui est choisi en fonction de
nombreuses propriétés, pour améliorer l’efficacité et le rapport signal sur bruit. Le
circuit de coïncidence mesure les deux photons gamma de 511 KeV émis dans les
directions opposées qui résultent de l’annihilation du positon. Les coupes sont
reconstruites par des algorithmes de plus en plus complexes pour s’adapter à des
géométries d’acquisition tridimensionnelles. La correction des phénomènes physiques
fournit une image représentative de la distribution du traceur.
Le présent travail subdivise en trois chapitres : Le premier chapitre est dédiée à la
généralité de la tomographie, sa naissance et son développement au cours du temps,
dans le deuxième chapitre on va présenter la tomographie par émission de positons et
son principe qui se manifeste dans : Les traceurs, la détection et la reconstruction
tomographique. Enfin dans le dernier chapitre on s’occupera par l’application de la TEP.
3
Chapitre 1 : Généralité de la tomographie
Le mot tomographie est l’origine d’un mot du grec : [tomos] = tranche. C’est une
technique qui utilise des rayonnements pénétrants comme les rayonnements X, gamma
ou certaines ondes électromagnétiques ou acoustiques (comme ultrasonore
d’échographie). Par combinaison d’un ensemble de mesures et grâce à des calculs
mathématiques de la reconstruction, la tomographie permet de voir sur l’écran
l’organisme intérieur du corps humain, selon un ou plusieurs plans de coupe. Alors
qu’auparavant on y avait accès soit par l’imagination, en interprétant les mesures du
sang ou d’urine, ou soit par l’observation, en découpant matériellement les objets. Dans
le cas d’imagerie médicale, une observation directe nécessite une intervention
chirurgicale. Avec la Tomographie, on a un outil formidable pour découvrir sans détruire
les structures du corps, leur organisation et leur fonction dans l’espace et dans le temps.
L’utilisateur pourra alors bénéficier de l’assistance des logiciels de traitement, d’analyse
et de visualisation des images numériques.
4
Chapitre 2: Tomographie par émission de positron
Principe
Un examen TEP commence par l’injection d’un traceur radioactif émetteur de
particules 𝛃+ , aussi appelé positon, dans le corps du patient. Les positons émis
s’annihilent avec les électrons présents dans la matière environnante en formant des
paires de photons qui se propagent à environ 180° l’un de l’autre. La détection de ces
paires de photons permet de localiser les lieux d’émissions et par conséquent la
concentration du traceur en chaque point du corps du patient. Cette section détaille les
étapes de ce processus.
1. Traceur Radioactif :
Un traceur est constitué d’une molécule spécifique à un phénomène physiologique
ou biochimique, et d’un radionucléide, émetteur de positrons. Une fois injecté dans le
patient, le traceur va se fixer préférentiellement sur les sites dont il est spécifique, et
ainsi marquer une activité métabolique donnée.
Le patient est ensuite placé dans l’imageur PET, après un temps plus ou moins long
(selon le protocole et l’application). Le radioisotope est émetteur𝛃+ , et va donc émettre
des positrons. Ces positons ayant une énergie relativement élevée (plusieurs centaines
de keV voire quelques MeV selon les isotopes), il est très improbable qu’ils effectuent en
première interaction.
Une annihilation avec un électron. C’est pourquoi ils ont un libre parcours moyen
non nul avant annihilation dépendant de leur énergie (voir tableau : Figure 2).
De cette annihilation avec un électron sont produits deux photons gamma de 511 KeV,
émis en coïncidence à environ 180° l’un de l’autre.
La Figure 1 résume ces différentes étapes. Ce sont ces deux photons de 511 keV qui
sont ensuite détectés.
5
Libre parcours
POSITRON-EMITTING
RADIONUCLIDE
ELECTRON 180°
• Types de traceurs :
Il existe différents types de traceurs, et différents types d’isotopes. Les isotopes les
plus couramment utilisés en imagerie PET, ainsi que leurs caractéristiques principales,
sont résumés dans le tableau ( Figure 2 ).Ces isotopes doivent ensuite être couplés à des
molécules, qui vont être spécifiques d’une activité métabolique. C’est le travail du
radiochimiste, qui consiste à substituer un atome stable d’une molécule par le
radiomarqueur : on obtient alors un traceur radioisotopique.
6
▪ Exemple : le fluorodésoxyglucose (FDG) :
Le traceur le plus utilisé pour l’imagerie médicale est le glucose marqué par le fluor 18.
Ce traceur s’accumule préférentiellement dans les cellules cancéreuses, grandes
consommatrices de sucre. Cette technique se singularise par l’utilisation d’isotopes
radioactifs dont le temps de demi-vie court. Ainsi le fluor 18 a un temps de demi-vie
radioactive de 110 minutes.
• Désintégration du fluor 18 :
18 18
9F 8O + +10e + ν
• Production du 18 FDG :
Le fluor-18 est produit par réaction nucléaire à l’aide d’un cyclotron. Le cyclotron est un
accélérateur électromagnétique de haute fréquence, mis au point par Ernest Orlando
Lawrence aux États-Unis.
7
Pour fabriquer du fluor-18, on introduit des ions au centre du cyclotron, dans la
chambre d’accélération. Sous l’action combinée d’un champ magnétique et d’un champ
électrique, les ions décrivent une trajectoire en spirale. Tournant à vitesse angulaire
constante, les protons sont ainsi accélérés. Ils sont ensuite extraits de l’accélérateur et
conduits jusqu’aux cibles (eau enrichie en oxygène 18). La réaction nucléaire (action des
protons accélérés sur l’oxygène 18) engendre la formation de Fluor 18. Une fois produit,
le Fluor 18 est incorporé par radiochimie dans une molécule de glucose : le FDG.
• Synthèse du 18F-FDG :
Le but de cette étape est de fixer le Fluor 18 sur l’analogue du glucose, le FDG :
+
𝟏𝟖
2-Deoxyglucose 𝟗𝐅luor 𝟏𝟖
𝟗𝐅-FDG
2. Désintégration𝛃+ :
En TEP la localisation du traceur est possible grâce à la détection des photons ɤ
rayonnants du patient. Mais à la différence de la tomographie d’émission
monophotonique (TEMP) ces photons ne sont pas émis directement par le traceur
radioactif, ils résultent de l’annihilation des positons émis lors de la désintégration𝛃+ du
noyau de l’isotope instable présent dans le traceur. Cette désintégration, schématisée
dans la figure 6, repose sur la conversion d’un proton du noyau en neutron en émettant
un neutrino électronique (ν) ainsi qu’un positon. Le positon est une particule
d’antimatière, un antiélectron, c’est-à-dire qu’il possède les mêmes propriétés physiques
qu’un électron à l’exception de sa charge électrique qui vaut +1 au lieu de -1. L’équation
(3.2.1) montre le cas 18F où la transition d’un proton en neutron convertit l’atome de
8
fluor 18 en atome d’oxygène 18 stable. Le neutrino, étant quasiment indétectable, n’est
pas utilisé en TEP.
(2-1)
3. Annihilation du positon :
Le positon émis par la désintégration 𝛃+ récupère une partie de l’énergie de transition
du protonen neutron sous la forme d’énergie cinétique. Cette énergie lui permet de
parcourir quelques millimètres, voire quelques centimètres, pendant lesquels les
interactions avec la matière traversée vontle ralentir jusqu’à se trouver quasiment au
repos. Lorsque sa vitesse est suffisamment faible le positon peut se combiner et
s’annihiler avec un électron, donnant naissance à une paire de photons ɤ colinéaires et
de sens opposé (dans le référentiel du barycentre du couple positon-électron),
chacunavec une énergie égale à 511 KeV (figure 7).
En TEP l’information que l’on cherche à visualiser est la répartition de traceur dans
l’espace. Cependant, la détection des photons ɤ d’annihilations donne une
information sur la position d’annihilation d’un positon, ce qui ne correspond pas
exactement à celle de l’émission de ce positon et donc à celle du traceur. Ainsi, plus la
distance entre la position d’émission (celle du traceur) et la position d’annihilation
9
(celle de la détection) est importante, plus la résolution spatiale des images
reconstruites est détériorée. On appelle cet effet le parcours du positon.
Cette distance n’est pas une valeur fixe et varie considérablement en fonction du
traceur utilisé et du matériau dans lequel le positon se propage. L’impact du traceur
provient de la variation de l’énergie de transition proton-neutron qui est transmise au
positon. Pour un radionucléide donné, cette énergie suit un spectre spécifique. Les
spectres d’énergies cinétiques des positons émis par des radioisotopes communs sont
présentés dans la figure 9. On peut voir que le 18F a un spectre qui ne permet pas
l’émission de positon avec une énergie supérieure à 600 KeV, alors que le 82Rb a un
spectre qui s’étale jusqu’à plus de 3.5 MeV. Le tableau de la figure 2 montre que cela
impacte directement le parcours du positon moyen dans un matériau donné.
Par contre, avec d’autres isotopes comme le 82Rb les positons peuvent parcourir
plus d’un centimètre avant de s’annihiler, ce qui n’est plus négligeable face à la résolution
du scanner et entraîne une dégradation significative des images reconstruites. La
densité de la matière dans laquelle se propage un positon a aussi un impact important
sur la distance parcourue avant qu’il ne s’annihile. La figure 10 montre les distributions
des distances entre la position d’émission et celle d’annihilation des positons émis par
du 18F et du 82Rb. Ces distributions ont été estimées dans trois matériaux de densités
différentes, de l’eau (densité moyenne), du poumon (densité faible) et de l’os (densité
élevée).
𝐸0 (3.2.1)
𝐸=
1 + 𝛼(1 − cos(𝜃)
Plus l’angle de diffusion est important et plus l’énergie perdue par le photon est
importante. Par conséquent les photons diffusés, avec un angle trop important ou
10
plusieurs fois, peuvent atteindre le détecteur avec une énergie résultante trop faible
pour être détectée, ont dit alors qu’ils sont atténués.
Une paire de photons d’annihilation est considérée comme atténuée si au moins un
des deux photons a perdu trop d’énergie pour être détecté. En fonction de l’épaisseur
et du type de matière que les photons d’annihilations vont devoir traverser, une
fraction variable d’entre eux vont être atténués (diffusés ou absorbés) le long de leurs
trajets jusqu’au détecteur. Les annihilations qui se produisent à la surface du corps et
dont les photons d’annihilation se propagent dans des directions tangentes à cette
surface ont peu de matière à traverser et sont donc surreprésentées par rapport à
ceux émis au centre du corps. Cela va avoir pour effet de surestimer la concentration
de traceur à la surface de l’objet imagé, on peut l’observer dans la figure8. On appelle
cela l’effet de peau. Plus généralement, cette atténuation implique une variation de la
sensibilité de chaque paire de cristaux en fonction de la distribution de la matière
dans le champ de vue du scanner, qui vient s’ajouter à la sensibilité intrinsèque de
cette paire. L’effet Compton étant prédominant dans les tissus organiques à l’énergie
de 511 KeV, c’est principalement lui qui est responsable de l’atténuation.
Figure 8: Les photons ɤ (trajectoire en orange) peuvent être diffusés par le corps
du patient avant d’atteindre le détecteur et conduire à la détection d’une
coïncidence selon la LOR (en bleue) passant loin de la position d’émission du
positon.
11
4. Détection :
La deuxième étape consiste donc en la détection de ces deux gammas de 511 keV,
émis en coïncidence. L’arrangement cylindrique de détecteurs autour du patient
permet de détecter des couples de gammas en coïncidence. Alors, connaissant la
position des détecteurs, l’annihilation du positron a eu lieu a priori dans l’élément de
volume reliant ces deux détecteurs (voir Figure 9).
En pratique, cet élément de volume est souvent assimilé à une ligne de réponse,
communément appelée LOR (pour Line Of Response). Cette LOR étant identifiée pour
chaque événement, reste à localiser la position de l’annihilation du positron le long de
la LOR. En théorie, en connaissant précisément le temps de détection de chacun des
détecteurs, la position tridimensionnelle est connue avec précision.
La détection des photons consiste en la conversion de ces derniers en signal
électrique mesurable, et proportionnel à l’énergie absorbée par le détecteur. Si dans
une fenêtre temporelle suffisamment courte (généralement 4 à 8 ns) deux gammas
sont détectés, alors on considère qu’il y a coïncidence.
Après avoir détecté toutes les coïncidences d’une acquisition donnée, vient l’étape de la
reconstruction tomographique.
12
5. Reconstruction tomographique :
Après détection des photons ɤ, une reconstruction tomographique est effectuée afin
d’obtenir des images. La localisation du point d’annihilation est déterminée par
l’intersection des lignes de coïncidence consécutives à de nombreux événements
radioactifs enregistrés par les détecteurs. Le nombre d’événements survenus pendant un
temps t permet de calculer la distribution et la concentration de la radioactivité dans le
volume des coupes définies par les couronnes pendant ce temps t. Les photons c émis au
niveau des différents organes vont traverser l’os et les tissus mous avant d’atteindre les
détecteurs. Au cours de ce trajet, ils vont subir une atténuation qui varie selon le trajet
emprunté, et en particulier avec l’épaisseur et la nature des différents tissus. Afin d’obtenir
une quantification exacte, plusieurs méthodes de correction de cette atténuation sont
utilisées. La plus courante consiste à mesurer un facteur de correction pour chaque ligne
de coïncidence (méthode dite de transmission). Avant chaque examen, une source externe
de rayons X (par exemple du Germanium 68) tourne autour de l’objet étudié permettant
d’obtenir une carte des coefficients d’atténuation de la radioactivité émise par cette source
sur chaque ligne de coïncidence et pour les caméras couplées à un scanner ce dernier est
utilisé pour corriger l’atténuation. Les informations obtenues par cette mesure sont ensuite
prises en compte lors de la reconstruction des images. Cette technique nécessite de faire
l’acquisition d’images dites de transmission, d’une durée variable (quelques minutes en
moyenne). Sont également utilisées des techniques automatiques de correction
d’atténuation basées sur des estimations mathématiques moyennes de l’atténuation. Ces
dernières sont moins précises, mais ne nécessitent pas la réalisation d’une image de
transmission. Elles permettent d’écourter la durée d’un examen en TEP.
13
Chapitre 3: Application
La TEP a vu progressivement se diversifier son champ d’application et est
aujourd’hui principalement indiquée dans le domaine de l’oncologie.
Ce sont les indications en oncologie qui expliquent presque complètement l'essor
récent de la TEP et la place importante que cette technique d'imagerie a très
rapidement prise dans le diagnostic, le bilan d'extension et la surveillance
thérapeutique de nombreuses pathologies cancéreuses. Le principal traceur d’intérêt
en oncologie est le 18-fluoro-désoxy-glucose (18FDG) qui est un analogue structurel de
la molécule de glucose, dans laquelle un groupement hydroxyle (OH) a été remplacé
artificiellement par un atome de fluor 18 (18F) émetteur β+ de demi-vie 110 minutes.
Le 18FDG est capté par les cellules métaboliquement actives où il s’accumule car il ne
peut intégrer les voies métaboliques physiologiques du glucose (glycolyse, voie des
pentoses phosphates).
Les tissus particulièrement fixants seront donc entre autres les muscles (cardiaque
et squelettiques), le cerveau, les tissus lymphoïde et digestif. En outre, les cellules
tumorales malignes présentent un hypermétabolisme glucidique et une surexpression
des transporteurs du glucose (GLUT-1), faisant de la TEP un outil efficace dans la
recherche de formations néoplasiques (Fig. 8) parmi lesquelles on citera, de façon non
exhaustive : les cancers pleuro-pulmonaires, les cancers digestifs, les cancers des voies
aéro-digestives supérieures, le cancer de la thyroïde, les mélanomes, certains cancers
gynécologiques et les lymphomes.
L’examen TEP se révèle pertinent, en fonction des indications, à différents niveaux
de la prise en charge diagnostique et thérapeutique en oncologie :
• Diagnostic de malignité : pour l’identification d’une anomalie détectée lors d’un
précédent examen (échographie, radiographie) et pour la précision de sa nature
(tumeur maligne ou bénigne).
• Bilan d’extension initiale : pour évaluer l’étendue du cancer et rechercher
d’éventuelles métastases.
• Évaluation de la réponse thérapeutique et détection d’une éventuelle récidive.
• Guidage de biopsie.
• Optimisation des champs de radiothérapie.
14
CONCLUSION
La TEP est un outil performant qui, associe´ aux autres techniques d’imagerie, améliore
notre évaluation des gliomes.
La TEP est donc un outil qui, sur le principe, devrait améliorer la prise en charge de nos
patients. Seule l’absence de traceurs adaptés et disponibles freine son utilisation en
oncologie et le développement de nouveaux traceurs, dont certains sont en cours de
validation actuellement, représente un challenge passionnant. Il est probable que, dans
un avenir proche, nous pourrons envisager une utilisation en routine clinique de cette
technologie et améliorer ainsi la prise en charge de nos patients.
15
BIBLIOGRAPHIE
• La tomographie : Fondements mathématiques, imagerie microscopique et
imagerie industrielle Relié – 28 janvier 2002
16