Vous êtes sur la page 1sur 16

Université Hassan II-Casablanca Année universitaire 2018/2019

Faculté des Sciences Ain Chock

MÉTHODES NUCLÉAIRES
TOMOGRAPHIE PAR ÉMISSION DE POSITONS

Master :INFORMATIQUEETINSTRUMENTATION SCIENTIFIQUE


ENPHYSIQUE DES HAUTES ÉNERGIES

Réalisé par :- BENDEBBA FATIMA


- ELKHOUAD SOUKAINA

Module: MÉTHODES NUCLÉAIRES D’ANALYSE ET DECARACTÉRISATION

Professeur : ELHASSAN SAYOUTI

1
Table des matières

INTRODUCTION ................................................................................................................................................... 3

Chapitre 1 : Généralité de la tomographie .................................................................... 4

Chapitre 2: Tomographie par émission de positron ....................................................... 5

1. Traceur Radioactif ............................................................................................ 6

2. Désintgration β⁺et émission du positon ......................................................... 8

3. Annihilation du positon .................................................................................... 9

3.1 Parcours du positon avant annihilation ................................................................. 9

3.2 Parcours des photons d’annihilation jusqu’au détecteur ............................. 10

4. Détection des photons d’annihilation ......................................................................12

5. Reconstruction de l’image ........................................................................................... 13

Chapitre 3 : Application :ONCOLOGIE ...........................................................................14

CONCLUSION .......................................................................................................................... 15

BIBLIOGRAPHIE ...................................................................................................................15

2
INTRODUCTION
L’imagerie médicale représente un domaine d’application important pour le
développement des techniques tomographiques. Actuellement, on peut considérer que
si l’on regroupe les tomographies X, gamma, bêta et IRM, ceci constitue un tiers du
marché de l’imagerie médicale. Les systèmes tomographies sont des appareillages
lourds et chers, nécessitent souvent une infrastructure adaptée comme des dispositifs
de protection contre les rayons ionisants ou contre les champs magnétique, ou comme
un laboratoire de préparation des radiotraceurs. Mais la tomographie occupe une place
centrale dans les outils de diagnostic d’aujourd’hui et son impact est devenu majeur en
termes de santé publique.
En fait, y a deux types de mesure en imagerie médicale : Tomographie de
transmission (Source externe au patient) et Tomographie d’émission (Source interne au
patient).Dans notre cas, on s’intéressera par la tomographie par émission, et plus
précisément la tomographie par émission des positons (TEP). C’est une des méthodes
les plus utilisées en imagerie médicale, l’autre étant l’imagerie par résonnance
magnétique fonctionnelle (IRM).
La tomographie par émission de positons (TEP) est une modalité d’imagerie médicale
qui mesure la distribution tridimensionnelle d’une molécule marquée par un émetteur
de positons. L’acquisition est réalisée par un ensemble de détecteurs répartis autour du
patient. Les détecteurs sont constitués d’un scintillateur qui est choisi en fonction de
nombreuses propriétés, pour améliorer l’efficacité et le rapport signal sur bruit. Le
circuit de coïncidence mesure les deux photons gamma de 511 KeV émis dans les
directions opposées qui résultent de l’annihilation du positon. Les coupes sont
reconstruites par des algorithmes de plus en plus complexes pour s’adapter à des
géométries d’acquisition tridimensionnelles. La correction des phénomènes physiques
fournit une image représentative de la distribution du traceur.
Le présent travail subdivise en trois chapitres : Le premier chapitre est dédiée à la
généralité de la tomographie, sa naissance et son développement au cours du temps,
dans le deuxième chapitre on va présenter la tomographie par émission de positons et
son principe qui se manifeste dans : Les traceurs, la détection et la reconstruction
tomographique. Enfin dans le dernier chapitre on s’occupera par l’application de la TEP.

3
Chapitre 1 : Généralité de la tomographie

Le mot tomographie est l’origine d’un mot du grec : [tomos] = tranche. C’est une
technique qui utilise des rayonnements pénétrants comme les rayonnements X, gamma
ou certaines ondes électromagnétiques ou acoustiques (comme ultrasonore
d’échographie). Par combinaison d’un ensemble de mesures et grâce à des calculs
mathématiques de la reconstruction, la tomographie permet de voir sur l’écran
l’organisme intérieur du corps humain, selon un ou plusieurs plans de coupe. Alors
qu’auparavant on y avait accès soit par l’imagination, en interprétant les mesures du
sang ou d’urine, ou soit par l’observation, en découpant matériellement les objets. Dans
le cas d’imagerie médicale, une observation directe nécessite une intervention
chirurgicale. Avec la Tomographie, on a un outil formidable pour découvrir sans détruire
les structures du corps, leur organisation et leur fonction dans l’espace et dans le temps.
L’utilisateur pourra alors bénéficier de l’assistance des logiciels de traitement, d’analyse
et de visualisation des images numériques.

Au cours des 30 dernières années, les développements dans les techniques


d’imagerie médicale ont conduit à des changements révolutionnaires dans la pratique
de la médecine. L’imagerie est, en effet, au cœur du processus de diagnostic, en facilitant
notamment un diagnostic précoce, mais elle est également importante pour
l’établissement et le suivi du traitement. Elle constitue, en outre, un outil pour la
recherche tant clinique que fondamentale.

Au fil du temps, l’imagerie médicale est devenue un travail d’équipe. Un système


d’imagerie médicale rassemble plusieurs composants technologiques. Son
développement requiert la participation des utilisateurs finaux comme les médecins, les
physiciens, les biologistes pour spécifier les besoins ; les ingénieurs, les chercheurs, les
informaticiens pour mettre au point les nouvelles techniques et enfin les entreprises
industrielles pour réaliser et commercialiser ces systèmes.

Aujourd’hui, il existe plusieurs types de système d’imagerie médicale et leurs


applications dépendent de la spécialité du traitement de maladie ou de fonction de
l’organisme du corps ou du besoin des médecins.

4
Chapitre 2: Tomographie par émission de positron
Principe
Un examen TEP commence par l’injection d’un traceur radioactif émetteur de
particules 𝛃+ , aussi appelé positon, dans le corps du patient. Les positons émis
s’annihilent avec les électrons présents dans la matière environnante en formant des
paires de photons qui se propagent à environ 180° l’un de l’autre. La détection de ces
paires de photons permet de localiser les lieux d’émissions et par conséquent la
concentration du traceur en chaque point du corps du patient. Cette section détaille les
étapes de ce processus.

1. Traceur Radioactif :
Un traceur est constitué d’une molécule spécifique à un phénomène physiologique
ou biochimique, et d’un radionucléide, émetteur de positrons. Une fois injecté dans le
patient, le traceur va se fixer préférentiellement sur les sites dont il est spécifique, et
ainsi marquer une activité métabolique donnée.

Le patient est ensuite placé dans l’imageur PET, après un temps plus ou moins long
(selon le protocole et l’application). Le radioisotope est émetteur𝛃+ , et va donc émettre
des positrons. Ces positons ayant une énergie relativement élevée (plusieurs centaines
de keV voire quelques MeV selon les isotopes), il est très improbable qu’ils effectuent en
première interaction.

Une annihilation avec un électron. C’est pourquoi ils ont un libre parcours moyen
non nul avant annihilation dépendant de leur énergie (voir tableau : Figure 2).
De cette annihilation avec un électron sont produits deux photons gamma de 511 KeV,
émis en coïncidence à environ 180° l’un de l’autre.
La Figure 1 résume ces différentes étapes. Ce sont ces deux photons de 511 keV qui
sont ensuite détectés.

5
Libre parcours

POSITRON 511 KeV PHOTON

POSITRON-EMITTING

RADIONUCLIDE

ELECTRON 180°

511 KeV PHOTON

Figure 1 : Schéma récapitulatif des étapes depuis le radioiotope émetteur 𝛃+ jusqu’à la


paire de gammas de 511 keV

• Types de traceurs :

Il existe différents types de traceurs, et différents types d’isotopes. Les isotopes les
plus couramment utilisés en imagerie PET, ainsi que leurs caractéristiques principales,
sont résumés dans le tableau ( Figure 2 ).Ces isotopes doivent ensuite être couplés à des
molécules, qui vont être spécifiques d’une activité métabolique. C’est le travail du
radiochimiste, qui consiste à substituer un atome stable d’une molécule par le
radiomarqueur : on obtient alors un traceur radioisotopique.

Isotope demi-vie 𝑬𝒎𝒆𝒂𝒏 (KeV) 𝑬𝒎𝒂𝒙 (KeV) 𝑹𝒎𝒆𝒂𝒏 (mm) Application


Fluor 18 (18F) 110 min 252 635 0,66 Mesure du métabolisme du glucose (18F-
FDG)
Carbonne 11 20 min 390 970 1 ,26 Marquage de neuro-transmetteurs
(11C)
Oxygène 15 2 min 730 1720 2,965 Mesure du débit sanguin
(15O) cérébral
Azote 13 (13F) 10 min 252 635 1,73 Marquage de molécules
d’ammoniac pour l’imagerie de
perfusion myo-Cardique
Gallium 68 68 min 844 1899 3,559 Nombreux marquages possibles
( Ga)
68 pour des applications variées
Rubidium 82 75 s 1551 3378 7,491 Mesure de la perfusion
(82Rb) myocardique
Figure 2 : Propriétés et caractéristiques des principaux isotopes et leurs applications

6
▪ Exemple : le fluorodésoxyglucose (FDG) :

Le traceur le plus utilisé pour l’imagerie médicale est le glucose marqué par le fluor 18.
Ce traceur s’accumule préférentiellement dans les cellules cancéreuses, grandes
consommatrices de sucre. Cette technique se singularise par l’utilisation d’isotopes
radioactifs dont le temps de demi-vie court. Ainsi le fluor 18 a un temps de demi-vie
radioactive de 110 minutes.

Figure 3: demi-vie de 18FDG

• Désintégration du fluor 18 :

18 18
9F 8O + +10e + ν

• Production du 18 FDG :

Le fluor-18 est produit par réaction nucléaire à l’aide d’un cyclotron. Le cyclotron est un
accélérateur électromagnétique de haute fréquence, mis au point par Ernest Orlando
Lawrence aux États-Unis.

Figure 4 : principe de fonctionnement du cyclotron

7
Pour fabriquer du fluor-18, on introduit des ions au centre du cyclotron, dans la
chambre d’accélération. Sous l’action combinée d’un champ magnétique et d’un champ
électrique, les ions décrivent une trajectoire en spirale. Tournant à vitesse angulaire
constante, les protons sont ainsi accélérés. Ils sont ensuite extraits de l’accélérateur et
conduits jusqu’aux cibles (eau enrichie en oxygène 18). La réaction nucléaire (action des
protons accélérés sur l’oxygène 18) engendre la formation de Fluor 18. Une fois produit,
le Fluor 18 est incorporé par radiochimie dans une molécule de glucose : le FDG.
• Synthèse du 18F-FDG :

Le but de cette étape est de fixer le Fluor 18 sur l’analogue du glucose, le FDG :

+
𝟏𝟖
2-Deoxyglucose 𝟗𝐅luor 𝟏𝟖
𝟗𝐅-FDG

Figure 5 : Synthèse du 18F-FDG

Le Fluor 18 est envoyé depuis le cyclotron au niveau de l’automate de synthèse où grâce


à une série de réactions chimiques, il vient se fixer sur cet analogue du glucose. Le 𝟏𝟖𝟗𝐅-
FDG fabriqué est ensuite purifié et stérilisé. Le temps de synthèse est d’environ 30
minutes, son rendement de 60%. Une fois produit, le 𝟏𝟖𝟗𝐅-FDG subit toute une batterie
de contrôles de qualité avant de pouvoir être injecté au patient.

2. Désintégration𝛃+ :
En TEP la localisation du traceur est possible grâce à la détection des photons ɤ
rayonnants du patient. Mais à la différence de la tomographie d’émission
monophotonique (TEMP) ces photons ne sont pas émis directement par le traceur
radioactif, ils résultent de l’annihilation des positons émis lors de la désintégration𝛃+ du
noyau de l’isotope instable présent dans le traceur. Cette désintégration, schématisée
dans la figure 6, repose sur la conversion d’un proton du noyau en neutron en émettant
un neutrino électronique (ν) ainsi qu’un positon. Le positon est une particule
d’antimatière, un antiélectron, c’est-à-dire qu’il possède les mêmes propriétés physiques
qu’un électron à l’exception de sa charge électrique qui vaut +1 au lieu de -1. L’équation
(3.2.1) montre le cas 18F où la transition d’un proton en neutron convertit l’atome de

8
fluor 18 en atome d’oxygène 18 stable. Le neutrino, étant quasiment indétectable, n’est
pas utilisé en TEP.

(2-1)

Figure 6 : La désintégration 𝛃+ repose sur la conversion d’un proton en neutron


donnant lieu à l’émission d’un neutrino électronique et d’un positon.

3. Annihilation du positon :
Le positon émis par la désintégration 𝛃+ récupère une partie de l’énergie de transition
du protonen neutron sous la forme d’énergie cinétique. Cette énergie lui permet de
parcourir quelques millimètres, voire quelques centimètres, pendant lesquels les
interactions avec la matière traversée vontle ralentir jusqu’à se trouver quasiment au
repos. Lorsque sa vitesse est suffisamment faible le positon peut se combiner et
s’annihiler avec un électron, donnant naissance à une paire de photons ɤ colinéaires et
de sens opposé (dans le référentiel du barycentre du couple positon-électron),
chacunavec une énergie égale à 511 KeV (figure 7).

Figure 7: Émission d’un positon et annihilation avec un électron d’un atome de la


matière environnanteaprès un parcours de quelques millimètres à quelques
centimètres.

3.1- Parcours du positon avant annihilation :

En TEP l’information que l’on cherche à visualiser est la répartition de traceur dans
l’espace. Cependant, la détection des photons ɤ d’annihilations donne une
information sur la position d’annihilation d’un positon, ce qui ne correspond pas
exactement à celle de l’émission de ce positon et donc à celle du traceur. Ainsi, plus la
distance entre la position d’émission (celle du traceur) et la position d’annihilation

9
(celle de la détection) est importante, plus la résolution spatiale des images
reconstruites est détériorée. On appelle cet effet le parcours du positon.

Cette distance n’est pas une valeur fixe et varie considérablement en fonction du
traceur utilisé et du matériau dans lequel le positon se propage. L’impact du traceur
provient de la variation de l’énergie de transition proton-neutron qui est transmise au
positon. Pour un radionucléide donné, cette énergie suit un spectre spécifique. Les
spectres d’énergies cinétiques des positons émis par des radioisotopes communs sont
présentés dans la figure 9. On peut voir que le 18F a un spectre qui ne permet pas
l’émission de positon avec une énergie supérieure à 600 KeV, alors que le 82Rb a un
spectre qui s’étale jusqu’à plus de 3.5 MeV. Le tableau de la figure 2 montre que cela
impacte directement le parcours du positon moyen dans un matériau donné.

Dans le cas des molécules marquées au 18F,commele 18F-FDG, le parcours du


positon est en général négligé car il est largement inférieur à la résolution intrinsèque
des scanners TEP cliniques actuels.

Par contre, avec d’autres isotopes comme le 82Rb les positons peuvent parcourir
plus d’un centimètre avant de s’annihiler, ce qui n’est plus négligeable face à la résolution
du scanner et entraîne une dégradation significative des images reconstruites. La
densité de la matière dans laquelle se propage un positon a aussi un impact important
sur la distance parcourue avant qu’il ne s’annihile. La figure 10 montre les distributions
des distances entre la position d’émission et celle d’annihilation des positons émis par
du 18F et du 82Rb. Ces distributions ont été estimées dans trois matériaux de densités
différentes, de l’eau (densité moyenne), du poumon (densité faible) et de l’os (densité
élevée).

3.2- Parcours des photons d’annihilation jusqu’au détecteur :

Les photons, issus de l’annihilation du positon avec un électron, vont se propager


dans la matière qui compose le patient et son environnement (lit, vêtements, parties
du scanner . . .) avant d’atteindre le détecteur. Les photons ɤ interagissent de
différentes manières avec la matière, mais dans notre cas le processus le plus
dominant est l’effet Compton.
• La diffusion Compton naît de la collision d’un photon avec un électron libre d’un
atome. Cette diffusion entraîne l’éjection de l’électron de l’atome (qui se
retrouve ionisé) et la diffusion du photon avec perte d’énergie. L’énergie
résultant E peut être calculée en appliquant les principes de conservation de
l’énergie et de la quantité de mouvement et est donnée par l’équation suivante :

𝐸0 (3.2.1)
𝐸=
1 + 𝛼(1 − cos(𝜃)

Plus l’angle de diffusion est important et plus l’énergie perdue par le photon est
importante. Par conséquent les photons diffusés, avec un angle trop important ou

10
plusieurs fois, peuvent atteindre le détecteur avec une énergie résultante trop faible
pour être détectée, ont dit alors qu’ils sont atténués.
Une paire de photons d’annihilation est considérée comme atténuée si au moins un
des deux photons a perdu trop d’énergie pour être détecté. En fonction de l’épaisseur
et du type de matière que les photons d’annihilations vont devoir traverser, une
fraction variable d’entre eux vont être atténués (diffusés ou absorbés) le long de leurs
trajets jusqu’au détecteur. Les annihilations qui se produisent à la surface du corps et
dont les photons d’annihilation se propagent dans des directions tangentes à cette
surface ont peu de matière à traverser et sont donc surreprésentées par rapport à
ceux émis au centre du corps. Cela va avoir pour effet de surestimer la concentration
de traceur à la surface de l’objet imagé, on peut l’observer dans la figure8. On appelle
cela l’effet de peau. Plus généralement, cette atténuation implique une variation de la
sensibilité de chaque paire de cristaux en fonction de la distribution de la matière
dans le champ de vue du scanner, qui vient s’ajouter à la sensibilité intrinsèque de
cette paire. L’effet Compton étant prédominant dans les tissus organiques à l’énergie
de 511 KeV, c’est principalement lui qui est responsable de l’atténuation.

La détection d’une coïncidence dont au moins un des deux photons d’annihilation a


été diffusé peut entraîner des erreurs importantes, comme représenté dans la figure 13.
On appelle ce type d’événement une coïncidence diffusée. Cette diffusion résulte de
l’effet Compton. Nous avons vu que la diffusion Compton est la source principale
d’atténuation. Cependant, pour des angles de diffusion faibles, les photons conservent
une énergie suffisante pour être détecté comme des photons non diffusés en raison de
la résolution énergétique limitée du détecteur.

Figure 8: Les photons ɤ (trajectoire en orange) peuvent être diffusés par le corps
du patient avant d’atteindre le détecteur et conduire à la détection d’une
coïncidence selon la LOR (en bleue) passant loin de la position d’émission du
positon.

11
4. Détection :

Figure 9 : Principe de la détection et localisation de coïncidence : deux détecteurs sont


touchés, l’annihilation du positron a eu lieu dans le tube reliant ces deux détecteurs.

La deuxième étape consiste donc en la détection de ces deux gammas de 511 keV,
émis en coïncidence. L’arrangement cylindrique de détecteurs autour du patient
permet de détecter des couples de gammas en coïncidence. Alors, connaissant la
position des détecteurs, l’annihilation du positron a eu lieu a priori dans l’élément de
volume reliant ces deux détecteurs (voir Figure 9).
En pratique, cet élément de volume est souvent assimilé à une ligne de réponse,
communément appelée LOR (pour Line Of Response). Cette LOR étant identifiée pour
chaque événement, reste à localiser la position de l’annihilation du positron le long de
la LOR. En théorie, en connaissant précisément le temps de détection de chacun des
détecteurs, la position tridimensionnelle est connue avec précision.
La détection des photons consiste en la conversion de ces derniers en signal
électrique mesurable, et proportionnel à l’énergie absorbée par le détecteur. Si dans
une fenêtre temporelle suffisamment courte (généralement 4 à 8 ns) deux gammas
sont détectés, alors on considère qu’il y a coïncidence.
Après avoir détecté toutes les coïncidences d’une acquisition donnée, vient l’étape de la
reconstruction tomographique.

12
5. Reconstruction tomographique :
Après détection des photons ɤ, une reconstruction tomographique est effectuée afin
d’obtenir des images. La localisation du point d’annihilation est déterminée par
l’intersection des lignes de coïncidence consécutives à de nombreux événements
radioactifs enregistrés par les détecteurs. Le nombre d’événements survenus pendant un
temps t permet de calculer la distribution et la concentration de la radioactivité dans le
volume des coupes définies par les couronnes pendant ce temps t. Les photons c émis au
niveau des différents organes vont traverser l’os et les tissus mous avant d’atteindre les
détecteurs. Au cours de ce trajet, ils vont subir une atténuation qui varie selon le trajet
emprunté, et en particulier avec l’épaisseur et la nature des différents tissus. Afin d’obtenir
une quantification exacte, plusieurs méthodes de correction de cette atténuation sont
utilisées. La plus courante consiste à mesurer un facteur de correction pour chaque ligne
de coïncidence (méthode dite de transmission). Avant chaque examen, une source externe
de rayons X (par exemple du Germanium 68) tourne autour de l’objet étudié permettant
d’obtenir une carte des coefficients d’atténuation de la radioactivité émise par cette source
sur chaque ligne de coïncidence et pour les caméras couplées à un scanner ce dernier est
utilisé pour corriger l’atténuation. Les informations obtenues par cette mesure sont ensuite
prises en compte lors de la reconstruction des images. Cette technique nécessite de faire
l’acquisition d’images dites de transmission, d’une durée variable (quelques minutes en
moyenne). Sont également utilisées des techniques automatiques de correction
d’atténuation basées sur des estimations mathématiques moyennes de l’atténuation. Ces
dernières sont moins précises, mais ne nécessitent pas la réalisation d’une image de
transmission. Elles permettent d’écourter la durée d’un examen en TEP.

La Figure 10 présente une image PET


typique, sur un patient de 55 kg, 60
minutes après injection de 18F-FDG [Surti
et Karp 2004]. Dans cet exemple, la
fixation du traceur est un indicateur d’une
forte concentration de sucres. Une fixation
anormalement élevée de ce traceur est
visible au niveau du foie. Elle révèle une
surconsommation de glucose et indique la
présence d’une lésion.
Figure 10 : Différentes coupes obtenues
avec un Philips Allegro 60 minutes après
injection de18F-FDG d’un patient de 55 kg
: on observe une lésion au foie, ainsi
qu’une fixation élevée dans le thorax

13
Chapitre 3: Application
La TEP a vu progressivement se diversifier son champ d’application et est
aujourd’hui principalement indiquée dans le domaine de l’oncologie.
Ce sont les indications en oncologie qui expliquent presque complètement l'essor
récent de la TEP et la place importante que cette technique d'imagerie a très
rapidement prise dans le diagnostic, le bilan d'extension et la surveillance
thérapeutique de nombreuses pathologies cancéreuses. Le principal traceur d’intérêt
en oncologie est le 18-fluoro-désoxy-glucose (18FDG) qui est un analogue structurel de
la molécule de glucose, dans laquelle un groupement hydroxyle (OH) a été remplacé
artificiellement par un atome de fluor 18 (18F) émetteur β+ de demi-vie 110 minutes.
Le 18FDG est capté par les cellules métaboliquement actives où il s’accumule car il ne
peut intégrer les voies métaboliques physiologiques du glucose (glycolyse, voie des
pentoses phosphates).
Les tissus particulièrement fixants seront donc entre autres les muscles (cardiaque
et squelettiques), le cerveau, les tissus lymphoïde et digestif. En outre, les cellules
tumorales malignes présentent un hypermétabolisme glucidique et une surexpression
des transporteurs du glucose (GLUT-1), faisant de la TEP un outil efficace dans la
recherche de formations néoplasiques (Fig. 8) parmi lesquelles on citera, de façon non
exhaustive : les cancers pleuro-pulmonaires, les cancers digestifs, les cancers des voies
aéro-digestives supérieures, le cancer de la thyroïde, les mélanomes, certains cancers
gynécologiques et les lymphomes.
L’examen TEP se révèle pertinent, en fonction des indications, à différents niveaux
de la prise en charge diagnostique et thérapeutique en oncologie :
• Diagnostic de malignité : pour l’identification d’une anomalie détectée lors d’un
précédent examen (échographie, radiographie) et pour la précision de sa nature
(tumeur maligne ou bénigne).
• Bilan d’extension initiale : pour évaluer l’étendue du cancer et rechercher
d’éventuelles métastases.
• Évaluation de la réponse thérapeutique et détection d’une éventuelle récidive.
• Guidage de biopsie.
• Optimisation des champs de radiothérapie.

Figure 11 : Imagerie multimodale TEP-TDM : mise en évidence d’une hyper-fixation du


18FDG correspondant à un lymphome parotidien.

14
CONCLUSION

La TEP est un outil performant qui, associe´ aux autres techniques d’imagerie, améliore
notre évaluation des gliomes.

La TEP 18-FDG peut apporter des renseignements utiles au clinicien (argument


pronostique, diagnostic de reprise évolutive), mais elle reste cependant limitée par la
forte consommation de glucose du cerveau sain. Ce n’est en aucun cas un standard validé
dans l’évaluation en routine des gliomes. À de nombreux égards la TEP 11C-MET est
beaucoup plus pertinente. Elle est cependant inaccessible pour la plupart des centres TEP
et on ne peut donc en espérer une utilisation en pratique courante. Les nouveaux traceurs,
notamment la 18-FET, constituent probablement une voie d’avenir, mais ils ne sont pas
encore validés en routine clinique.

La TEP est donc un outil qui, sur le principe, devrait améliorer la prise en charge de nos
patients. Seule l’absence de traceurs adaptés et disponibles freine son utilisation en
oncologie et le développement de nouveaux traceurs, dont certains sont en cours de
validation actuellement, représente un challenge passionnant. Il est probable que, dans
un avenir proche, nous pourrons envisager une utilisation en routine clinique de cette
technologie et améliorer ainsi la prise en charge de nos patients.

15
BIBLIOGRAPHIE
• La tomographie : Fondements mathématiques, imagerie microscopique et
imagerie industrielle Relié – 28 janvier 2002

• Awen Autret. Amélioration qualitative et quantitative de reconstruction TEP sur


plate-forme
graphique. Imagerie médicale. Télécom Bretagne; Université de Bretagne
Occidentale, 2015.

• Vincent Vandenbussche. Étude et développement d’un imageur TEP ambulatoire


pour le suivi thérapeutique individualisé en cancérologie. Physique Médicale
[physics.med-ph]. Université ParisSud - Paris XI, 2014.

• Noémie Emmanuel. Marquage de cycles aromatiques au 18F à partir de sels


d’iodonium pour la tomographie par émission de positons; Université de
liège,2016

16

Vous aimerez peut-être aussi