Vous êtes sur la page 1sur 168

I N N O VAT I O N

Ti958 - Innovations technologiques

Innovations en analyses
et mesures

Réf. Internet : 42112 | 4e édition

Actualisation permanente sur


www.techniques-ingenieur.fr
Tec h n ique s de l ’I n gé ni eur
La plus impor tante ressource documentaire scientifique
et technique en français

Une information fiable, claire et actualisée


Validés par un comité scientifique et mis à jour en permanence sur Internet,
les articles Techniques de l’Ingénieur s’adressent à tous les ingénieurs et
scientifiques, en poste ou en formation.
Outil d’accompagnement de la formation et de la carrière des ingénieurs,
les ressources documentaires Techniques de l’Ingénieur constituent le socle
commun de connaissances des acteurs de la recherche et de l’industrie.

Les meilleurs experts techniques et scientifiques


Plus de 200 conseillers scientifiques et 3 500 auteurs, industriels, chercheurs,
professeurs collaborent pour faire de Techniques de l’Ingénieur l’éditeur
scientifique et technique de référence.
Les meilleurs spécialistes sont réunis pour constituer une base de
connaissances inégalée, vous former et vous accompagner dans vos projets.

Une collection 100 % en ligne


• Accessibles sur www.techniques-ingenieur.fr, les dernières nouveautés et
actualisations de votre ressource documentaire
• Les articles téléchargeables en version PDF

Des services associés


Rendez-vous sur votre espace « Mon compte » en ligne pour retrouver la liste
des services associés à vos droits d’accès et les utiliser.

 Des services associés


Pour toute information, le service clientèle reste à votre disposition :
Tél : 01 53 35 20 20 l Fax : 01 53 26 79 18 l Mail : infos.clients@teching.com

III
Cet ouvrage fait par tie de
Innovations technologiques
(Réf. Internet ti958)
composé de  :

Les grands événements de l'année Réf. Internet : 42625

Innovations marquantes (E-pub) Réf. Internet : 42624

Innovations en énergie et environnement Réf. Internet : 42503

Innovations en matériaux avancés Réf. Internet : 42186

Innovations en analyses et mesures Réf. Internet : 42112

Innovations en électronique et TIC Réf. Internet : 42257

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

IV
Cet ouvrage fait par tie de
Innovations technologiques
(Réf. Internet ti958)

dont les exper ts scientifiques sont  :

Annie BAUDRANT
Ingénieur au CEA (Commissariat à l'énergie atomique et aux énergies
renouvelables), LÉTI (Laboratoire d'électronique et de technologie de
l'information)-DIR

Gwenola BURGOT
Professeur à l'université de Rennes 1

Jean-Marc FRIGERIO
Professeur à l'université Pierre-et-Marie-Curie, INSP (Institut des nanosciences
de Paris)

Frédéric MAZALEYRAT
Professeur à l'ENS de Cachan, chercheur au SATIE-ENS Cachan (Systèmes et
applications des technologies de l'information et de l'énergie-École normale
supérieure de Cachan)

Pierre MONSAN
Professeur à l'INSA (Institut national des sciences appliquées) de Toulouse et
à l'École des Mines de Paris, membre de l'Institut universitaire de France et de
l'Académie des technologies

Alain THOREL
Directeur de recherche à Mines ParisTech

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

V
 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

VI
Innovations en analyses et mesures
(Réf. Internet 42112)

SOMMAIRE

1– Analyse en biologie et en médecine Réf. Internet page

Thérapie photodynamique : évolution chimique des photosensibilisateurs IN161 11

Spectroscopie de plasma induit par laser (LIBS) pour le diagnostic chimique et P151 15
biologique
Microfluidique et ADN tumoral. Apport de la PCR digitale RE241 17

Miniaturisation des essais enzymatiques par électrophorèse capillaire IN178 21

Contrôle optimal : une nouvelle approche pour améliorer la qualité des images en IRM IN211 25

L’électrochimiluminescence : une méthode de choix pour la bioanalyse P156 29

NewSpace : mieux comprendre le vivant grâce à la micropesanteur IN242 31

NewSpace : fonctionnement des laboratoires en micropesanteur IN243 35

CDMS – Spectrométrie de masse à détection de charge P2717 41

Détection et dosage de molécules dans les cheveux dans le domaine médicojudiciaire P158 45

2– Analyse dans l'agroalimentaire Réf. Internet page

Compléments alimentaires à visée cosmétique : efficacité et risques pour le P152 49


consommateur
Les substances préoccupantes provenant des matériaux au contact des aliments P153 51

Spectrométrie d'émission induite par laser appliquée à l'authentification des vins P154 53

Application des isotopes stables à l'authentification des vins au Service commun des P155 55
laboratoires
Bioessais et biocapteurs : outils d'analyse des toxines dans l'agroalimentaire RE225 57

Agriculture de précision. Etude des variabilités spatio-temporelles des agrosystèmes IN238 61

3– Analyse pour l'environnement et la sécurité Réf. Internet page

Analyse non destructive de stupéfiants par spectroscopie RAMAN P148 67

Détection neutronique de matières illicites avec la technique de la particule associée RE177 69

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

VII
Capteur de force innovant. Application au pesage ferroviaire et routier IN148 75

Identification des odeurs humaines par les chiens policiers RE182 79

Spectroscopie microonde P2875 83

Mortalités massives aigües d’abeilles. La spectrométrie de masse comme outil P157 87


d’investigation

4– Analyse en matériaux et en chimie Réf. Internet page

Spectromètres RMN de paillasse pour l’analyse en ligne de réactions en flux continu J8015 91

Spectroscopie de diffusion Raman en conditions extrêmes IN164 95

RMN large bande des noyaux quadripolaires en phase solide : exemple du IN166 99
strontium-87
AFM-IR : caractérisation chimique à l’échelle nanométrique IN224 105

Caractérisation par spectroscopie infrarouge de matériaux cimentaires IN237 109

Détection d’hydrates par activation neutronique dans des pipelines sous-marins IN249 113

Avancées technologiques des sources et capteurs térahertz. Vers le transfert industriel P2145 117

Apport de la caractérisation in situ dans les procédés ALD RE263 123

Le rayonnement térahertz pour l'analyse des matériaux du patrimoine culturel RE213 127

La Joconde analysée à l'aide d'une caméra multispectrale RE140 133

Tomographie à l'aide de rayons Terahertz RE172 137

Analyse de tableaux de Léonard de Vinci par spectrométrie de fluorescence des rayons RE200 141
X
Méthodes de spectroscopie d'absorption X pour l'analyse des matériaux du RE214 145
patrimoine
Analyse non destructive des objets d'art par méthodes spectroscopiques portables RE217 151

Analyse de la perte de couleur des peintures au smalt par spectroscopie d'absorption RE211 157
X
Restauration des peintures au plomb par irradiation laser RE224 161

Imagerie par spectrométrie de masse TOF-SIMS pour l’analyse de tableaux anciens RE274 165

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
Innovations en analyses et mesures
(Réf. Internet 42112)

1
1– Analyse en biologie et en médecine Réf. Internet page

Thérapie photodynamique : évolution chimique des photosensibilisateurs IN161 11

Spectroscopie de plasma induit par laser (LIBS) pour le diagnostic chimique et P151 15
biologique
Microfluidique et ADN tumoral. Apport de la PCR digitale RE241 17

Miniaturisation des essais enzymatiques par électrophorèse capillaire IN178 21

Contrôle optimal : une nouvelle approche pour améliorer la qualité des images en IRM IN211 25

L’électrochimiluminescence : une méthode de choix pour la bioanalyse P156 29

NewSpace : mieux comprendre le vivant grâce à la micropesanteur IN242 31

NewSpace : fonctionnement des laboratoires en micropesanteur IN243 35

CDMS – Spectrométrie de masse à détection de charge P2717 41

Détection et dosage de molécules dans les cheveux dans le domaine médicojudiciaire P158 45

2– Analyse dans l'agroalimentaire

3– Analyse pour l'environnement et la sécurité

4– Analyse en matériaux et en chimie

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

9
1

10
Référence Internet
IN161

INNOVATION

Thérapie photodynamique :
évolution chimique 1
des photosensibilisateurs

par Cyrille MONNEREAU


Docteur en sciences chimiques de l’université de Nantes
Maître de conférences avec chaire CNRS à l’École normale supérieure de Lyon
Chercheur au laboratoire de chimie de l’ENS Lyon (université Lyon 1, UCBL),
UMR5182 équipe « Chimie Pour l’Optique »
et Chantal ANDRAUD
Docteur en sciences chimiques de l’université Paris VI
Directrice de recherche au CNRS
Directrice du laboratoire de chimie de l’ENS Lyon (université Lyon 1, UCBL), UMR5182
Responsable de l’équipe « Chimie Pour l’Optique »

Résumé : La thérapie photodynamique (PDT) connaît depuis une trentaine d’années


un essor constant, l’imposant définitivement comme une alternative thérapeutique
majeure dans le traitement de nombreux cancers. À l’origine de cet essor, la
compréhension des processus physico-chimiques mis en jeu lors de la PDT et l’identifi-
cation des paramètres permettant d’améliorer son efficacité ont conduit à une
optimisation spectaculaire de la structure des photosensibilisateurs mis en jeu. Cette
revue fait le point sur ces évolutions et présente les dernières stratégies mises en
œuvre dans ce cadre.

Abstract : Photodynamic therapy has been strongly emerging within the last thirty
years, and has now become a major alternative approach in the treatment of a number
of cancers. At the origin of this emergence, progress in the comprehension of the
physico-chemical process that lead to the photodynamic effect, and a better knowledge
of the parameters that can improve a PDT treatment, led to as spectacular evolution of
the photosensitizer’s structures. In this review, we will present those evolution, along
with emerging research strategies within that framework.

Mots-clés : thérapie du cancer, lumière, photosensibilisateurs, oxygène singulet,


photochimiothérapie, photodiagnostique

Keywords : cancer therapy, light, photosensitizers, singlet oxygen, photochemo-


therapy, photodiagnostic
Parution : mai 2013

5 - 2013 © Editions T.I. IN 161 - 1

11
Référence Internet
IN161

INNOVATION

Points clés
Domaine : Techniques non invasives de thérapie du cancer

1 Degré de diffusion de la technologie : Émergence | Croissance | Maturité


Technologies impliquées : synthèse chimique, technologies diodes et lasers,
(bio)photonique
Domaines d’application : thérapie non chirurgicale du cancer et de maladies
liées au vieillissement cellulaire
Principaux acteurs français :
Pôles de compétitivité :
Centres de compétence : 60 centres hospitaliers équipés en France (leader : CHU
d’Angers – service d’urologie) ; unité « Conception Synthèse et vectorisation de
biomolécules (CNRS UMR 176, Institut Curie, Paris, France) ; laboratoire de Chimie
de l’ENSL (UMR 5182, ENSL, université de Lyon, France)
Autres acteurs dans le monde :
Centres de recherche hospitaliers : PhotoDynamic Therapy Center (Roswell Park
Cancer Institute, Buffalo) ; PhotoDynamic Therapy Center-LW Jenkins Cancer
Center (Pitt County Memorial Hospital-BrodyScool of Medicine, East Carolina
University) ; Moscow PA Gertsen Oncology Research Institute ; Department of
Cancer Research and Molecular Medicine (Norwegian University of Science and
Technology, NTNU, Trondheim)
Photosensibilisateurs : Draxis Pharma, Axcan Pharma, Novartis, Biolitec Pharma,
DUSA, Galderma
Sources lumineuses : Coherent Inc., Biolitec, Photocure, PhotoMedex
Contact : cyrille.monnereau@ens-lyon.fr, chantal.andraud@ens-lyon.fr

1. Thérapie photodynamique (PDT) : spécifique d’interagir avec la lumière pour générer l’effet
thérapeutique désiré, ne fut introduite que quelques années
contexte historique et principes plus tard, au tournant du vingtième siècle, par Raab et Van
Tappeiner [8] [9].
1.1 PDT : histoire d’une (re)découverte En 1900, Oscar Raab, étudiant au département de pharma-
cologie de l’université de Munich dans le groupe d’Hermann
1.1.1 De l’antiquité Van Tappeiner, essaie de caractériser l’influence d’un composé
chimique, l’acridine, sur le développement de Plasmodium
Les pigments extraits de végétaux sont utilisés depuis l’anti- Malariae, une paramécie responsable de la malaria. Très rapi-
quité pour le traitement d’affections de la peau, ainsi qu’en dement, Raab constate que, selon l’heure de la journée et les
attestent divers traités anciens de médecine indienne, conditions atmosphériques, l’impact de l’acridine administrée
chinoise, ou égyptienne [1]. Une forme de médecine tradi- sur la survie des micro-organismes semble extrêmement
tionnelle indienne, l’Ayuverda, utilise depuis près de 4 000 ans variable. Il parvient rapidement à démontrer que le méca-
la psoralea coryfolia, plante de la famille des papillonacées, nisme de mort cellulaire induit par l’acridine nécessite l’acti-
dans divers traitements dermatologiques. Nous savons vation par une irradiation lumineuse. Un peu plus tard, Van
aujourd’hui que cette plante contient des quantités importan- Tappeiner identifie le troisième élément (avec le photosensibi-
tes de psoralène, un photosensibilisateur absorbant dans lisateur et la source lumineuse) impliqué dans le mécanisme
l’UV [1] [2]. Ce photosensibilisateur, bien que relativement photo-induit, l’oxygène. Il propose le terme de « thérapie
éloigné en termes d’efficacité des critères en vigueur, est photodynamique » (photodynamishe wirkung dans le texte
toutefois encore utilisé, sous sa forme synthétique, pour le original) pour qualifier l’ensemble des protocoles thérapeu-
traitement d’affection bénignes du type psoriasis, eczéma, tiques impliquant ces trois éléments [10]. Cela le conduit à
vitiligo et même certains cas de lymphomes du derme, suivant établir dès 1903 le premier traitement de cancer de la peau
un protocole désigné sous la désignation générale de basé sur l’irradiation d’un photosensibilisateur, l’éosine [9].
« PUVA » (pour psoralène +UV-A) [3] [4] [5]. Une résorption totale de la tumeur est observée pour quatre
des six patients, un succès très impressionnant, si l’on tient
1.1.2 ...aux temps modernes compte des connaissances encore pour le moins rudimentaires
L’intégration des concepts de « photothérapie » puis de des processus mis en jeu.
« photosensibilisation » à la médecine moderne occidentale
est beaucoup plus récente, puisqu’elle trouve son origine dans 1.2 Processus photodynamique
les travaux de Niels Finsen, médecin danois ayant démontré
dès 1890 l’influence positive de la lumière sur les processus L’identification de l’effet photodynamique, et des trois
de cicatrisation (prix Nobel de médecine en 1903) [6] [7]. composantes essentielles à son établissement (lumière, photo-
Toutefois, la notion de photosensibilisateur exogène, sensibilisateur, oxygène moléculaire), a immédiatement
c’est-à-dire de molécule thérapeutique introduite dans le but amené un grand nombre de chercheurs issus de différents

IN 161 - 2 © Editions T.I. 5 - 2013

12
Référence Internet
IN161

INNOVATION

3σu 3σu Oxygène

1
S1 singulet
cytotoxique
πga πgb πga πgb T1


g
Transfert 1∆
lumière g
d’énergie
πua πub πua πub
S0 3Σ
3σg 3σg g

Photosensibilisateur Dioxygène
2σu 2σu
c

2σg 2σg 1O
3∑ 1∆ O 2
g g O
O2 O2 OH
N OH
Histidine : N
NH2 O NH2
N N
a b H OH
H
O O
Méthionine : OH OH
S S
NH2 NH2
O

Figure 1 – Structure électronique de l’oxygène (a) à son état fondamental 3 ⌺g (b) à son état excité de plus basse énergie 1 ⌬ g . (c)
mécanisme de photosensibilisation photo-induite (d) exemple de photo-dommages occasionnés par l’oxygène sur les acides aminés

horizons scientifiques (biologie, physiologie, spectroscopie, électrons appariés et de spin opposé, résultant en une multi-
physique et chimie) à s’interroger sur les mécanismes impli- plicité de spin de type singulet, diamagnétique) [13]. Cinq ans
qués dans ce phénomène [11]. plus tard, un autre physico-chimiste américain, Robert Mulli-
Si nous évacuons immédiatement les questions ayant trait ken, dont les travaux révolutionnaires sur les orbitales électro-
aux problématiques de localisation du photosensibilisateur et niques moléculaires devaient quelques années plus tard lui
diffusion de l’oxygène au sein des cellules cancéreuses, ainsi valoir le prix Nobel, fut en mesure, grâce à l’approche théo-
que celles se rapportant aux mécanismes de mort cellulaire rique qu’il avait développée, de proposer une structure de
initiés par l’effet photodynamique [10], il convient de s’attar- l’oxygène permettant d’expliquer le spectre d’absorption élec-
der plus longuement sur l’émergence du modèle mécanistique tronique de l’oxygène atmosphérique [14]. Cette structure,
désormais admis pour la photosensibilisation de l’oxygène. décrite dans la figure 1a, faisait figurer, en plus de l’état
C’est en effet la compréhension fine de ce mécanisme qui a triplet fondamental, deux états excités singulets de spin
permis d’initier le travail de conception des premiers (figure 1b).
photosensibilisateurs [12] et d’entreprendre les optimisations En 1931, le groupe de Kautsky à Heidelberg suggéra, après
de leur formulation qui seront discutées plus tard. étude du mécanisme d’oxydation photo-induite de la leucoma-
lachite green, que la réactivité particulière observée ne
1.2.1 Histoire d’une controverse pouvait s’expliquer que par la formation intermédiaire
d’oxygène singulet. Ils démontrèrent par ailleurs que cette
Afin de comprendre la nature de la controverse mentionnée
espèce pouvait diffuser sur plusieurs mm au sein du milieu
dans le titre de cette section, il est impératif de rappeler que
cellulaire, expliquant rétrospectivement l’efficacité remar-
la structure exacte de l’oxygène était encore inconnue à l’épo-
quable du traitement [15].
que de la découverte de l’effet photodynamique. Ce n’est
qu’en 1924 que le physico-chimiste Gilbert Newton Lewis, Ce modèle eut néanmoins du mal à s’imposer auprès de la
précurseur dans l’étude de la structure électronique des ato- communauté grandissante des chercheurs travaillant sur la
mes et initiateur de la théorie qui porte son nom, proposa une compréhension du phénomène. En particulier, cette théorie fut
structure électronique de type triplet pour l’état fondamental mise à mal par les travaux de Gaffron, montrant qu’une irra-
de l’oxygène, c’est-à-dire une structure présentant deux élec- diation d’une hématoporphyrine dans sa bande d’absorption
trons des couches externes de la molécule non appariés et de infrarouge située à 820 nm (équivalent à une énergie de
même spin (ou paramagnétique ; la plupart des molécules 35 kcal/mol) conduisait à la formation d’une espèce oxydante,
organiques stables possédant, dans leur état fondamental, des bien que l’énergie fournie au système soit inférieure à celle

5 - 2013 © Editions T.I. IN 161 - 3

13
1

14
Référence Internet
P151

Spectroscopie de plasma induit


par laser (LIBS) pour le diagnostic
chimique et biologique 1

par Philippe ADAM


DGA/DS/MRIS, Bagneux
et Nicolas LEONE
DGA/DT/DGA MN, Vert le Petit

1. Contexte...................................................................................................... P 151 - 2
2. Principe ....................................................................................................... — 2
3. Applications de la LIBS........................................................................... — 4
3.1 Considérations sur les aspects traitement ................................................. — 4
3.2 Quelques exemples d’applications............................................................. — 4
3.2.1 Calibrage sur gaz alcanes et chlorofluorocarbones (CFC) ............... — 4
3.2.2 Analyse biologique sur boîte de Pétri ............................................... — 5
3.2.3 Aérosols biologiques .......................................................................... — 6
4. Conclusions................................................................................................ — 7
Pour en savoir plus ........................................................................................... Doc. P 151

ans la perspective de l’analyse chimique et du diagnostic, le laser


D constitue un outil privilégié, permettant d’effectuer des opérations de
détection et d’identification dans des conditions d’environnement très variées.
Parmi les avantages pratiques des mesures par techniques lasers : l’analyse in
situ et sans prélèvement ni contact, la rapidité d’acquisition des informations
et l’utilisation pour des analyses locales ou à distance.
Dans cet article, nous illustrerons par des exemples pratiques les perfor-
mances de la spectrométrie plasma induite par laser (Laser Induced
Breakdown Spectroscopy – LIBS). Après avoir présenté les principes et les per-
formances (calibrage, analyse qualitative et/ou quantitative) de cette technique,
nous rapporterons des résultats expérimentaux dans des domaines variés tels
que la détection et l’identification des aérosols chimiques ou le diagnostic
bactérien.
Cet article est extrait de la revue « Annales des falsifications, de l’expertise
chimique et toxicologique » no 977 éditée par la SECF (Société des experts chi-
mistes de France).
Parution : mai 2013

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


est strictement interdite. – © Editions T.I. P 151 – 1

15
Référence Internet
P151

SPECTROSCOPIE DE PLASMA INDUIT PAR LASER (LIBS) POUR LE DIAGNOSTIC CHIMIQUE ET BIOLOGIQUE ___________________________________________

1. Contexte De plus, l’utilisation de lasers pulsés pour la LIBS permet d’analyser


l’évolution temporelle (et spatiale) des émissions lumineuses et cela
de façon parfaitement reproductible de tir à tir, à la cadence de répéti-
La spectroscopie de plasma induit par laser (Laser-Induced tion du laser. Cette technique s’appelle « TRELIBS » (Time-REsolved
Breakdown Spectroscopy, ou l’acronyme LIBS) est basée sur l’infor- LIBS).
mation émise lors de l’interaction laser-matière. Ce phénomène a
été observé peu de temps après l’invention du laser (amplification
de la lumière par émission stimulée de rayonnement) par Maiman

1 en 1960. Il est décrit indirectement la première fois par des travaux


américains en 1962 avec un maser, dispositif ancêtre du laser et per-
mettant d’émettre un faisceau cohérent de micro-ondes [1]. C’est
2. Principe
Le principe général de la méthode LIBS consiste, dans des
cependant une équipe française qui en 1963 va publier la première
exploitation analytique de ce type d’interaction laser-matière [2]. conditions ambiantes de températures et de pression, à focaliser
Lorsque de la matière reçoit une quantité d’énergie supérieure à un un faisceau laser de durée, de longueur d’onde et d’énergie
niveau appelé « seuil de claquage » (dépendant des matériaux et connues sur (ou dans) la cible à analyser [3]. Dans ces conditions
des phases), on obtient la rupture des atomes et des molécules avec d’irradiation intenses, les fluences (puissance par unité de surface)
formation d’ions et d’électrons. Au point focal, il y a alors formation induites sont de l’ordre de plusieurs dizaines de MW/cm2. Il en
d’un microplasma de haute énergie. Après cette phase initiale, le résulte une vaporisation immédiate de quelques microgrammes
plasma se relaxe par recombinaisons radiatives (émissions lumi- de matière au point focal et la fragmentation des molécules avec
neuses). C’est l’analyse par spectroscopie de ces émissions qui per- formation d’un système atomes-ions-électrons, c’est-à-dire la for-
met de remonter à la composition du milieu initial. mation d’un plasma dense ayant une composition représentative
de la cible étudiée (gaz, liquide, solide, aérosols, etc.) (figure 1).
À la fin des années 1970 et au début des années 1980, les évolu-
tions technologiques font apparaître des lasers robustes à pulses Après la phase initiale d’allumage du plasma, les espèces sont
reproductibles*, ainsi que des détecteurs sensibles et intensifiés générées hors d’équilibre, dans des états excités. La désexcitation
pour la détection spectrométrique hautement sensible. La caracté- radiative de ces états provoque des émissions lumineuses intenses
risation des plasmas induits par laser prend dès lors son essor. caractéristiques de transitions électroniques intrinsèques de la
L’exploitation des informations qualitatives et quantitatives issues structure de la matière excitée. Elles sont émises dans toutes les
du plasma ouvre la voie à une technique analytique émergente directions de l’espace. En collectant une partie de cette énergie
offrant de très nombreux avantages : lumineuse, par exemple à l’aide de fibres optiques, et en la diri-
– versatilité : la LIBS est applicable à tout type de milieu, liquide, geant vers un spectromètre, on peut analyser la signature spec-
solide, aérosols ou gaz/vapeurs ; trale des espèces et avoir ainsi accès à la composition initiale.
– pas d’échantillonnage manuel, éliminant les risques de mani- L’identification à la fois qualitative et quantitative est alors possible
pulations dangereuses et la mise en œuvre de procédures lourdes en considérant les temps de relaxation différents suivant les
de prélèvement. Le plasma est créé localement sur (ou dans) le espèces, ioniques, atomiques et moléculaires.
matériau à analyser et l’observation s’effectue purement par voie
optique, d’où la possibilité d’analyse in situ et à distance ; La compréhension des interactions laser-matière, la détection,
– technique d’analyse multiéléments. Le claquage génère une l’analyse et le diagnostic des « situations » chimiques ou bactério-
température très élevée (~ 15 000 K), permettant l’atomisation et logiques, industrielles ou militaires, imposent de considérer des
l’ionisation des molécules dans le plasma, y compris les atomes « échantillons » non prélevés et sous leur forme physique initiale
les plus électronégatifs tels que chlore et fluor. Ces caractéris- (gaz, surface, liquide et aérosol). Cela exige donc la conception
tiques thermiques donnent accès à la détection de quasiment tous d’un outil analytique qui assemble plusieurs sous-systèmes (laser,
les éléments du tableau périodique, avec des seuils de sensibilité optiques, spectromètre, détecteur, algorithme de traitement des
entre le ppb et le ppm ; données spectrales).
– technique quasi non destructive : le plasma généré occupe un
Ces matériels (tableau 1) sont aujourd’hui disponibles commercia-
volume de quelques mm3, et les dimensions de la zone ablatée (sur
lement avec un choix assez large. Le développement actuel de la
surface) sont de quelques microns, en diamètre et profondeur ;
LIBS comme moyen analytique (de laboratoire ou de terrain) résulte
– technique de mesure très rapide : le temps d’analyse est de
très directement de la disponibilité sur étagère de tous ces
quelques microsecondes permettant d’envisager des analyses en
équipements : il y a encore 20 ans, ce genre de technologie n’existait
temps réel.
pas ou ne présentait ni la compacité, ni la robustesse nécessaires.
Nota : * dans cet article, on s’intéressera aux plasmas thermiques produits par inter-
action laser-matière et en mode pulsé. D’autres techniques de création de plasmas existent Sur ces considérations, on peut proposer une structure
(exemple : plasma couplé par induction ou ICP – cf. références citées dans l’article). commune pour la conception d’un banc LIBS.

Laser
Laser
Cible Laser

1 mm

Vapeurs/gaz toxiques Surface contaminée, multicouche, Gaz chargé de particules


dans une atmosphère ou inconnue solides/liquides (aérosols)

Figure 1 – Schémas de principe des différentes interactions possibles entre un pulse laser focalisé et la phase physique d’un échantillon

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


P 151 – 2 est strictement interdite. – © Editions T.I.

16
Référence Internet
RE241

RECHERCHE

Microfluidique et ADN tumoral


1
Apport de la PCR digitale

par Philippe NIZARD


Ingénieur de recherche au sein de l’UMRS1147, Université Sorbonne Paris Cité,
INSERM UMR-S1147, centre universitaire des Saints-Pères, Paris, France
Aurélie KROL
Ingénieur de recherche au sein de l’UMRS1147, Université Sorbonne Paris Cité,
INSERM UMR-S1147, centre universitaire des Saints-Pères, Paris, France
Pierre LAURENT-PUIG
PU-PH, Directeur de l’UMRS1147, Université Sorbonne Paris Cité, INSERM
UMR-S1147, centre universitaire des Saints-Pères, Paris, France
et Valérie TALY
Chargée de recherche CNRS (CR1)
Responsable du groupe « Recherche translationnelle et microfluidique », Université
Sorbonne Paris Cité, INSERM UMR-S1147, centre universitaire des Saints-Pères,
Paris, France

Résumé : la PCR (réaction de polymérisation en chaîne) digitale représente un saut


technologique dans la détection et la quantification de séquences rares d’ADN, comme
certaines mutations spécifiques des tumeurs. La détection de ces séquences est d’un
grand intérêt pour la prise en charge clinique des patients. En effet, leur détection dans
les tumeurs ou les fluides biologiques, comme le plasma ou l’urine, pourrait permettre
d’adapter le traitement aux caractéristiques moléculaires précises de la tumeur et de
limiter les risques de récidive. Après une rapide présentation du contexte des recher-
ches, l’article se penche sur le cancer et ses biomarqueurs, afin d’enchaîner sur
l’émergence de la PCR digitale, et enfin explore les perspectives et potentielles évolu-
tions de la PCR digitale.

Abstract : Digital PCR (Polymerase Chain reaction) represents a way of crossing the
technological gap in detection and quantification of rare DNA sequences, like mutations
found in tumors. Detection of these rare sequences is of high importance to improve
cancer patient care. Indeed, their detection in tumors or in biological fluids such as
plasma or urine could allow the adaptation of treatment to the precise molecular cha-
racteristics of the tumor as well as to limit risks of recurrence, and therefore to
increase patient survival. After a rapid introduction of the described research, this
article discusses cancer and its biomarkers, and follows with the emergence of digital
PCR, and lastly explores the perspectives and potential evolutions of digital PCR.

Mots-clés : Cancer, biomarqueur, PCR digitale, microfluidique, gouttelettes, PCR en


microgouttelettes

Keywords : Cancer, Biomarker, Digital PCR, Microfluidics, Droplets, Droplet-based


digital PCR
Parution : février 2015

2 – 2015 © Editions T.I. RE 241 - 1

17
Référence Internet
RE241

RECHERCHE

Points clés
Domaine : Analyse génétique

1 Degré de diffusion de la technologie : Émergence | Croissance | Maturité


Technologies impliquées : Microfluidique, PCR digitale, PCR, PCR quantitative,
biologie moléculaire
Domaines d’application : Recherche de biomarqueurs du cancer
Principaux acteurs français : GDR Micro et Nano Fluidique
Contact : philippe.nizard@parisdescartes.fr ; valerie.taly@parisdescartes.fr

1. Contexte 2.1 Bases moléculaires du cancer


et biomarqueurs
L’utilisation de la microfluidique a été récemment validée
dans des tests de criblage haut débit et dans des tests dia- Les causes de ce dysfonctionnement cellulaire sont dues à
gnostiques. En particulier, la microfluidique en gouttelettes, des altérations de gènes liés à la prolifération ou à la mort
qui utilise des gouttes de l’ordre du nanolitre (nL) au picolitre cellulaire. Il peut s’agir, entre autres, de délétions, de muta-
(pL) comme compartiments réactionnels pour des réactions tions ponctuelles, de réarrangements chromosomiques,
biologiques, a démontré sa pertinence dans de nombreux d’amplifications ou de modifications épigénétiques.
champs d’applications.
Par exemple, la compatibilité des matériaux utilisés avec
l’incubation de matériel biologique vivant a permis d’adapter
§ La mutation est un changement d’un ou quelques
nucléotides dans un gène. Cette altération peut, par
des tests de cytotoxicité au format microfluidique, pour le cri-
exemple, entraîner une modification de la protéine produite
blage d’antibiotiques sur des bactéries [1] ou de médicaments
à partir de ce gène, qui peut perdre certaines de ces fonc-
sur des cellules eucaryotes [2].
tions et/ou en gagner de nouvelles ou modifier son niveau
Une autre de ces applications, qui sera développée ici, est la de régulation.
réaction de polymérisation en chaîne (PCR) au format digital
qui consiste à réaliser la réaction de PCR dans un grand § L’amplification génique correspond à une augmenta-
nombre de compartiments (entre des centaines et des millions tion du nombre de copies d’un ou plusieurs gènes présents
de compartiments). La distribution de l’échantillon dans ces dans la cellule (comparé aux deux copies présentes dans
compartiments est réalisée de manière à n’avoir, idéalement, une cellule saine). Cette amplification peut aboutir à une
au plus qu’une seule séquence cible par compartiment. La lec- surproduction des protéines codées par ces gènes.
ture des résultats est réalisée par le comptage du nombre de
compartiments positifs (où une amplification a eu lieu) et le
§ La translocation chromosomique est un réarrange-
ment majeur des chromosomes, où un fragment de chro-
nombre de compartiments négatifs.
mosome est transféré sur un autre chromosome. Ce
La PCR digitale utilisée comme outil de détection quantita- réarrangement peut entraîner un changement du niveau
tive de séquences rares d’ADN pourrait avoir un impact impor- d’expression des gènes contenus sur les fragments échan-
tant en médecine dans la détection de virus [3], le diagnostic gés, ou entraîner la production de protéines nouvelles chi-
prénatal [4] et en oncologie [5]. C’est ce dernier domaine mériques aberrantes.
d’application qui sera développé dans le reste de cet article.
§ Les modifications épigénétiques sont des modifica-
tions transmissibles et réversibles de l’expression des
2. Cancer et biomarqueurs gènes sans changements des séquences nucléotidiques.

Depuis quelques années, le cancer est devenu la première Les altérations génétiques étant présentes uniquement
cause de mortalité, devançant les maladies cardiovasculaires. dans les cellules tumorales et pas dans les cellules saines,
Il est la cause d’un tiers des décès masculins et d’un quart des elles constituent des marqueurs spécifiques de cancer.
décès féminins. En 2012 en France, 355 000 nouveaux cas de
cancers ont été diagnostiqués, et 148 000 personnes en sont Par définition, les biomarqueurs sont des paramètres bio-
mortes. logiques mesurables et quantifiables, comme les mutations
présentes dans l’ADN (mais aussi les taux d’expression d’ARN
Le cancer est une maladie où certaines cellules anormales
(acide ribonucléique) messagers (ARNm) ou la présence de
se multiplient de manière anarchique et acquièrent la capacité
protéines ou de métabolites...).
d’infiltrer et de détruire les tissus sains pour former une
tumeur. Les nouvelles technologies de séquençage ont permis Les marqueurs génétiques permettent la caractérisation des
de mettre en évidence un réseau complexe d’altérations tumeurs à l’échelle moléculaire, ce qui donne la possibilité de
génétiques présentes dans les cellules cancéreuses et absen- prédire la sensibilité ou la résistance à certains traitements.
tes des cellules saines. Or, selon les altérations présentes, le Leur caractérisation permet désormais de proposer des traite-
pronostic et la réponse aux traitements pourront être diffé- ments personnalisés aux patients dans le cadre de la méde-
rents. Par conséquent, leur détection précoce permet désor- cine personnalisée ou médecine de précision, ce qui a entraîné
mais de proposer le traitement le plus adapté dans le cadre de des améliorations importantes dans la prise en charge des
thérapies dites « ciblées ». patients et dans leur survie.

RE 241 - 2 © Editions T.I. 2 – 2015

18
Référence Internet
RE241

RECHERCHE

Ces biomarqueurs peuvent permettre par exemple : ver les structures cellulaires et intracellulaires. Si la cryo-
– de déterminer la présence, ou le stade de la maladie conservation des échantillons garantit un rendement maximal
avant le début du traitement (biomarqueurs diagnostiques) ; et une bonne qualité des acides nucléiques, ce n’est pas le cas

1
– de prédire la réponse à certains traitements (biomar- pour les tissus fixés et conservés en paraffine. L’ADN extrait à
queurs prédictifs) ; partir de ces échantillons est souvent dégradé et son
– de suivre l’évolution de la maladie tout au long de la prise utilisation dans des techniques d’amplification par PCR peut
en charge du patient (biomarqueurs pronostiques) [6] [7]. s’avérer difficile. De plus, l’analyse de l’ADN extrait de plu-
sieurs échantillons de mêmes tumeurs a révélé une hétéro-
Idéalement pour une utilisation clinique, ces biomarqueurs
généité clonale au sein de ces différents échantillons [10].
doivent être détectables le plus tôt possible au cours de la
maladie pour permettre la prise en charge la plus efficace. Le Les échantillons d’ADN peuvent provenir d’autres sources
test de détection doit être facilement réalisable, rapide, fiable, que les tissus, notamment de fluides biologiques comme le
très sensible et spécifique et doit avoir un coût raisonnable sang. En effet, les acides nucléiques provenant de la tumeur
pour une utilisation en pratique clinique. sont trouvés dans le sang des patients en plus de l’ADN pro-
Dans le cas de la détection de mutations de séquences venant de cellules saines. Les quantités d’ADN circulant
d’ADN ou de la mesure des taux d’expression des ARNm, les varient beaucoup selon les études ; pour des patients atteints
techniques les plus utilisées sont basées sur la PCR qui, dans de cancers, ces quantités varient de 0 à plus de 1 000 ng par
sa forme traditionnelle, a un certain nombre de limitations mL de sang. En comparaison, pour les patients sains ces
techniques (voir plus bas) [8] [9]. concentrations varient de 0 à 100 ng d’ADN par mL de
sang [11]. La caractérisation des biomarqueurs tumoraux à
partir des échantillons de sang pourrait être plus représenta-
2.2 Origine biologique des échantillons tive de la tumeur du patient en tenant compte à la fois de
à tester l’hétérogénéité clonale de la tumeur, et d’éventuelles
métastases ou d’autres foyers tumoraux (figure 1) [12].
Les tests de caractérisation des altérations génétiques
somatiques sont généralement réalisés à partir de l’ADN Ainsi, l’ADN extrait à partir d’échantillons biologiques est
extrait des cellules tumorales obtenues par biopsies ou par complexe, il contient à la fois la séquence cible mais aussi tout
chirurgie au moment du diagnostic. Les techniques de conser- le génome cellulaire dont des séquences similaires à la cible
vation de ces biopsies de tumeurs solides sont diverses. Les ne différant parfois que d’un seul nucléotide. De plus, la
tissus peuvent être conservés par cryoconservation (entre séquence cible peut être très rare au sein de cet ADN, et sa
– 80 et – 196 oC) ou fixés par des réactifs chimiques avant détection nécessite des procédures présentant une forte sensi-
d’être inclus dans un bloc de paraffine permettant de préser- bilité et qui soient idéalement quantitatives.

Récidive Diagnostic Traitement

Efficace
Caractérisation des Évolution des
altérations génétiques altérations génétiques
Traitement

Prise
Biopsie
de sang

Non efficace
Pronostic Suivi de l’efficacité du traitement
Choix du traitement Détection précoce de la récidive

La tumeur (en rouge) peut présenter des sous-clones minoritaires Les altérations génétiques présentes dans les cellules tumorales
(en jaune). De plus, le patient peut aussi présenter des métastases peuvent être utilisées en tant que biomarqueurs et leur recherche
ou des tumeurs secondaires (en orange). L’ADN extrait à partir des dans l’ADN issu des échantillons biologiques pourrait aider le
biopsies n’est généralement pas représentatif de cette clinicien à proposer le traitement le plus efficace, suivre l’efficacité
hétérogénéité intra- et inter-tumorale, alors que l’ADN extrait à du traitement au cours de la prise en charge des patients et
partir des échantillons de sang pourrait être plus représentatif de détecter de manière précoce une éventuelle récidive.
cette hétérogénéité.

a b

Figure 1 – Utilisation des biomarqueurs dans la prise en charge du patient

2 – 2015 © Editions T.I. RE 241 - 3

19
1

20
Référence Internet
IN178

INNOVATION

Miniaturisation des essais


enzymatiques par électrophorèse 1
capillaire
par Reine NEHMÉ
Maître de conférences
Institut de chimie organique et analytique (UMR, CNRS 7311),
Institut universitaire de technologie (IUT), département de chimie,
université d’Orléans, France

Résumé : Les enzymes catalysent presque toutes les réactions dans les cellules. Il
est donc crucial de pouvoir les analyser dans les échantillons biologiques et d’évaluer
leurs affinités avec divers ligands. La tendance actuelle est de miniaturiser ces essais
enzymatiques au vu du prix souvent très élevé de ces réactifs. L’électrophorèse capil-
laire présente des avantages uniques dans ce domaine dont des analyses rapides, une
faible consommation et de bonnes sélectivité et sensibilité renforcées par l’emploi de
divers modes de détection.

Abstract : Enzymes catalyze almost all reactions in cells. It is therefore crucial to be


able to analyze them in biological samples and to evaluate their affinities towards
various ligands. The current trend is to miniaturize these enzymatic assays given the
price often very high of these reactants. Capillary electrophoresis has unique advan-
tages in this area including short analyses, low consumption and good selectivity and
sensitivity enhanced by the use of different detection modes.

Mots-clés : Électrophorèse capillaire, essais enzymatiques précapillaires, essais


enzymatiques en ligne, cinétique enzymatique, inhibiteurs, cellules, extraits de plantes,
thérapeutique et cosmétique

Keywords : Capillary electrophoresis, pre-capillary enzymatic assays, in-capillary


enzymatic assays, enzyme kinetics, inhibitors, cells, plant extracts, therapeutic and
cosmetic

Points clés
Domaine : Techniques d’analyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Électrophorèse capillaire
Domaines d’application : Biologie cellulaire et moléculaire, chimie thérapeuti-
que, cosmétique
Principaux acteurs français :
Pôles de compétitivité : –
Centres de compétence : –
Industriels : –
Autres acteurs dans le monde : un certain nombre de laboratoires académi-
ques ou centres de recherche dont les travaux sont mentionnés en bibliographie.
En ce qui concerne les acteurs industriels, on peut citer Caliper Life Sciences (Per-
Parution : novembre 2014

kinElmer, Hopkinton – Massachusetts, États-Unis)


Contact : –

11 - 2014 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 178 - 1

21
Référence Internet
IN178

INNOVATION

1. Contexte où k1 et k–1 sont les constantes de formation et de disso-


ciation du complexe E–S, respectivement et k2 est la
constante de formation du produit ou la constante de vitesse
Pour coordonner leurs activités, les cellules doivent trans-

1
de la réaction.
mettre divers signaux impliquant souvent des cascades de
signalisations enzymatiques. Toute dérégulation peut entraîner Le site actif de l’enzyme est l’endroit où se fixe le substrat
des maladies dont certaines sont très graves telles que le can- (le cas échéant le coenzyme) et où a lieu la réaction enzyma-
cer, la maladie d’Alzheimer, le diabète, la neurofibromatose. tique. Il est souvent localisé au fond d’une poche hydrophobe
de l’enzyme et comprend le(s) groupe(s) de liaison et le(s)
La quantification directe des enzymes dans les échantillons groupe(s) catalytique(s). Le groupe de liaison est formé par
biologiques est difficile car ces molécules se trouvent généra- les acides aminés qui interagissent via des liaisons non cova-
lement à de faibles concentrations dans ces milieux très lentes avec le substrat tandis que le groupe catalytique est
complexes. Ainsi, l’enzyme peut être quantifiée à partir de la formé d’acides aminés qui assurent la catalyse enzymatique,
concentration du produit de la réaction qu’elle catalyse. c'est-à-dire la rupture ou la formation des liaisons au niveau
D’autre part, une réaction enzymatique est caractérisée par du substrat.
des constantes cinétiques telles que la constante de Michaelis-
Menten (Km) qui reflète l’affinité enzyme-substrat. Mesurer
ces paramètres permettra de mieux connaître les agents res- 2.1 Cinétique enzymatique
ponsables du dysfonctionnement du processus cellulaire, de
mieux viser les cibles thérapeutiques et de dépister les mala-
dies à l’état précoce. Cette étude permet ainsi de développer La cinétique enzymatique est l’étude de la vitesse
des modulateurs importants de l’activité enzymatique notam- d’une réaction catalysée par une enzyme en fonction de la
ment dans les domaines thérapeutique et cosmétique. À ce concentration du substrat et de l’inhibiteur. Cette étude
titre, de petites molécules sont fréquemment employées afin permet de déterminer l’affinité des substrats et des inhibi-
d’inhiber la suractivation de l’enzyme. La détermination de la teurs vis-à-vis de l’enzyme, de connaître le mode d’action
constante d’inhibition à 50 % (IC50) ainsi que des constantes de l’enzyme et le type d’inhibition d’un composé donné. Il
de vitesse d’association kon et de dissociation koff serait pri- est également possible de doser l’enzyme pour une
mordiale pour l’évaluation de la liaison enzyme-inhibiteur. Les concentration donnée de substrat, à une température et à
molécules testées pourront par la suite être classées selon un pH fixés, car la vitesse d’une réaction est proportion-
leur affinité pour les cibles biologiques, ce qui permettra d’éla- nelle à la quantité d’enzyme.
borer des pharmacophores fonctionnalisés plus efficaces en se
basant sur les relations structure-activité (RSA) et la pharma-
comodulation. La première détermination d’une cinétique enzymatique a
Les techniques conventionnelles spectrophotométriques, été réalisée par Brown en 1902. Il étudia l’hydrolyse du
fluorimétriques ou radiométriques utilisées pour étudier les saccharose en glucose et fructose catalysée par une enzyme
réactions enzymatiques consomment des quantités considé- de levure, la β-fructofuranosidase (appelée à l’époque
rables d’échantillons et ont un impact environnemental sou- l’« invertase »), par spectrophotométrie UV. Depuis, l’activité
vent défavorable. Un essai enzymatique doit être économe en enzymatique a été mesurée par différentes techniques dans
réactifs, spécifique, rapide, sensible et quantitatif. L’électro- de nombreux domaines d’application.
phorèse capillaire (EC) présente de nombreux atouts pour la La vitesse initiale d’une réaction enzymatique (Vi) est géné-
détermination des constantes cinétiques de diverses familles ralement déterminée pour des concentrations données en E et
d’enzymes. Elle a ainsi émergé récemment comme outil de S, en suivant la concentration du produit formé [P] en fonc-
miniaturisation des essais biochimiques puisque la plupart des tion du temps. La courbe [P ] = f (t ) est linéaire lorsque
enzymes intéressantes, notamment d’un point de vue théra- l’enzyme est saturée par le substrat, s’infléchit ensuite puis
peutique, sont peu accessibles et très onéreuses. atteint un palier à l’équilibre. La vitesse initiale est calculée à
partir de la tangente de cette courbe au temps t = 0. En pra-
Différentes stratégies peuvent être envisagées. Cet article
tique, le temps d’incubation sera fixé de telle sorte que le pro-
décrit l’état de l’art sur l’utilisation de l’électrophorèse capil-
duit obtenu soit dans le domaine linéaire de cette courbe et
laire pour la miniaturisation des essais enzymatiques en insis-
que l’essai soit réalisé en un temps raisonnable. La vitesse ini-
tant sur les contraintes opératoires et les précautions à
tiale (Vi) est généralement déterminée avant que le taux de
prendre au cours de la manipulation des enzymes.
conversion du substrat ne dépasse 10 %. En 1913, l'Allemand
Michaelis et la Canadienne Menten ont résolu le système
réactionnel enzymatique et proposé l’équation suivante, dite
2. Enzymes « équation de Michaelis-Menten » :

Les enzymes sont des catalyseurs biologiques, c’est-à-dire Vmax[S]


des molécules qui accélèrent les transformations chimiques de Vi = (1)
Km + [S]
molécules spécifiques appelées « substrats ». Le(s) composé(s)
obtenu(s) suite à la réaction enzymatique est(sont) appelé(s)
« produit(s) ». Dans ce document, l’enzyme, le substrat, le pro- k−1 + k2
duit de la transformation chimique et l’inhibiteur seront respec- où : Km = et Vmax = k2[ET ] (2)
k1
tivement désignés par les lettres E, S, P et I. Une réaction
enzymatique peut être représentée de la façon suivante :
La vitesse maximale (Vmax) et la constante de
Michaelis-Menten (Km) sont les paramètres cinétiques
k1 k2 caractéristiques d’une réaction enzymatique donnée.
E+S ⇌ E −S → E + P
Vmax représente la vitesse de la réaction pour laquelle
k−1 l’enzyme est saturée par le substrat, tandis que Km

IN 178 - 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 11 - 2014

22
Référence Internet
IN178

INNOVATION

correspond à la concentration du substrat pour laquelle séparation de l’EC pour ne pas engendrer une discontinuité du
l’enzyme est à demi-saturation [équation (3)] : champ électrique dans le capillaire afin de préserver l’asymé-
trie et l’efficacité des pics.

Vi =
Vmax
2
, donc [S] = Km (3)
Chaque enzyme possède une activité maximale dans une
zone de pH donnée qui dépend de la nature du substrat, de
l’origine de l’enzyme et de sa localisation dans le corps
1
Km représente l’affinité du substrat pour l’enzyme. Une fai- humain. Par exemple, le pH optimal de la β-galactosidase
ble valeur de Km indique une molécule affine pour l’enzyme. (β-Gal) d’Aspergillus orizae (champignon) est de 5,5 [3] tandis
Dans le cas où la concentration en substrat est négligeable que celui de la β-Gal d’Escherichia coli (bactérie) est de
7,3 [4].
devant la constante de Michaelis-Menten ([S] << Km ) ,
La vitesse initiale d’une réaction enzymatique croît avec la
l’équation (1) se simplifie :
température pendant une première phase dite « d’acti-
vation ». Cependant, l’activité diminue par la suite puis
Vmax[S] s’annule, ce qui correspond à une dénaturation de l’enzyme.
Vi = (4)
Km De ce fait, l’arrêt de la réaction enzymatique pourra être
aisément obtenu à des températures suffisamment élevées.
Dans le cas où la concentration en substrat est très grande Par exemple, la réaction d’hydrolyse des glucosinolates cata-
lysée par la myrosinase est effectuée généralement à 37 oC.
devant la constante de Michaelis-Menten ([S] >> Km ) ,
En chauffant 5 min à 125 oC, l’enzyme est dénaturée et la
l’équation (1) devient : réaction est totalement arrêtée [5] [6].

Vi = Vmax = k2 [ET ] (5) § Influence des inhibiteurs


La régulation de l’activité enzymatique est très importante
De ce fait, le dosage de l’enzyme s’effectue avec une pour éviter le chaos dans le métabolisme cellulaire. Les inhi-
concentration de substrat en excès ([S] h 10 Km) . biteurs interagissent avec l’enzyme en diminuant ou en arrê-
tant son activité. L’affinité d’un inhibiteur pour une enzyme
Expérimentalement, la représentation en double inverse, est évaluée grâce à la constante de dissociation entre
proposée par Lineweaver et Burk en 1935, permet de détermi- l’enzyme et l’inhibiteur (Ki). L’efficacité d’un inhibiteur peut
ner plus facilement les paramètres cinétiques [équation (6)]. être évaluée par la constante IC50 qui correspond à la
Une droite qui coupe l’axe des abscisses en – 1/Km et l’axe concentration d’inhibiteur pour laquelle l’activité enzymatique
des ordonnées en 1/Vmax est obtenue dans ce cas : est réduite de 50 %. Un inhibiteur sera d’autant plus actif
que la valeur IC50 est faible. IC50 est reliée à la constante
1 Km 1 1 Ki par l’équation de Cheng-Prusoff :
= + (6)
Vi Vmax [S] Vmax
IC50
Ki = (7)
Les paramètres cinétiques permettent de mesurer l’efficacité [S]
catalytique (kcat) de l’enzyme, appelée aussi le « nombre de 1+
Km
turnover ». kcat (s–1) correspond au nombre de molécules de
substrat converties en produit par unité de temps et par site
La constante d’inhibition Ki dépend de la concentration en
actif de l’enzyme à saturation.
substrat. Lorsque cette concentration est égale à la constante
La plupart des enzymes sont à deux substrats. Toutefois, Km ([S] = Km), alors :
par souci de simplification de la théorie cinétique de Michaelis-
Menten, seul le cas d’une enzyme à un seul substrat sera IC50
considéré. Ainsi, lors de l’étude de la cinétique enzymatique, Ki = (8)
2
la concentration d’un des substrats est fixée tout en faisant
varier la concentration de l’autre et vice versa. C’est ainsi En pratique, la courbe dose-réponse qui présente le pour-
qu’on procède lors de l’étude cinétique des ATP-binding kina- centage d’activité enzymatique (%) en fonction du logarithme
ses, qui catalysent le transfert du groupement phosphate de de la concentration de l’inhibiteur est tracée pour déterminer
l’ATP vers un substrat protéique, lipidique ou autre. On définit la constante d’inhibition IC50 . Différents logiciels permettent
ainsi une constante de Michaelis-Menten pour chacun des de réaliser la régression non linéaire selon l’équation
deux réactifs [1]. suivante :
% Amax − % Amin
2.2 Effets des agents physiques ou chimiques % A = % Amin + (9)
sur la cinétique enzymatique 1 + 10log(IC50 −[I ])H

La composition et les propriétés physico-chimiques du où % A est le pourcentage d’activité enzymatique résiduelle,


milieu réactionnel (tampon d’incubation) peuvent influencer % Amin et % Amax représentent les pourcentages d’activité
l’activité d’une enzyme. Lors de la détermination de l’activité enzymatique minimale et maximale, [I] est la concentration
enzymatique, il faudra prendre en compte ces paramètres. Par d’inhibiteur et H est la constante de Hill.
exemple, il faut s’assurer de la présence du cofacteur de La cinétique de liaison E–I peut aussi être évaluée par la
l’enzyme pour favoriser ou même déclencher la réaction [2]. détermination de sa constante d’association ou de liaison
Ainsi, l’ajout des ions Mg2+ dans le tampon d’incubation est Ka (M–1). Plus Ka est élevée, plus l’interaction entre les
nécessaire pour que les kinases humaines soient actives. La molécules est forte. Les constantes de vitesse d’association
concentration en cofacteurs doit être optimisée, car elle influe kon (M–1 · s–1) et de dissociation koff (s–1) sont des paramè-
sur la force ionique du tampon d’incubation. Or, la force ioni- tres indicateurs de la cinétique de liaison entre les molécules
que de ce tampon doit être plus faible que celle du tampon de d’enzyme et d’inhibiteur à l’équilibre.

11 - 2014 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 178 - 3

23
1

24
Référence Internet
IN211

INNOVATION

Contrôle optimal : une nouvelle


approche pour améliorer la qualité 1
des images en IRM

par Dominique SUGNY


Maître de conférences
Laboratoire interdisciplinaire Carnot de Bourgogne, université de Bourgogne, Dijon,
France

Résumé : Nous présentons une approche générale basée sur les principes de la
théorie du contrôle optimal pour maximiser le contraste en imagerie par résonance
magnétique (IRM). Cet outil puissant permet d’établir le contraste maximal possible en
fournissant des séquences d’impulsions utilisables expérimentalement pour atteindre
cette borne. Après une introduction pédagogique aux techniques numériques de
contrôle optimal en résonance magnétique nucléaire (RMN), nous montrons l’efficacité
de cette approche pour une expérience de laboratoire.

Abstract : We present a general approach based on the principles of optimal control


theory to maximize the contrast in Magnetic Resonance Imaging. This powerful tool not
only establishes the maximum achievable experimental contrast but also provides
practical pulses sequences to reach this bound. After a pedagogical introduction to the
numerical techniques of optimal control in Nuclear Magnetic Resonance, we show the
efficiency of this approach in a laboratory experiment.

Mots-clés : contrôle optimal, résonance magnétique nucléaire, imagerie médicale,


calcul numérique

Keywords : optimal control, nuclear magnetic resonance, medical imaging, numerical


computation

Points clés
Domaine : Techniques d’imagerie et d’analyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Théorie du contrôle optimal, résonance magnétique
nucléaire (RMN) et imagerie par résonance magnétique (IRM)
Domaines d’application : imagerie médicale, analyse structurelle en chimie
Principaux acteurs français :
Pôles de compétitivité : –
Centres de compétence : CREATIS, université Lyon I-INSA de Lyon ; Neurospin,
CEA Saclay
Industriels : –
Autres acteurs dans le monde : Pr. S. J. Glaser, département de chimie, université
Parution : novembre 2013

de Munich, Allemagne
Pr. N. Chr. Nielsen, département de chimie, université de Aarhus, Danemark
Pr. N. Khaneja, division de sciences appliquées, université d’Harvard, États-Unis
Contact : dominique.sugny@u-bourgogne.fr

11 - 2013 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 211 - 1

25
Référence Internet
IN211

INNOVATION

1. Contexte suite. L’énergie d’interaction entre le champ magnétique, noté


 
B0 , et les spins S s’écrit en effet sous la forme :
Un système de contrôle est un système dynamique que

1 l’on peut manipuler au moyen d’une commande. La théorie


du contrôle optimal analyse les propriétés du système afin
de l’amener d’un état initial à un état final souhaité en respec-
 
H = − γ S ⋅ B0
tant éventuellement certains critères. Les systèmes étudiés
couvrent un large spectre scientifique, comme la mécanique,
Dans cette expression, la fonction scalaire H, dite
l’électronique, la biologie, la chimie, l’économie... Il y a en
« hamiltonien », attribue une énergie à chaque orientation du
général une multitude de façons d’amener le système de l’état 
initial à l’état final. Il peut être parfois intéressant de choisir spin S en fonction de l’orientation et de l’intensité du champ
parmi toutes ces dynamiques celle qui minimisera ou  
magnétique B0. S est le vecteur de spin qui caractérise l’état
maximisera un certain critère d’optimisation.
Considérons, par exemple, une voiture sur laquelle on agit du spin nucléaire du noyau. Le paramètre γ est le facteur
grâce aux commandes suivantes : pédales de frein et d’accé- gyromagnétique, caractéristique du noyau. Ce facteur est, de
lérateur, volant. Pour aller d’une ville A à une ville B, on peut, plus, différent pour les isotopes d’un même atome. Cette
pour ce système contrôlé, vouloir minimiser le temps de par- énergie microscopique est décrite par les règles de la mécani-
cours, la consommation de carburant ou la distance du trajet. que quantique [3]. On ne considère, dans la suite de ce texte,
Ces trois cas constituent des exemples de coût que l’on que des isotopes dont le spin nucléaire est un spin 1/2.
peut optimiser. La théorie du contrôle optimal est une théo- L’énergie du système ne peut alors prendre que deux valeurs
rie mathématique générale qui permet de résoudre cette discrètes :
question. L’élément clé de cette théorie est le principe du
maximum de Pontryagin, découvert en 1956. Initialement E+ = +γ ℏB0 /2
utilisé en aéronautique pour traiter des problèmes de guidage,
la théorie du contrôle optimal (TCO) a depuis été appliquée
sur de nombreux systèmes contrôlés. Dans cet article, nous et E− = −γ ℏB0 /2
nous intéressons plus particulièrement au domaine de la
résonance magnétique nucléaire (RMN) et de sa parente,
l’imagerie par résonance magnétique (IRM).
où ℏ= h

2. Principe de la RMN et de l’IRM h étant la constante de Planck qui joue un rôle central dans
tous les phénomènes quantiques. On peut associer à ce sys-
Dans cette partie, nous présenterons de manière succincte tème à deux niveaux quantiques une fréquence d’après la
quelques généralités sur le principe de la RMN et de l’IRM afin relation :
de mieux comprendre le cadre dans lequel est appliqué le
contrôle optimal. Pour des compléments sur la résonance ∆E = E+ − E− = hν (1)
magnétique nucléaire, le lecteur est invité à se référer aux
ouvrages [1] [2] [3] [4] [P 2 880].
avec ν fréquence de transition caractéristique du système qui
2.1 Quelques rappels de RMN correspond aussi, d’un point de vue classique, à la
fréquence de précession (ou fréquence de Larmor).

2.1.1 Généralités 
Il est à noter ici que le champ B0 appliqué est le champ
La résonance magnétique nucléaire est basée sur le fait que responsable de l’effet Zeeman qui lève la dégénérescence
certains isotopes atomiques possèdent un moment magnétique des deux niveaux d’énergie des atomes possédant un spin
de spin. C’est le cas notamment de l’atome d’hydrogène 11H , demi-entier (figure 1).
très intéressant en RMN et IRM puisqu’il se retrouve en très
grande quantité dans les tissus biologiques (comme l’eau ou les
molécules organiques). En fait, tous les atomes (sauf ceux dont
E+
le numéro de masse et le numéro atomique sont pairs, comme
l’atome de carbone 12 )possèdent un moment magnétique de
6 C
spin nucléaire non nul. Ces moments magnétiques de spin, ou Effet Zeeman
spins nucléaires, peuvent interagir avec un champ magnétique,
ce qui permet de contrôler leur dynamique.
E−
Dans une interprétation issue de la mécanique classique, on
peut imaginer que les spins des noyaux atomiques sont des
toupies qui tournent sur elles-mêmes autour de leur axe. Du
fait de leur interaction avec le champ magnétique, elles
effectuent aussi des mouvements de précession rapide autour Application du →
de l’axe du champ magnétique imposé. On parle alors de champ magnétique B0
« précession de Larmor ».
La fréquence de précession est proportionnelle à l’intensité Figure 1 – Schéma de la levée de dégénérescence
du champ appliqué, comme nous allons le montrer par la des deux niveaux d’énergie par effet Zeeman

IN 211 - 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 11 - 2013

26
Référence Internet
IN211

INNOVATION

D’après la relation 2πν = γ B0 , on constate que la fréquence équation, il est facile de montrer que la norme du vecteur
de transition ν ne dépend que de γ et de B0 . Cette fréquence aimantation est conservée. On a en effet :
est particulièrement importante lorsque l’on veut agir sur le

1
  
système quantique à partir d’un champ magnétique B1 , ortho- dM2  dM   
 = 2M = 2M ⋅ (γ M ∧ B (t )) = 0 (4)
dt dt
gonal à B0 , comme cela sera le cas en RMN. Pour obtenir une
action avec le maximum d’efficacité, il faudra que la fréquence 
 Étant de norme constante, le vecteur M repère donc un
de ce champ B1 soit proche de la fréquence de transition du point sur une sphère dite de « Bloch ».
spin. C’est ce que l’on appelle un « phénomène de En RMN, le champ magnétique prend la forme générale
résonance ». suivante :
En RMN, l’observable, c’est-à-dire la quantité physique défi-
    
nie à l’échelle microscopique, est le moment magnétique M . Il B (t ) = Bx (t ) cos(ω t ) ux + By (t ) cos(ω t + ϕ ) uy + B0uz (5)
correspond à la moyenne quantique du moment magnétique,

c’est-à-dire du spin S multiplié par le facteur avec ω porteuse du champ,
gyromagnétique :  
ϕ phase entre Bx et By .
 
M =γ <ψ Sψ > Cette expression fait apparaître deux types de champs. Le

   premier, B0uz , indépendant du temps, est un champ
= γ < ψ Sx ux + Sy uy + Sz uz ψ > (2) 
    statique orienté suivant l’axe Oz et le second, noté B1 , est
M = Mx ux + My uy + Mz uz
un champ tournant dans le plan (Oxy). Ces champs sont
schématiquement représentés sur la figure 2.
avec ψ> fonction d’onde du système qui est solution de
l’équation de Schrödinger [3]. Par souci de simplification, l’étude dynamique se fait usuel-
lement dans un repère tournant (OXYZ) à la fréquence ω
On se place ici dans le repère orthonormé (Oxyz) de autour de l’axe z. L’équation de Bloch dans ce repère tournant
   s’écrit :
vecteurs directeurs (ux , uy , uz ) . Expérimentalement, seules
 Mɺ = − ∆ω M + ω (t ) M
les composantes perpendiculaires au champ statique B0 du  x y y z

moment magnétique M sont accessibles. Mɺ y = + ∆ω Mx − ω x (t ) Mz (6)

Notons ici que l’ensemble des N noyaux étudiés présente Mɺ z = −ω y (t ) Mx + ω x (t ) My
une répartition statistique en énergie satisfaisant la loi de
Boltzmann (à cause de l’agitation thermique). Cette loi indique
que cette répartition est de la forme exp(– E/kbT ) où E est où ∆ω = ω – ω0 est l’écart à la résonance, aussi appelé
l’énergie du niveau considéré, kB la constante de Boltzmann et « offset ». Les termes ωx(t) = γ Bx(t) et ωy(t) = γ By(t) sont les
T la température du système. On en déduit que le rapport composantes (au facteur gyromagnétique près) du champ
N+/N– de noyaux respectivement dans les niveaux d’énergie 
magnétique B1 le long des axes x et y.
E+ et E– est égal à exp[(– E+/kBT)]/exp[(– E–/kBT))].
Le moment magnétique résultant correspond donc à la
somme des moments angulaires associés aux différents niveaux
d’énergie pondérés par leurs poids statistiques respectifs. z
Il est également important de souligner que le moment
magnétique est une donnée microscopique que l’on ne peut
pas directement mesurer. En effet, la mesure ne nous permet Z
d’accéder qu’à la valeur d’une donnée macroscopique ; dans
ce cas, le courant circulant dans les bobines de mesure. Ce
courant est induit par l’ensemble des moments magnétiques 
de l’échantillon. Il est donc produit par la résultante d’une Y
B0
aimantation macroscopique.
O y
L’objectif de la RMN est de contrôler cette aimantation 
macroscopique. Pour cela, il est nécessaire de connaître la B1
dynamique qui décrit l’évolution du moment magnétique. On
utilise alors l’équation de Bloch exprimant le couple créé par le
champ magnétique sur l’aimantation : x
X
ωt
ɺ  
M = γ M ∧ B (t ) (3)
Figure 2 – Représentation des repères fixe (en vert) et tournant
Cette équation de Bloch peut être vue comme le pendant  
macroscopique de l’équation de Schrödinger décrivant l’évolu- à la fréquence (en gris) : B0 est le champ statique et B1 est le
tion microscopique du moment magnétique. À partir de cette champ de contrôle

11 - 2013 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 211 - 3

27
Référence Internet
IN211

INNOVATION

2.1.2 Principe de la RMN 2.1.3 Effets de la relaxation


Dans un premier temps, on suppose que l’échantillon dont Pour rendre compte des effets de la relaxation lors des
on veut mesurer le spectre RMN est tel que les moments

1
calculs, il est nécessaire de considérer une équation de Bloch
magnétiques sont à l’équilibre. qui ne soit plus conservative. Son expression devient alors :
On prépare ensuite l’échantillon en lui appliquant un champ

radiofréquence B1 résonant, d’amplitude constante, intense et  1
Mɺ x = − Mx − ∆ω My + ω y (t ) Mz
brève. B1 est la composante du champ selon X dans le repère  T2
tournant dont la définition est donnée sur la figure 2. La 
1
conséquence de cette impulsion est que le moment magnéti- Mɺ y = − My + ∆ω Mx − ω x (t ) Mz (7)
que, initialement orienté suivant l’axe z, bascule de l’équili-  T2
bre vers le plan transverse.  1
Mɺ = − (M − M ) − ω (t ) M + ω (t ) M
z
Notons ici que le champ appliqué doit être résonant par  T1 0 z y x x y

rapport aux noyaux que l’on souhaite exciter.


Par la suite, l’application du champ extérieur B1 est arrêtée avec M0 état d’équilibre thermodynamique du système
et la mesure du champ induit par le moment magnétique selon z,
qui retourne à l’équilibre est ensuite effectuée. Ce retour à
l’équilibre est dû à des phénomènes de relaxation qui seront T1 et T2 paramètres de dissipation longitudinale et
décrits ci-dessous (§ 2.1.3). Il est alors possible de mesurer le transverse.
mouvement de rotation des spins sous la forme d’un signal
oscillant, ayant la même fréquence que l’onde excitatrice, car Le paramètre T1 est caractéristique des tissus puisqu’il indi-
ce phénomène crée un flux magnétique à travers la bobine de que le retour à l’équilibre de l’aimantation dans son état ini-
mesure, qui crée à son tour un courant induit mesurable. tial, par restitution de l’énergie absorbée par interaction avec
l’environnement.
Ce signal électrique est finalement traité par une transformation
de Fourier inverse pour obtenir les spectres usuels de RMN [1] [2]. L’équation du mouvement de Mz , si aucun contrôle de B1
L’analyse des spectres, c’est-à-dire du nombre de pics, de leur n’est considéré, peut s’écrire en fonction de T1 comme suit :
amplitude et de leur position le long de l’axe des fréquences, per-
met finalement d’accéder à la structure des molécules.
dMz (Mz − M0 )
La figure 3 illustre ce processus dans le cas le plus simple =− (8)
d’un seul spin, c’est-à-dire une seule fréquence. dt T1

0,5

0
z

−0,5

−1

−1 −0,5 0 0,5 1 ω
y

a b

: trajectoire dans le repère tournant


: trajectoire dans le repère fixe

Figure 3 – (a) Trajectoire de l’aimantation lors du retour à l’équilibre. La position initiale du spin a pour coordonnées (y = 0, z = 1).
Après excitation en suivant l’arc de cercle, celles-ci deviennent (x = - 1, z = 0), (b) illustration du spectre obtenu à partir d’une trace
expérimentale simple, comme sur la figure (a). La largeur du spectre obtenu est directement reliée aux effets de relaxation

IN 211 - 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 11 - 2013

28
Référence Internet
P156

L’électrochimiluminescence :
une méthode de choix
pour la bioanalyse
1
par Laurent BOUFFIER
Institut des sciences moléculaires, groupe nanosystèmes analytiques, UMR CNRS 5255,
université de Bordeaux, Bordeaux INP, ENSCBP, France

Stéphane ARBAULT
Institut des sciences moléculaires, groupe nanosystèmes analytiques, UMR CNRS 5255,
université de Bordeaux, Bordeaux INP, ENSCBP, France

Alexander KUHN
Institut des sciences moléculaires, groupe nanosystèmes analytiques, UMR CNRS 5255,
université de Bordeaux, Bordeaux INP, ENSCBP, France

et Neso SOJIC
Institut des sciences moléculaires, groupe nanosystèmes analytiques, UMR CNRS 5255,
université de Bordeaux, Bordeaux INP, ENSCBP, France

Note de l’éditeur : cet article est adapté de la revue Annales des falsifications, de
l’expertise chimique et toxicologique (n 987) éditée par la SECF (Société des experts
chimistes de France).

1. Immunodosages basés sur l’ECL.................................................. P 156 – 2


2. Des « nageurs » analytiques à l’ECL 3D ..................................... — 4
3. Conclusion........................................................................................ — 5
4. Glossaire ........................................................................................... — 6
Pour en savoir plus.................................................................................. Doc. P 156

’électrochimiluminescence (ECL) ou chimiluminescence électrogénérée est


L un phénomène d’émission de lumière déclenché par une réaction électro-
chimique initiale. Cette réaction de transfert d’électrons se produisant directe-
ment à la surface d’une électrode induit une cascade de réactions chimiques.
Une espèce appelée « coréactif » telle que, par exemple, la tri-n-propylamine
(TPrA) va porter le luminophore à l’état excité, celui-ci étant le plus souvent le
2+
complexe de ruthénium(II) tris-bipyridine  Ru (bpy )3  . Lors du retour à l’état
fondamental, le luminophore émet un photon à une longueur d’onde caracté-
ristique. L’intensité lumineuse résultante constitue le signal analytique qui est
directement proportionnel au nombre de luminophores présents.
Cette forme d’émission lumineuse a trouvé de nombreuses applications bioa-
nalytiques du fait de ses caractéristiques intrinsèques remarquables, qui en font
une méthode puissante et performante. En effet, aucune source lumineuse exci-
tatrice n’est nécessaire pour induire l’ECL et elle ne nécessite donc pas de sépa-
rer les longueurs d’onde excitatrice et émettrice, comme pour la fluorescence.
De ce fait, le bruit de fond correspond quasiment à celui du photodétecteur et
il est donc extrêmement faible. L’ECL est par conséquent une méthode de
mesure particulièrement sensible. Par ailleurs, l’ECL présente d’autres avantages
Parution : mai 2018

Copyright © - Techniques de l’Ingénieur - Tous droits réservés P 156 – 1

29
Référence Internet
P156

L’ÉLECTROCHIMILUMINESCENCE : UNE MÉTHODE DE CHOIX POUR LA BIOANALYSE –––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

supplémentaires : une grande linéarité du signal sur plusieurs ordres de gran-


deur, une bonne sélectivité, une stabilité importante du luminophore et une
génération in situ des réactifs en milieu physiologique. De plus, les complexes
inorganiques induisant l’ECL peuvent être facilement conjugués à des molécules
d’intérêt biologique telles que les anticorps, l’ADN ou l’ARN. Le luminophore est
ainsi classiquement utilisé comme marqueur pour le diagnostic médical. Plus de
150 immunotests basés sur l’ECL sont actuellement commercialisés, principale-
ment par deux sociétés : Roche Diagnostics et MesoscaleDiscovery. Ces immu-

1 notests sont utilisés pour le diagnostic de pathologies variées allant de maladies


cardiaques ou infectieuses aux dysfonctionnements thyroı̈diens, ou encore pour
la détection de marqueurs tumoraux. D’après le Business Overview Report de la
société Roche Diagnostics qui est leader du diagnostic par ECL, plus de 1,3 mil-
liard d’immunodosages basés sur la technologie ECL ont été commercialisés par
cette société en 2013. Il est donc essentiel de comprendre parfaitement les méca-
nismes réactionnels mis en jeu afin d’être en mesure d’améliorer les performan-
ces analytiques et également de proposer de nouvelles méthodes de mesure
basées sur l’ECL. Cet article s’attache à présenter comment l’étude détaillée
des mécanismes ECL mis en jeu dans ces immunodosages est réalisée en utili-
sant des approches originales d’imagerie. Cela donne la possibilité, d’une part,
de comprendre certaines limitations de cette méthode. D’autre part, cette com-
préhension fine de l’ECL permet de contourner ces limitations et de développer
des stratégies analytiques originales pour la bioanalyse, notamment en couplant
l’ECL avec l’électrochimie bipolaire.

1. Immunodosages basés
sur l’ECL
+
TPrA •
Des réactions très énergétiques de transfert d’électrons initiées à
la surface d’électrodes peuvent conduire à une émission lumineuse
en solution appelée l’ECL [1]. L’état excité du luminophore est pro- e–
duit suite à une cascade de réactions déclenchée par une étape ini- –H+
tiale électrochimique (figure 1). Celui-ci retourne à l’état fondamen-
tal en émettant un photon et l’intensité lumineuse résultante
constitue le signal analytique [2]. L’ECL est donc un procédé asso-
ciant efficacement les propriétés électrochimiques et spectroscopi-
TPrA •
ques d’un luminophore [1] [3]. Différents mécanismes réactionnels
TPrA
conduisant à l’émission ECL sont possibles suivant la nature de
l’électrode, les concentrations respectives des espèces en solution,
le pH et l’immobilisation ou non du luminophore. La figure 1 pré-
Ru(bpy)33+
sente un mécanisme modèle pour l’émission ECL avec le système
2+
classique Ru (bpy )3 /T Pr A .
e–
Cependant ce mécanisme modèle largement utilisé ne peut Ru(bpy)32+*
expliquer l’excellente sensibilité des immunodosages ECL de type
sandwich. Dans ce cas, des microbilles magnétiques sont utilisées
pour attacher un anticorps de capture [4]. En présence de l’anti-
gène cible, un anticorps de détection se lie alors qu’un dérivé du
complexe de ruthénium est utilisé comme marqueur (figure 2a).
Ru(bpy)32+
Les systèmes modèles ECL classiquement employés en immuno-
dosage sont constitués d’un luminophore, Ru (bpy )3 ( 2+
)
et de la
TPrA comme coréactif (figure 2). Dans cette configuration expéri-

( 2+
)
mentale où le Ru (bpy )3 est greffé sur une microbille support,
l’oxydation exclusive de la TPrA induit une cascade de réactions,
électrode

impliquant des radicaux à durée de vie courte et de différents


potentiels rédox, qui va porter le luminophore à l’état excité. Diffé-
rentes voies mécanistiques ont été proposées pour expliquer les Figure 1 – Schéma réactionnel montrant une voie mécanistique
avec oxydation directe du luminophore Ru (bpy )
2+
signaux ECL obtenus à un potentiel anodique modéré vers + 0,7 V et du coréactif
3
vs. Ag-AgCl-KCl 3M et sur différents matériaux d’électrode [5] [6]. TPrA, conduisant à l’émission d’ECL

P 156 – 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés

30
Référence Internet
IN242

INNOVATION

NewSpace : mieux comprendre


le vivant grâce à la micropesanteur 1

par Pascale LEFEBURE


Ingénieur en biotechnologie, Manageure de projet
SIGMA-VISION.COM (Targasonne, France)

Q u’elle soit managériale, commerciale ou technologique, l’innovation


est un moteur pour les entreprises. Bien sûr, il faut être visionnaire,
sentir les tendances, mais il faut aussi avoir les capacités de mettre
en œuvre cette innovation. Quotidiennement, les agences spatiales du
monde entier donnent des ailes à des expérimentations créatives dans
l’espace pour un large éventail de clients.
Les efforts consentis pour la conquête spatiale ont généré d’innombrables
brevets et inspiré le développement de catégories entières de nouveaux
produits. Entre 2001 et 2021, le Centre pour l’avancement des sciences
dans l’espace (CASIS) a soutenu l’envoi au laboratoire national américain
dans la Station spatiale internationale (ISS) de plus de 500 charges
utiles dont 70 % étaient issues du secteur privé, y compris des projets de
sociétés du classement Fortune 500, de start-up innovantes et de grandes
organisations.
L’expérimentation en micropesanteur résout les défis scientifiques de
nombreux domaines des sciences de la vie ou du secteur médical tels que
le diagnostic, la pharmacie, la découverte de médicaments, la biotechno-
logie et la médecine en général.
Cette nouvelle génération d’activités spatiales contribue au NewSpace,
évolution du secteur commercial spatial offrant un éventail de possibilités
allant de la conception de thérapies plus efficaces au développement de
nouvelles variétés végétales mieux adaptées aux conditions extrêmes. La
micropesanteur offre un horizon de possibilités qui ne mènent pas seule-
ment à de nouveaux produits, mais à des catégories entièrement nouvelles
qui peuvent changer fondamentalement notre façon de vivre.
Cet article présentera les atouts de la recherche en micropesanteur pour la
médecine et les sciences de la vie.
Parution : septembre 2021

9-2021 © Editions T.I. IN 242 - 1

31
Référence Internet
IN242

INNOVATION

Points clés

1
Domaine : Recherche spatiale
Degré de diffusion de la technologie : Maturité
Technologies impliquées : Station spatiale, lanceurs, satellites, charges utiles,
bioréacteur
Domaines d’application : Médecine, sciences de la vie, chimie, cosmétique
Principaux acteurs français :
– Pôles de compétitivité : Aerospace Valley
– Centres nationaux : Centre national d’études spatiales (CNES)
– Industriels : Novespace, Sanofi
Autres acteurs dans le monde : Centre pour l’avancement des sciences dans
l’espace (CASIS), Agence Spatiale Européenne (ASE), Administration Nationale de
l’Espace et de l’Aéronautique (NASA), Tympanogen LLC, Angiex Inc, Space X,
LambdaVision
Contact : pascale.lefebure@sigma-vision.com
http://www.sigma-vision.com
http://www.chlorodia.fr

pisme. Comprendre où se trouve le haut et le bas est essentiel


E. coli Bactérie Escherichia coli pour la survie des êtres vivants sur Terre. Les détails des pro-
ASE Agence Spatiale Européenne (European Space cessus de transduction de ce signal (cf. glossaire § 6) ne sont
Agency ESA) pas entièrement compris. Des environnements de tests sans
distorsion due à la gravité sont essentiels pour mener à bien des
CASIS Centre pour l’avancement des sciences dans expériences. Les laboratoires en micropesanteur offrent ce type
l’espace (Center for the Advancement of unique d’environnement.
Science in Space)
La R&D entreprise lors des vols spatiaux permet d’étudier les
CNES Centre national d’études spatiales processus biologiques et physiques sous-jacents dont les effets
sont masqués par les forces dominantes dépendant de la gra-
EFS Établissement français du sang vité. La micropesanteur induit une vaste gamme de change-
ments dans les organismes vivants allant des virus et bactéries
ISS Station spatiale internationale (International aux humains. Des altérations globales de l’expression des
Space Station) (SSI surtout au Canada gènes, des modifications du métabolisme ou la réorganisation
francophone) des microstructures cellulaires sont des exemples classiques.
MIT Institut de Technologie du Massachusetts La micropesanteur est une nouvelle façon de regarder le
(Massachusetts Institute of Technology) vivant nous permettant d’observer des phénomènes qui, au sol,
seraient invisibles à cause du bruit de fond provoqué par la gra-
NASA Administration Nationale de l’Espace et de vité. Les études spatiales aident à comprendre comment la gra-
l’Aéronautique (National Aeronautics and vité nous affecte ici sur la Terre. Ces 60 dernières années de
Space Administration) recherches en micropesanteur nous ont permis de progresser
TRL Niveau de maturité technologique (Technology dans la compréhension des phénomènes observés en condition
Readiness Level) de micropesanteur. Depuis l’arrêt de la Station spatiale russe,
Mir, en tant que plate-forme de recherche, la Station spatiale
Veggie Vegetable Production System internationale a conduit plus de 3 000 expériences
scientifiques [1]. Notre connaissance de l’impact de la gravité et
de la micropesanteur s’est considérablement améliorée. Toute
1. Un laboratoire sans égal la sphère des sciences de la vie et de la médecine est concer-
née, allant des protéines isolées, des cellules individuelles et
Pendant environ 3,8 milliards d’années, les micro-orga- des tissus aux organismes complexes.
nismes, plantes et animaux ont vécu et se sont diversifiés sous
l’effet de la gravité, partiellement à l’abri des champs magné-
tiques et des radiations de l’espace. Nous avons tendance à
prendre la gravité pour acquise, mais elle joue un rôle clé dans De manière générale, les expérimentations en micrope-
l’évolution de la vie sur Terre. Les mécanismes de détection de santeur des sciences de la vie reposent sur des échantillons
biologiques placés dans du matériel spatial dédié appelé
la gravité se sont développés au début du processus évolutif.
Les organismes libres de leur mouvement, même les unicellu- unité expérimentale (une dizaine de centimètres), garantis-
laires, utilisent la gravité pour définir l’orientation de leur dépla- sant l’accès aux milieux de culture, à l’éclairage ou tout
cement ou nage, un comportement appelé gravitaxisme. En autre dispositif pour maintenir l’expérience en vie. Parallè-
physiologie végétale, la façon dont les plantes se développent lement à l’expérience dans l’ISS, une expérience sœur est
mise en place sur Terre pour servir de témoin au sol.
et s’orientent en relation avec la gravité est appelée gravitro-

IN 242 - 2 © Editions T.I. 9-2021

32
Référence Internet
IN242

INNOVATION

1.1 Une meilleure compréhension des gènes


et du métabolisme
La micropesanteur induit des changements d’expression
génique chez tous les êtres vivants, notamment les humains,
les plantes, les animaux, les cultures cellulaires et les micro-
1
organismes. Cela peut apporter de nouvelles informations sur la
manière dont des groupes de gènes influencent l’homéostasie
d’un organisme - des informations qui sont nécessaires pour
développer des stratégies thérapeutiques plus efficaces pour
lutter contre ces maladies sur Terre. Les changements épigéné-
tiques observés en micropesanteur peuvent influencer la diffé-
renciation d’une cellule-souche ou la pathogénicité d’une
bactérie.

■ Des expériences ont démontré que des cultures de la bac-


térie Salmonella pouvaient en micropesanteur augmenter
leur virulence. De façon surprenante, les gènes connus pour
être impliqués dans la virulence de Salmonella sur Terre n’ont
pas été mis en cause. En identifiant les mécanismes en jeu,
nous pourrions être en mesure de développer des stratégies
thérapeutiques plus efficaces pour lutter contre cette maladie
infectieuse sur Terre [2]. Figure 1 – Algues spatiales (doc. ASE/NASA)

En 2017, en partenariat avec l’école de médecine de l’Uni- ■ Les microorganismes sont utilisés en biotechnologie comme
versité de Stanford, le CubeSat [IN 243] (cf. glossaire, § 6) usines pour fabriquer des nombreux composés. L’artémisinine,
EcAMSat 6 U (six fois le volume d’un CubeSat standardisé à la substance active de référence contre le paludisme, était à
10 cm de chaque côté) de la NASA a étudié les effets de la l’origine extraite d’une plante chinoise par des procédés indus-
micropesanteur sur la résistance aux antibiotiques de la triels insatisfaisants. En 2013, le laboratoire Sanofi a misé sur
bactérie E. coli uropathogène (UPEC), une bactérie dont une levure modifiée capable de transformer le sucre en précur-
certains variants sont pathogènes pour l’être humain et l’ani- seur d’artémisinine. Cependant, certains composés restent dif-
mal. EcAMSat est capable de fonctionner de manière auto- ficiles à produire. La micropesanteur pouvant modifier le
nome et de stocker 152 h de données. Les deux souches ont métabolisme de ces organismes, une amélioration des
présenté un métabolisme plus lent en micropesanteur. Les méthodes de production des microorganismes est une
résultats ont également montré que la micropesanteur piste à explorer. C’est dans cet espoir que le laboratoire Space
n’améliorait pas la résistance d’E. colis à l’antibiotique Life Sciences a envoyé en 2018 des microalgues en
gentamicine [3]. micropesanteur [6]. Si la micoalgue Chlamydomonas reinhardtii
est cultivée en milieu liquide dans des sacs de culture
(figure 1) placé dans le laboratoire Veggie, sa croissance en
Cependant, l’augmentation de la pathogénicité ne se résume tant qu’organisme modèle y est plus robuste que dans les
pas à l’augmentation de la résistance aux antibiotiques. L’aug- milieux agar solides souvent utilisés pour contrer les
mentation de pathogénicité souvent observée en micropesan- contraintes de la microgravité. Cette première expérience a
teur peut être expliquée pas différents phénomènes, comme la permis de valider l’utilisation de ces sacs de culture pour la
création de biofilms dont il a été démontré que leur croissance croissance de lots de microalgues en microgravité [7]. Compa-
est favorisée en micropesanteur [4] ou par exemple l’altération rativement aux microalgues de contrôle sur Terre, il a été
du fonctionnement du système immunitaire en micropesanteur observé une augmentation de la biomasse dans les cultures en
aussi démontrée dans de nombreuses études. micropesanteur. Cela est probablement dû aux phénomènes de
sédimentation dans les bioréacteurs de contrôle au sol. Les
■ Dans le même registre, il a été mis en évidence que la résultats sont encore en phase d’exploitation avant publication.
micropesanteur affecte l’expression génique des cellules
cancéreuses de la thyroïde. Les tests ont été réalisés en
conditions de micropesanteur réelle et simulée dans une 1.2 Formation de microstructures
machine de positionnement aléatoire. Après 10 jours, l’ana- en micropesanteur
lyse de l’expression des gènes avec des puces à ADN a révélé
2881 transcriptions significativement régulées. Ces gènes qui Dans l’espace, la sédimentation, la convection naturelle et la
se sont exprimés différemment sont impliqués dans plusieurs flottabilité sont minimisées, voire annulées. En revanche, des
processus biologiques, y compris l’apoptose (182), le forces telles que la tension superficielle du liquide et les forces
cytosquelette (80), l’adhésion / matrice extracellulaire (98), la capillaires deviennent plus influentes.
prolifération (184), la réponse au stress (268), la migration De petites particules solides ou des gouttelettes de liquide
(63), l’angiogenèse (9) et la transduction du signal (429). Les contenant une substance thérapeutique peuvent être encapsu-
gènes impliqués dans la régulation de la prolifération des cel- lées dans des microstructures, fournissant une libération
lules cancéreuses, tels que IL6, IL8, IL15, OPN, VEGFA, contrôlée et ciblée d’un médicament. Des expériences ont mon-
VEGFD, FGF17, MMP2, MMP3, TIMP1, PRKAA et PRKACA, tré que les nanostructures fabriquées en micropesanteur
étaient également régulés dans la machine à position aléatoire seraient plus petites et plus uniformes que celles fabriquées sur
et lors du vol spatial. Ces cellules étaient beaucoup moins sus- Terre. Leur rapport surface/volume étant plus élevé, appro-
ceptibles de proliférer. La compréhension de ce phénomène chant les dimensions moléculaires, la surface d’adsorption et de
peut avoir des impacts de grande envergure sur des thérapies délivrance de ces structures augmentent. La taille et la distribu-
anticancéreuses plus efficaces [5]. tion des particules sont essentielles pour améliorer ces

9-2021 © Editions T.I. IN 242 - 3

33
Référence Internet
IN242

INNOVATION

systèmes d’administration de médicaments à base de micro- 1.3 Croissance cellulaire


structures. Par conséquent, des microstructures plus efficaces
permettent de réduire la dose requise par traitement et aug-

1
Si la culture cellulaire à l’échelle industrielle est un processus
mentent la valeur de production en diminuant le coût par dose. largement maîtrisé, malheureusement, certains tissus cellu-
Elles donnent lieu à une nouvelle technique de fabrication pour laires ont une capacité de croissance limitée sur Terre. Pour
des systèmes de diffusion de médicaments par exemple. certaines lignées cellulaires, les scientifiques ne disposent pas
toujours de méthodes efficaces pour produire des cellules en
En 2018, la société Tympanogen LLC., spécialisée en tech- grande quantité. Heureusement, quand bien même la compré-
nologie médicale, cherche à améliorer le processus de libéra- hension de ce phénomène reste floue, certaines cellules aug-
tion d’antibiotiques à partir d’un nouveau patch qui traite les mentent leur multiplication en condition de micropesanteur et
blessures de combat militaire et réduit les risques de septi- donnent l’espoir aux scientifiques de les produire en grande
cémie. Ce nouveau patch contient un hydrogel aux proprié- quantité. Être capable de maîtriser la croissance des cellules
tés antimicrobiennes. La réduction du mouvement des est important dans le domaine médical. Les applications sont
fluides en micropesanteur a permis d’étudier en temps réel variées.
et de manière plus précise le comportement de cet hydrogel
et de sa libération contrôlée d’antibiotiques [8]. ■ Accélérer les tests de médicaments ou de cosmétiques
(par la croissance d’organes, de tissus ou de cultures cellu-
laires comme analogues du corps humain pour tester l’effica-
Les colloïdes sont des toutes petites particules solides, cité et la toxicité d’une molécule). Pour tester leurs nouveaux
liquides ou gazeuses allant du nanomètre au micromètre en dis- produits sur l’un des organes les plus simples, la peau, l’indus-
persion homogène dans un liquide. De nombreux produits de trie cosmétique est la première à bénéficier de l’amélioration
consommation comme l’encapsulation de médicaments, les de ces méthodes de production de tissu.
produits alimentaires, les peintures (pour faciliter son applica-
tion, la brillance, la résistance aux intempéries) et plus spécia- Le groupe L’Oréal teste ses produits sur des tissus humains
lement les cosmétiques, sont des mélanges colloïdaux. fabriqués en laboratoire à partir d’échantillons de peau issus de
Cependant, il arrive que ces particules s’agglutinent, coulent au la chirurgie esthétique. Avec cette technique, près de
fond et le produit est gâché. Cet effondrement du produit 130 000 fragments de peau étaient produits chaque année en
s’aggrave lorsque la taille des particules est variable. Même s’ils France mais la demande d’échantillons de peau humaine était
sont produits quotidiennement en grande quantité, il y a beau- en constante croissance et la production insuffisante à l’échelle
coup d’aspects de leur comportement qui restent mécompris du groupe. L’Oréal s’est rapproché de la start-up Organovo,
des scientifiques. La Station spatiale internationale est un spécialisée dans les technologies de bioimpression 3D afin de
endroit idéal pour étudier la physique des colloïdes en temps recréer artificiellement des tissus de peau. Des cellules diluées
réel et ainsi nous aider à fabriquer des produits plus stables dans une encre biologique sont agencées couche par couche
composés de colloïdes de haute qualité. L’expérience de phy- afin de produire un modèle au plus proche. Suite à l’impression
sique des colloïdes dans l’espace PCS (Physics of Colloids in en 3D, une phase de maturation à 37 °C laisse le temps à ces
Space) a été lancée sur la navette spatiale STS-100 en avril cellules de se différencier, se reproduire, s’auto-organiser et se
2001. Obtenues par des dispositifs optiques et deux appareils reconnecter pour construire en deux à trois semaines un tissu
de photographies, des données sur la diffusion de la lumière artificiel. Sur Terre, les cellules sédimentent à des vitesses dif-
statique et dynamique à travers l’échantillon fournissent des férentes selon leur souche, ce qui compromet dans certains cas
informations sur les tailles (jusqu’à environ 5 µm) ou les posi- la reconnexion entre les cellules et la structure même du tissu
tions des colloïdes ou des types de structures qui se sont for- final. Pour contrer ce phénomène, la viscosité de l’encre biolo-
mées dans l’échantillon tel que des cristaux ou du gel. Cette gique utilisée a été augmentée à l’aide d’agents chimiques qui
expérience a recueilli des données sur les propriétés physiques sont souvent nocifs pour les cellules. Cette contrainte limite le
de simples suspensions colloïdales en étudiant les structures qui choix des souches cellulaires utilisables et la densité de cellules
se forment. L’expérience se concentrait sur le comportement de dans l’encre biologique. Avant d’acquérir des organes imprimés
trois classes différentes de mélanges colloïdaux de minuscules à la demande, il reste encore beaucoup à faire. En microgravité,
particules artificielles de polyméthacrylate de méthyle (PMMA), les cellules ne sédimentent pas, elles sont libres de se dévelop-
de silice ou de polystyrène. L’objectif étant de laisser reposer per dans toutes les directions et bénéficient d’une diffusion uni-
pendant des jours, des semaines, ou des mois en orbite pour forme des nutriments et des gaz. La tentation est grande
observer l’auto-assemblage des particules. Le comportement d’utiliser des systèmes de culture cellulaire rotatifs sur Terre
des échantillons sous forme de polymère colloïdal a abouti à pour simuler la microgravité, mais le mouvement des fluides y
plusieurs observations intéressantes. Dans les 16 h qui ont suivi génère un effet de cisaillement sur un tissu cellulaire ayant un
le mélange initial, le polymère colloïdal biphasé a commencé à effet très délétère sur la viabilité des cellules, en général très
se séparer en deux phases – une qui ressemble à un gaz sensibles au cisaillement [11].
(pauvre en colloïde) et une qui ressemble à un liquide (riche en
colloïde). Cette séparation ne peut pas être observée sur Terre
car la sédimentation fait tomber plus vite les colloïdes au fond L’aventure de la bioimpression en micropesanteur
du conteneur [9]. Ce phénomène de séparation ou ségrégation commence en 2016 quand la NASA réalise son premier test
est considéré comme une nuisance dans de nombreux proces- en vol parabolique en partenariat avec trois entreprises
sus technologiques. Il est rendu possible par les espaces qui Techshot Inc, sNcript Inc et Bioartifical Organs Inc. Il s’agis-
s’ouvrent autour des particules quand ils sont secoués. Les sait de tester le fonctionnement de leur prototype de bioim-
grosses particules ont tendance à se déplacer vers des régions primante 3D, utilisant notamment une plus faible viscosité
moins denses de particules plus petites ; c’est pourquoi de gros d’encre qui ne contient que des matières biologiques, pour
objets lourds peuvent monter au sommet de couches verticale- imprimer une structure semblable à un cœur pendant ce vol
ment agitées de matériaux granulaires. Ces résultats soulèvent parabolique [10]. C’est en 2017 que cette même équipe
de sérieuses questions sur les processus de fabrication qui lance une étude sur la maturation d’un tissu bioimprimé de
implique des mélanges par agitation des poudres avec deux cellules musculaires. Depuis l’ASE est rentrée dans la course
composants ou plus. avec différents tests de bioimpression 3D en micropesanteur.

IN 242 - 4 © Editions T.I. 9-2021

34
Référence Internet
IN243

INNOVATION

NewSpace : fonctionnement
des laboratoires en micropesanteur 1
par Pascale LEFEBURE
Ingénieur en biotechnologie, Manageure de projet aérospatial
SIGMA-VISION.COM (Targasonne, France)

Q u’elle soit managériale, commerciale ou technologique, l’innovation


est un moteur pour les entreprises. Bien sûr, il faut être visionnaire,
sentir les tendances, mais il faut aussi avoir les capacités de mettre
en œuvre cette innovation. Quotidiennement, les agences spatiales du
monde entier donnent des ailes à des expérimentations créatives dans
l’espace pour un large éventail de clients. Le NewSpace, évolution natu-
relle de l’écosystème spatial, favorise et soutient l’implication croissante
d’un segment commercial privé accessible au plus grand nombre.
« Pour soutenir la croissance en Europe, nous mettons nos connaissances
et nos technologies à disposition en dehors du secteur spatial », déclare
Jan WOERNER, directeur général de l’Agence spatiale européenne ASE.
Les équipements de recherche scientifique sont nombreux dans la Station
spatiale internationale ISS, installés à la fois dans la partie pressurisée
de la station et sur des palettes exposées au vide. Il peut s’agir :
– d’équipements multi-usages tel que des congélateurs ;
– des boîtes à gants ;
– des équipements à rayons-X ;
– des microscopes de pointe. Le microscope du module de microscopie op-
tique LMM qui depuis 2017 apporte la possibilité d’observations en trois di-
mensions ou encore le microscope à fluorescence miniaturisé FLUMIAS pour
observer des cellules vivantes. La possibilité d’imagerie en direct dans l’es-
pace est une contribution cruciale à la compréhension de l’adaptation du vi-
vant à la micropesanteur ;
– des minilaboratoires dédiés à la biologie tels que des serres (Veggie),
aquariums ou incubateurs (Kubik, petit incubateur à température contrôlée
de l’ASE) ;
– des équipements de télémétrie enregistrant un grand nombre de para-
mètres allant du suivi de l’évolution de l’expérience aux mesures des rayon-
nements cosmiques et les rayonnements cosmiques galactiques auxquels
elle est exposée ;
– des équipements de recherche sur la physiologie humaine disponibles
pour mesurer les effets des séjours de longue durée dans l’espace.
Les missions spatiales sont supervisées depuis des centres de contrôle
au sol qui jouent un rôle d’assistance pour les équipages et de pilotage de
ces laboratoires en micropesanteur. Les agences spatiales développent
continuellement de nouveaux équipements pour répondre aux besoins des
nouvelles expériences. Si les conditions à l’investissement privé sont favo-
rables, travailler en micropesanteur présente différents défis rendant une
Parution : septembre 2021

procédure simple plus technique. Pour mener à bien une expérience en


micropesanteur, les échantillons sont logés dans une unité expérimentale
et un conteneur spécialement conçu pour répondre aux exigences de
l’environnement spatial et rendre les objectifs de R&D réalisables en toute
sécurité.

9-2021 © Editions T.I. IN 243 - 1

35
Référence Internet
IN243

INNOVATION

Si l’ISS reste l’exemple spatial le plus connu de l’expérimentation en


micropesanteur, il existe cependant de nombreuses alternatives. Cet article

1
fera la lumière sur le cycle de vie d’une expérience en micropesanteur afin
de promouvoir une recherche en micropesanteur accessible dans une stra-
tégie coût-performance. À travers la découverte des nombreuses
infrastructures dédiées à la recherche en micropesanteur dans l’espace
(ISS, capsules automatisées, CubeSats) et dans l’atmosphère (vols para-
boliques) ou en microgravité simulée sur Terre (tours de chute libre,
machine en positionnement aléatoire…), cet article accompagne les scienti-
fiques dans l’identification de la technologie qui répond à un besoin
spécifique de recherche.

Points clés
Domaine : Recherche spatiale
Degré de diffusion de la technologie : Maturité
Technologies impliquées : Station spatiale, lanceurs, satellites, charges utiles,
bioréacteur
Domaines d’application : Médecine, sciences de la vie, chimie, cosmétique
Principaux acteurs français :
– Pôles de compétitivité : Aerospace Valley
– Centres nationaux : Centre national d’études spatiales (CNES), Medes
– Industriels : Novespace
Autres acteurs dans le monde : Centre pour l’avancement des sciences dans
l’espace (CASIS), Agence Spatiale Européenne (ASE), Administration Nationale de
l’Espace et de l’Aéronautique (NASA), Kayser Italia, Techshot, Von Karman Insti-
tute for fluid dynamics
Contact : pascale.lefebure@sigma-vision.com
http://www.sigma-vision.com
http://www.chlorodia.fr

Sigle Développé Sigle Développé


ADSEP Advanced Space Experiment Processor ISS Station spatiale internationale (International
Space Station) (SSI surtout au Canada
ASE Agence Spatiale Européenne (European Space
francophone)
Agency ESA)
ASIA Atmosphere Space Interaction Monitor ITAR Réglementation américaine sur le trafic
d’armes au niveau international (International
CASIS Centre pour l’avancement des sciences dans Traffic in Arms Regulation)
l’espace (Center for the Advancement of
Science in Space) LDC Centrifugeuse de grand diamètre (Large
Diameter Centrifuge)
CE Conteneur expérimental (Experimental
container EC) LOOP Locomotion sur d’autres planètes : Analogue
d’hypogravité (Locomotion on Other Planets:
CNES Centre national d’études spatiales Hypogravity Analogue)
E. coli Bactérie Escherichia coli MCC Centre de contrôle de mission (Mission Control
ESTEC Centre européen de technologies spatiales Center)

IAA Académie internationale d’astronautique MTCR Régime de contrôle de la Technologie du


(International Academy of Astronautic) Missile (Missile Technology Export Control
Regime)
IAASS L’Association internationale pour l’avancement
de la sécurité spatiale (International NASA Administration Nationale de l’Espace et de
Association for the Advancement of Space l’Aéronautique (National Aeronautics and
Safety) Space Administration)
IAC Congrès international d’astronautiqe NBF Installation de flottabilité neutre (Neutral
(International Astronautical Congress) Buoyancy Facility)

IN 243 - 2 © Editions T.I. 9-2021

36
Référence Internet
IN243

INNOVATION

Sigle Développé En français, la distinction est faite entre micropesanteur


NEEMO Opérations de mission en conditions extrêmes et microgravité. En anglais, le terme « microgravity »

1
de la NASA (NASA Extreme Environment intègre les deux motions.
Mission Operations)
La station spatiale en chute libre ou en orbite autour de la
POIC Centre d’intégration et d’exploitation de la Terre peut être en état d’impesanteur mais pas de microgravité.
charge utile (Payload Operations and Un astronaute à bord de la Station spatiale internationale ISS se
Intergration Center) trouve dans un état d’impesanteur du fait du mouvement de la
RPM Random Positionning Machine station spatiale en chute libre autour de la Terre (sa vitesse lui
permet de ne jamais percuter la Terre), mais la gravité est pra-
TRL Niveau de maturité technologique (Technology tiquement identique à celle ressentie à la surface de la
Readiness Level) Terre [1].
UE Unité expérimentale (Experimental Unit EU) La vitesse nécessaire pour que l’ISS reste en orbite dépend de
sa distance de la Terre. Pour une altitude d’environ 400 km, elle
Veggie Vegetable Production System est de 28 000 km/h. Si cette vitesse était trop lente, l’ISS
retomberait sur la Terre. Au contraire, si elle était trop rapide, la
Station serait éjectée hors de l’espace extra-atmosphérique.
1. Laboratoires en micropesanteur
Des laboratoires en micropesanteur ont été installés en
La loi de la gravitation a été énoncée pour la première fois par orbite terrestre basse OTB (Low Earth Orbit LEO), tel que
Sir Isaac Newton, physicien et astronome anglais en 1684. le laboratoire permanent de l’ISS. Certains labora-
Selon Newton, à tous les corps massifs est associé un champ de toires ne sont pas en permanence en orbite ; ils prennent
gravitation (ou champ de gravité) responsable d’une force leur envol pour la durée des expériences qu’ils
attractive sur les autres corps massiques. La force de gravité transportent : notamment les dispositifs de capsules ou
qu’un corps exerce sur un autre est proportionnelle à la masse les CubeSats. D’autres dispositifs permettent de réaliser
du corps et inversement proportionnelle au carré de la distance des expériences en micropesanteur dans
entre ces deux corps. Ce qui veut dire que plus un corps est l’atmosphère terrestre (comme les vols paraboliques),
massif, plus il exerce une gravité et plus il est loin d’un autre voire même de simuler la microgravité sur Terre avec des
corps, moins il exerce de gravité sur ce dernier. machines à positionnement aléatoire !
Sur la Terre, la direction de la gravité est constante. On
observe ainsi qu’en un lieu donné tous les corps libres tombent 1.1 ISS, emblème de l’expérimentation
en direction du sol. en micropesanteur
Pourtant son champ de gravité est sujet à des disparités dues La Station spatiale internationale (ISS) est la plus grande
aux hétérogénéités de composition et de topographies de notre structure jamais construite par l’homme dans l’espace et reste
planète. L’inégale valeur des rayons de la Terre aux pôles et à le plus ambitieux programme mondial mené en coopération
l’équateur, ainsi que le déplacement des masses d’eau dû aux dans le domaine scientifique ou technologique à ce jour. Elle
marées sont des causes de ces disparités. On peut considérer pèse 455 t et mesure 100 m de long pour 80 m de largeur. Sa
que sur Terre la gravité est proche de 1 g, avec g l’accéléra- surface est proche de celle d’un terrain de football (figure 1) !
tion due à la pesanteur.
Il n’existe pas de fusée suffisamment puissante pour lancer
Ainsi, plus on s’éloigne de la masse de la Terre, plus la force dans l’espace une telle structure. Tel un jeu de patience, la Sta-
de gravité diminue. tion, avec sa centaine de pièces, a nécessité plus de 50 lance-
ments pour être transportée dans l’espace. Pour que les pièces
L’espace est défini au-delà de l’atmosphère terrestre, il est à s’imbriquent bien les unes dans les autres, il est important que
environ 100 km au-dessus de nos têtes. Par contre, il faut les nations participant à ce projet s’accordent et utilisent les
s’éloigner de plus de 200 000 km de la Terre pour que la force mêmes normes.
de gravité de celle-ci diminue tellement que l’on appelle cet
Même si elle paraît éloignée, il est possible de la voir à l’œil nu
environnement la microgravité.
depuis la Terre, de nuit et par temps clair. Lorsqu’elle est
C’est le 19 avril 1971 que les Russes ont envoyé en orbite visible, l’ISS ressemble presque à une étoile se déplaçant dans
basse à 200 km la première station spatiale, Salouit 1 qui sera le ciel. Le meilleur moment pour l’observer est soit juste après
un laboratoire unique sans distorsion gravitationnelle pour étu- le coucher du soleil, soit juste avant son lever.
dier les processus biologiques et physiques sous-jacents dont La Station est suffisamment spacieuse pour accueillir entre 1
les effets sont masqués par la force de gravité. et 7 sept membres d’équipage et une panoplie impressionnante
d’équipements pour mener des expériences scientifiques dans
ses différents laboratoires.
L’impesanteur ou la micropesanteur dépend à la fois L’Europe, travaillant au travers de l’Agence spatiale euro-
du mouvement du corps et du point de l’espace où il se péenne ASE, a la responsabilité exclusive du laboratoire
trouve, alors que la microgravité ne dépend que du point Columbus et d’un autre élément clé de la station, le véhicule
où il se trouve par rapport à un autre corps. de transfert automatique (ATV) (figure 2) dont le pro-
À la distance où se trouve une station orbitale, il ne s’agit gramme touche à sa fin.
pas de microgravité mais de micropesanteur. Pour la Intégré à la Station spatiale internationale en février 2008, le
micropesanteur, les forces gravitationnelles et inertielles ont laboratoire Columbus est un gros cylindre d’une longueur de
une résultante nulle. Pour la microgravité, c’est la résultante 6,84 m sur 4,49 m de large pour un volume pressurisé de
des forces gravitationnelles qui est nulle. 78,5 m3. Columbus est l’un des laboratoires consacrés à la

9-2021 © Editions T.I. IN 243 - 3

37
Référence Internet
IN243

INNOVATION

Figure 1 – Station spatiale internationale, comparaison d’artistes (doc. NASA)

Figure 2 – ASIM (Atmosphere-Space Interaction Monitor) sur le


module Columbus (doc. ASE/DCROS D.)

science en micropesanteur de l’ISS, avec le laboratoire améri-


cain Destiny, le laboratoire japonais Kibo ou le laboratoire russe
Nauka.
Figure 3 – Simulateur d’installation orbitale de Columbus à
Le laboratoire Columbus de l’ISS est équipé de 16 installa- l’ESTEC (doc. ASE)
tions d’armoires pour charge utile internes (4 sur chacun des
4 côtés). Dix sont des armoires pour charge utile au standard
international ISPR (International Standard Payload Rack) d’une – d’arrêter et de récupérer les échantillons après la fin de
capacité unitaire de 998 kg) auxquels sont déjà intégrés les l’expérience.
réseaux d’alimentation électrique, de refroidissement ainsi que ISS présente des inconvénients :
de transmission vidéo et de données (figures 3 et 4). – les durées de préparation des expériences avant de les
Les expériences dans l’ISS présentent les avantages : envoyer dans l’ISS sont importantes, dues en partie à des
contraintes de spatialisation très strictes afin de ne pas mettre
– d’offrir une micropesanteur d’un niveau d’environ 10–6 g ;
en danger les astronautes ;
– de réaliser des expériences de longue durée ; – le nombre de candidats souhaitant une expérience est
– d’avoir un opérateur (astronaute) pour manipuler et important ;
apporter des adaptations tout au long de l’expérience ; – les opportunités de vol sont limitées ;
– de disposer d’un grand nombre d’équipements pour le – le coût des expériences y est très important, notamment
déroulement des expériences et de leurs analyses ; lors de l’intervention d’un opérateur. Le poids et le volume du
– de permettre d’envoyer des expériences dont le matériel matériel nécessaire à l’expérience influencent principalement
est de gros volume ; ce coût.

IN 243 - 4 © Editions T.I. 9-2021

38
Référence Internet
IN243

INNOVATION

Figure 5 – Vaisseau spatial Foton-M3 (doc. ASE/CORVAJA S.)

Figure 4 – Armoires internes européennes Rack 2 (doc. ASE/


JAXA-POSTEMA R.)

1.2 Challenge de l’automatisation


des capsules
Figure 6 – Foton-M3 passe 12 jours en orbite avant de revenir
Il en existe de différentes sortes mais le principe est de sur Terre (doc. ASE/NASA)
mettre en orbite un lot d’expériences scientifiques entièrement
automatisées qui ne nécessitera pas l’intervention d’astro-
nautes. Ces systèmes offrent généralement 15 jours de
micropesanteur par vol (niveau de micropesanteur de l’ordre de
10–5 g), stabilisés sur les 3 axes et réutilisables.
L’exemple le plus célèbre est la capsule automatisée russe
Foton (figures 5 et 6). Son premier vol date de 1985 et elle a
remplacé la capsule Bion. Elle a une capacité d’emport de
600 kg à une altitude de 200 à 300 km. À partir de 1991, des
accords entre l’ASE et l’agence spatiale russe Roskosmos ont
été signés afin de permettre aux Européens de réaliser des
expériences en micropesanteur via ce dispositif. Avec les fonds
de l’ASE, la capsule Foton s’est dotée d’un service de Télé-
science TSU (Telescience Support Unit) qui permet à l’utilisa-
teur (à partir de la station au sol basée en Suède) d’effectuer
des opérations sur les expériences à bord. Lancé depuis Baïko-
nour, au Kazakhstan, avec un lanceur à trois étages, la fusée
Soyouz, intégrant la capsule Foton, atterrit dans la zone fronta-
lière entre la Russie et le Kazakhstan.
En 2023, l’Agence spatiale européenne lancera son labora-
toire automatisé Space Rider (figure 7) qui permettra des mis-
sions automatisées de deux mois en micropesanteur. Figure 7 – Space Rider (doc. ASE/HUART J.)

9-2021 © Editions T.I. IN 243 - 5

39
Référence Internet
IN243

INNOVATION

Développé par Thalès Alenia Space et Avio pour 167 millions


d’euros, Space Rider atteindra l’espace via le lanceur Vega C
depuis le port spatial européen en Guyane française. Son point

1
de retour devrait être un site européen qui n’a pas encore été
choisi mais qui sera vraisemblablement la base aérienne
d’Istres, en France. D’une longueur de 9,7 m, il a une capacité
d’emport de 600 kg de charge utile à une altitude de 400 à
450 km. Space Rider a la particularité d’avoir une soute polyva-
lente ouverte sur l’espace. L’énergie est fournie par
des panneaux solaires qui produisent entre 150 et 400 W pour
la charge utile. Ces panneaux sont largués avant la rentrée
atmosphérique. Il peut être réutilisé au moins 6 fois et le temps
de remise en état entre deux vols est d’environ 6 mois.
À la fin de la mission, la partie récupérable contenant les
expériences se détache du module de propulsion et entre dans
l’atmosphère avant d’atterrir sur Terre grâce à un parachute.
En collaboration avec BioServe Space Technologies, SNC
explore la possibilité d’utiliser son Dream Chaser® – véhicule
utilitaire spatial (SUV) capable de missions multiples – comme
plate-forme orbitale pour des expériences scientifiques en
micropesanteur et la recherche en sciences de la vie spatiale.
Figure 8 – Service de lancement multiple (doc. ASE/DUCROS D.)
La Chine n’est pas en reste avec ses capsules Shenzhou (vais-
seau divin) dédiées aux expériences en micropesanteur. Lan-
cées par une fusée Long March, elles atterrissent en Mongolie.
Cette capsule servira aussi à l’envoi de taïkonautes.
En 2016, la Chine a lancé le satellite Shinjian-10 dédié à la
recherche en micropesanteur. Après 12 jours en orbite, une
capsule de rentrée ramène des échantillons sur Terre, atterris-
sant en Mongolie intérieure. Une de ses expériences avait été
développée conjointement avec l’Agence spatiale européenne.

1.3 CubeSats et prévention


des débris spatiaux
1.3.1 Une course à la miniaturisation
En 1957, avec Spoutnik, la Russie a inauguré l’ère des satel-
lites. Depuis, les grandes institutions ont dominé le ciel avec
des satellites de plus en plus sophistiqués.

Inventé en 1999 à l’Université de Stanford sous la direc-


tion de Robert J. Twiggs puis lancé en 2003, le CubeSat fait Figure 9 – Alexander GERST lançant des CubeSats depuis la
son apparition. C’est une version de satellite bon marché, Station spatiale (doc. ASE/NASA)
simplifiée à son extrême et d’une taille réduite : 10 × 10 ×
10 cm, représentant 1 unité (1 U), pour 1 à 10 kg). Les
satellites peuvent être constitués de l’assemblage de plu- sés par un astronaute dans le sas du module japonais Kibō
sieurs CubeSats. (figure 9) qui fait l’interface entre l’intérieur et l’extérieur de la
station spatiale (Multi-Purpose Experiment Platform – MPEP). Le
Compacts, les CubeSats simplifient et standardisent la NRCSD est mis en position pour être saisi par l’un des bras robo-
conception des satellites et ramènent les coûts de développe- tiques de l’ISS, qui le place dans la bonne position à l’extérieur de
ment, de lancement et d’exploitation à moins de 70 000 euros, l’ISS pour pouvoir libérer les nanosatellites dans une orbite
soit une infime fraction du budget habituel. La taille des Cube- appropriée. Les portes du déployeur s’ouvrent et éjectent à l’aide
Sats limite à la fois l’énergie disponible, la mobilité et les capaci- d’un ressort les nanosatellites. Plusieurs sociétés offrent désor-
tés d’emport de charges utiles. À l’intérieur du CubeSat peut se mais de lancer des CubeSats 1 U à 3 U en tant que charge utile
loger une ou plusieurs charges utiles contenant l’expérience. secondaire. La base de données « Nanosatellite » liste en juin
2019, 2400 CubeSats et autres nanosatellites qui ont été lancés.
Conçus par des scientifiques du monde entier, ils ont effectué
diverses missions allant de la recherche biomédicale en La course à la miniaturisation ne s’arrête pas là. En 2013, le
micropesanteur aux études de la haute atmosphère. Leur popu- Pérou est entré dans l’histoire en lançant un femtosatellite en
larité est croissante surtout dans le domaine de l’éducation. Les orbite terrestre basse. Capable de transmettre des données de
CubeSats offrent ainsi à des pays non dotés d’une agence spa- température, il a été conçu par l’Université catholique pontifi-
tiale, ou même d’équipes universitaires, la possibilité de déve- cale et l’Institut de radioastronomie du Pérou.
lopper leurs propres programmes spatiaux. La première génération de CubeSat ne disposait pas de sys-
Actuellement, ces CubeSats sont placés dans un déployeur tème de propulsion. Une fois en orbite, ils n’étaient pas
(figure 8) ou dispositif d’éjection (exemple : Nanoracks CubeSat manœuvrables. Plusieurs modes de propulsion ont été testés
Deployer – NRCSD), transportés dans l’ISS avant d’être entrepo- selon les besoins des missions : propulsion à gaz froid, propul-

IN 243 - 6 © Editions T.I. 9-2021

40
Référence Internet
P2717

CDMS – Spectrométrie de masse


à détection de charge
par Rodolphe ANTOINE
1
Directeur de recherche au CNRS, Institut Lumière Matière, UMR5306 CNRS, Université
Claude Bernard Lyon 1

1. Instrumentation .................................................................................... P 2 717 - 2


1.1 Source d’ionisation par electrospray ..................................................... — 2
1.2 Optique ionique associée ........................................................................ — 2
1.3 Détection de charge ................................................................................. — 3
1.4 Modes CDMS et performances............................................................... — 3
2. Spectres observés ................................................................................ — 6
3. Couplages ............................................................................................... — 6
3.1 Couplage avec les techniques séparatives ............................................ — 6
3.2 Couplage avec les méthodes de dissociation d’ions ............................ — 7
4. Applications........................................................................................... — 8
4.1 Polynucléotides d’ADN et d’ARN............................................................ — 8
4.2 Assemblages de protéines et fibres amyloïdes..................................... — 8
4.3 Virus .......................................................................................................... — 8
4.4 Nanoparticules et polymères .................................................................. — 10
5. Conclusion.............................................................................................. — 10
6. Glossaire ................................................................................................. — 11
Pour en savoir plus ....................................................................................... Doc. P 2 717

a spectrométrie de masse (MS) est un outil analytique incontournable pour


L la caractérisation et l’identification de molécules. La séparation des molé-
cules selon leur rapport masse/charge (m/z) préalablement ionisées à partir
d’un échantillon repose sur l’action d’un champ électromagnétique. Les spec-
tromètres de masse conventionnels fournissent ainsi généralement un spectre
en m/z duquel doivent être identifiés le ou les états de charge z d’un composé
de masse donnée m. La détermination de la masse m du composé découle de
cette analyse spectrale. Les spectromètres de masse conventionnels sont bien
adaptés à l’analyse de molécules de masse bien définie et allant de quelques
dizaines de daltons (Da) jusqu’à quelques dizaines de kilodaltons (kDa) cou-
vrant notamment le domaine d’analyse des peptides et petites protéines, pour
lequel la technique d’ionisation par electrospray (ESI) produisant des ions très
chargés s’avère particulièrement bien adaptée. En revanche, si on considère un
échantillon constitué de molécules de masse plus élevée, typiquement à partir
du mégadalton (MDa) et au-delà, la résolution du spectre devient impossible.
Une limite de masse mesurable par technique conventionnelle ESI-MS a été
établie autour de 20 MDa. Pour les espèces qui sont intrinsèquement hétéro-
gènes, cette limite est considérablement plus faible. En effet, les états de
charge deviennent plus élevés, plus nombreux et plus proches les uns des
autres sur le spectre. En outre, l’hétérogénéité des ions étudiés augmente avec
la masse du fait de la présence plus ou moins importante d’espèces co-adsor-
bées (molécules d’eau, contre-ions et autres adduits). Enfin, l’étude
d’échantillons intrinsèquement polydisperses tels que des polymères synthé-
tiques ou des nanoparticules est une barrière supplémentaire à la résolution de
ce type de spectres en m/z.
Parution : mars 2021

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 717 – 1

41
Référence Internet
P2717

CDMS – SPECTROMÉTRIE DE MASSE À DÉTECTION DE CHARGE _____________________________________________________________________________

Ainsi, il existe un intervalle de masse que les techniques MS conventionnelles


ne couvrent pas. Et dans cet intervalle se trouvent, dans une large mesure, les
masses des composés ou objets (qu’ils soient naturels ou façonnés par
l’homme) appartenant au « nanomonde ». Il apparaît donc important de
combler ce « vide » analytique dans la détermination de la masse.
Basée sur la détection de la charge-image à partir d’un ion multichargé indi-
viduel traversant un tube conducteur, la spectrométrie de masse à détection de
1 charge permet de mesurer simultanément la charge et le temps de vol
dans ce tube (ToF) de chaque ion issu de l’échantillon. Cette technique de
spectrométrie de masse – à ions uniques – permet d’étendre le domaine d’ana-
lyse de la spectrométrie de masse conventionnelle vers le « nanomonde » en
évaluant le caractère polydisperse de l’échantillon. L’énorme intérêt de cette
technique réside en effet dans sa capacité à produire de réelles distributions de
masse et de charge pour des échantillons présentant pour la plupart un carac-
tère fortement polydisperse.
Pionnier dans le développement de cette technique de spectrométrie de
masse couplée à l’ESI, W.H. Benner et ses collaborateurs aux États-Unis ont
notamment établi la preuve-de-concept en étudiant des macro-ions d’ADN
ou des virus entiers de masse allant de quelques MDa à quelques dizaines de
MDa. À ce jour, plusieurs équipes de recherche (principalement aux États-Unis
d’Amérique) sont actives dans le développement instrumental de cette tech-
nique. Les équipes de M.F. Jarrold et E.R. Williams s’attachent à développer
des réseaux de détecteurs de charge ainsi que des couplages avec des pièges
électrostatiques pour améliorer la sensibilité et la précision de cette technique.
L’équipe de D.E. Austin, quant à elle, s’ingénie à miniaturiser cette technique
sur des circuits imprimés. Enfin, l’équipe de R. Antoine développe des
couplages CDMS avec des techniques séparatives et de la spectroscopie laser.

– Sous l’action conjuguée du champ électrique et d’un courant


La masse moléculaire, somme des masses atomiques des gazeux co-axial, la solution forme un cône dynamique à l’extrémité
différents atomes constituant une molécule, s’exprime en du capillaire, appelé « cône de Taylor ».
Dalton qui est la masse d’un atome d’hydrogène :
– Lorsque la charge de la solution qui forme le cône de Taylor
s’approche de la limite de Rayleigh, celui-ci s’allonge formant alors
un filament liquide jusqu’à la formation de gouttelettes micromé-
On retiendra que 1 Da correspond à une masse molaire de triques.
1 g/mol.
– Puis, par des processus de désolvatation et de fission de
Rayleigh consécutifs les ions présents dans ces gouttelettes sont
transformés en ions en phase gazeuse.

1. Instrumentation L’avantage de cette méthode d’ionisation est l’obtention d’ions


multichargés, pour les macromolécules. Une compilation des
données sur différentes substances (dendrimères, protéines...) a
montré une dépendance en racine carrée entre la charge z la
1.1 Source d’ionisation par electrospray masse m. Typiquement, pour des substances ayant des masses
moléculaires supérieurs à 1 MDa, plusieurs centaines de charges
Comme mentionné précédemment, la technique de spectromé- pouvaient être observées sur ces macro-ions produits par ESI
trie de masse à détection de charge CDMS [1] [2] [3] [4] [5] repose (figure 1) [6] [7].
sur la notion de charge-image, à savoir à la charge de chaque ion
traversant un tube conducteur. Évidemment, toute source d’ionisa-
tion permettant de transférer en phase gazeuse une substance
sous forme d’ions multichargés est favorisée pour la technique 1.2 Optique ionique associée
CDMS. La source d’ionisation par electrospray ESI répond à
ce critère et constitue donc une source optimale pour la spectro- Le dispositif d’optique ionique, permettant le transfert d’ions à
métrie CDMS. Elle implique un processus d’ionisation se produi- travers l’interface capillaire de la source ESI vers le dispositif de
sant en phase liquide et à pression atmosphérique. Son principe détection de charge, est une partie essentielle. Le groupe
est le suivant. d’Antoine a suivi la conception, proposée par Benner et ses colla-
borateurs, des guides d’ions multipolaires (hexapôles ou
– Les substances sont dissoutes dans une solution polaire (géné- octupôles) à radiofréquences (RF). Ces guides ioniques utilisés
ralement hydroalcoolique) dans laquelle sont habituellement ajou- fonctionnent à une fréquence RF de ~ 5 MHz avec une amplitude
tés des composés qui augmentent la conductivité. de crête à crête de ~ 500 V. Ces conditions permettent de trans-
– Cette solution est introduite dans un fin capillaire d’acier inoxy- mettre efficacement des ions dans la plage 102-105 m/z. De plus,
dable (porté à un potentiel élevé de quelques kV). les entonnoirs à ions (ou funnel), où un gradient DC entraîne les

P 2 717 – 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés

42
Référence Internet
P2717

______________________________________________________________________________ CDMS – SPECTROMÉTRIE DE MASSE À DÉTECTION DE CHARGE

+1 ~ 100 kDa
~ 1 kDa

+2

1
0 1 000 2 000 0 5 000 10 000
m/z m/z

~ 10 kDa + 10 ~ 1 MDa

0 1 000 2 000 0 10 000 20 000


m/z m/z
Les spectromètres de masse utilisant l’electrospray comme source d’ionisation fournissent un spectre en m/z duquel
doivent être identifiés le ou les états de charge z d’un composé de masse donnée m. Si on considère un échantillon de
masse plus élevée, typiquement à partir du mégadalton (MDa) et au-delà, la résolution du spectre devient impossible

Figure 1 – Schéma illustratif de l’évolution des spectres de masse en fonction de la masse moléculaire d’un analyte obtenus par source
d’ionisation electrospray

ions vers la sortie de l’entonnoir tandis que le RF (environ 600 kHz) chargés, produits par ESI, passent un par un par un petit tube
fournit un pseudopotentiel qui focalise les ions, offrent également cylindrique métallique connecté à un préamplificateur de charge
de bonnes performances en termes de transmission. Les guides qui capture leur courant d’image. Habituellement, un rapport lon-
d’ions multipolaires et les funnels ont un effet faible pour compen- gueur-diamètre (pour le tube cylindrique) de quatre ou plus est uti-
ser la grande quantité d’énergie emportée par les ions de masse lisé. Notons que la charge induite est presque indépendante de
élevée provenant du flux gazeux à travers le capillaire des sources l’emplacement des ions dans le cylindre, ce qui rend la mesure
ESI. À cet effet, le groupe de Jarrold a proposé un dispositif précise. Le tube détecteur est connecté à un transistor à effet de
hybride – le FUNPET – intégrant la diffusion, l’accélération due aux champ (JFET) puis à l’entrée du préamplificateur sensible à la
champs RF et DC et l’accélération due à l’effet du flux de gaz [8]. charge. Le signal est ensuite traité avec un différentiateur
Pour les ions plus lourds (m/z > 105), les guides ioniques RF ne gaussien : un ion entrant dans le tube produit une impulsion don-
sont plus efficaces. À cette fin, le groupe de Continetti a proposé née, et une impulsion de polarité opposée lorsqu’il sort (figure 2).
un dispositif de guidage novateur basé sur une conception de len- L’impulsion d’amplitude négative correspond à la charge imprimée
tille aérodynamique pour transmettre efficacement plus de 95 % sur le cylindre par l’ion positivement chargé qui entre dans le
des particules dans la gamme de taille de 75 à 1 200 nm [9]. cylindre ; la deuxième impulsion d’amplitude positive résulte de la
sortie de cet ion du cylindre. Le temps entre les deux impulsions
correspond au temps de vol nécessaire à l’ion pour traverser la
1.3 Détection de charge longueur du cylindre. L’amplitude du signal de charge-image est
proportionnelle à la charge totale de l’ion z. Le temps de vol per-
Basée sur la détection de la charge-image d’un ion multichargé met de calculer le rapport masse/charge (m/z) de chaque ion. La
traversant un tube conducteur, la spectrométrie de masse à détec- masse de chaque ion est obtenue comme une combinaison entre
tion de charge permet de mesurer simultanément la charge et le la valeur de m/z et de la charge. Les mesures de détection de
temps de vol (ToF) dans ce tube de chaque ion issu de l’échantil- charge sur plusieurs milliers d’ions individuels permettent de rapi-
lon. En effet, au voisinage d’un conducteur, le passage d’un ion dement construire des distributions de masse.
induit une charge-image. Par exemple, un ion positif entrant dans
un tube conducteur isolé induit une charge négative à l’intérieur
du tube et une charge positive à l’extérieur. Les charges induites
sont maintenues jusqu’à ce que l’ion sorte du tube. Dans ce cas, Un avantage primordial de la technique CDMS en mode
celles-ci se dissipent. Lorsque le tube est suffisamment long, la simple passage est la rapidité à analyser une distribution de
valeur de la charge induite approche celle de la charge de l’ion. macro-ions issus d’un échantillon en solution. Plusieurs milliers
Dans certaines conditions de géométrie, des solutions analytiques d’ions peuvent être analysés dans la minute.
permettant de calculer la charge-image sont extraites grâce au
théorème de Shockley-Ramo [10] [11]. Néanmoins, il est courant
d’utiliser ce théorème pour déterminer le courant d’image induit
avec des calculs d’éléments finis, effectués par exemple dans 1.4 Modes CDMS et performances
SIMION [12]. Notons cependant que les solutions exactes pour le
signal de charge-image dans une cellule ICR ou orbitrap sont géné- Il existe trois modes de détection CDMS (figure 3) [1] [2] :
ralement complexes et beaucoup plus difficiles à évaluer [13].
Ainsi sont simultanément mesurés la charge z et rapport masse- – le mode simple passage ;
sur-charge (m/z), données brutes desquelles peuvent être déduite – le mode détecteurs en ligne ;
la masse (m = z m/z) de chaque espèce ionisée constitutive de – le mode piège à ions.
l’échantillon étudié. La charge d’un ion résulte de l’ajout de
charges élémentaires positives (ou négatives) sur son motif struc- Le mode simple passage est le plus simple ; le rapport m/z est
turel et donc la charge z d’un ion est donnée en multiple entier de déterminé à partir du temps de vol à travers le tube (et l’énergie
la charge élémentaire (e = 1,602 × 10–19 C). Les ions fortement cinétique de l’ion).

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 717 – 3

43
1

44
Référence Internet
P158

Détection et dosage de molécules


dans les cheveux dans le domaine
médicojudiciaire
1
par Dr Stéphane PIRNAY
EXPERTOX Cabinet d’expertises toxicologiques & Laboratoire d’analyses industrielles,
Alfortville, France
http://www.expertox.eu

Clara GIANFERMI
EXPERTOX Cabinet d’expertises toxicologiques & Laboratoire d’analyses industrielles,
Alfortville, France
http://www.expertox.eu

Dr Ségolène DE VAUGELADE
EXPERTOX Cabinet d’expertises toxicologiques & Laboratoire d’analyses industrielles,
Alfortville, France
http://www.expertox.eu

et Lona GUILLEMIN
EXPERTOX Cabinet d’expertises toxicologiques & Laboratoire d’analyses industrielles,
Alfortville, France
http://www.expertox.eu

1. Contexte ........................................................................................... P 158 – 2


2. Prélèvement des échantillons ...................................................... — 2
3. Préparation des échantillons ........................................................ — 3
3.1 Lavage des cheveux prélevés ............................................................ — 3
3.2 Extraction des molécules d’intérêt .................................................... — 4
4. Screening et analyse des échantillons ....................................... — 4
5. Conclusion........................................................................................ — 5
Pour en savoir plus.................................................................................. Doc. P 158

e cheveu est une matrice alternative intéressante qui présente une avancée
L considérable dans l’analyse biologique, notamment en toxicologie médico-
judiciaire. En effet, a contrario des matrices classiques comme le sang et l’urine
dans lesquelles les molécules ne restent analysables que quelques jours voire
quelques heures, l’analyse des cheveux permet d’élargir la fenêtre de détection
des expositions à certains xénobiotiques de plusieurs semaines au minimum
selon la longueur du cheveu analysé. L’analyse rétrospective des cheveux per-
met d’établir le profil de consommation à long terme d’un xénobiotique et son
évolution dans le temps. Cette matrice permet donc à la fois de détecter un
usage unique antérieur, mais également une exposition répétée. De nombreu-
ses méthodes d’analyses en laboratoire se sont développées sur cette matrice,
et continuent de se développer. Cet article vise à donner une meilleure vision
d’ensemble de ces méthodes avec leurs biais, en insistant également sur la pré-
paration des échantillons jusqu’à l’extraction des substances chimiques.
Nota : cet article est issu de la revue « Annales des falsifications, de l’expertise chimique et toxicologique » éditée par la SECF
(Société des experts chimistes de France).
Parution : mai 2022

Copyright © - Techniques de l’Ingénieur - Tous droits réservés P 158 – 1

45
Référence Internet
P158

DÉTECTION ET DOSAGE DE MOLÉCULES DANS LES CHEVEUX DANS LE DOMAINE MÉDICOJUDICIAIRE –––––––––––––––––––––––––––––––––––––––––––––

1. Contexte qui auraient les mêmes métabolites. De plus, les molécules incor-
porées sont très stables dans les cheveux.
La détection de substances chimiques dans les cheveux est une
technique très exigeante qui fait appel à des techniques d’analyse
L’analyse en laboratoire des cheveux a progressé de façon impor- très sensibles et sélectives dans un laboratoire bien équipé et doté
tante depuis les années 2000 [1]. En effet, les applications utilisant de personnel compétent. L’établissement d’une procédure de dépis-
l’analyse des cheveux sont de plus en plus nombreuses, y compris tage analytique sur les échantillons biologiques doit prendre en
les addictions et toxicomanies, le suivi des patients alcoolodépen- compte certains paramètres, comme le volume de l’échantillon, la
dants, l’empoisonnement chronique, le dopage, la soumission chi-

1
vitesse d’analyse, la sensibilité et la spécificité des méthodes. Cer-
mique ou encore la restitution du permis de conduire [2]. tains paramètres doivent être validés comme la sélectivité, le
En parallèle, le développement du matériel d’analyse permet modèle de calibration (linéarité), l’exactitude et la précision, la
d’obtenir des résultats de plus en plus sensibles, précis et fiables, limite de détection (LD), la limite de quantification (LQ), la stabilité
avec des niveaux de détection de concentrations très faibles (du du produit à analyser, le rendement, les effets de matrice et la
picogramme voire parfois du nanogramme) [3]. robustesse.
La matrice cheveux présente certains avantages : Les techniques recommandées pour l’analyse des cheveux sont :
– le prélèvement est simple et non invasif ; – la GC-MS, GC-MS-MS et LC-MS-MS ou LC-DAD pour tout ce qui
– la conservation est aisée, dans une enveloppe ou un kit de col- est drogues illicites, stupéfiants et médicaments délivrés sur
lecte à température ambiante, en milieu sec à l’abri de la lumière, ordonnance ;
sans limite de temps. – la LC-MS-MS (ou GC-MS-MS) ou MSn pour les hypnotiques, les
benzodiazépines et les molécules apparentées aux benzodiazépines ;
Les poils sont des structures kératinisées produites au niveau – la GC-MS-MS (ou LC-MS-MS) ou MSn pour tout ce qui
d’une invagination de l’épithélium épidermique, le follicule pilo- concerne le GHB et les cannabinoı̈des [6].
sébacé. Chacun de ces follicules représente une unité anatomique,
constituée du poil proprement dit, de son bulbe pilaire, sa racine et
À retenir
sa tige, du follicule, d’une glande sébacée et d’un muscle.
Les poils se développent puis chutent de façon individuelle et – Le cheveu est une matrice qui se prélève et se conserve
cyclique, selon trois phases : la phase de croissance (quatre à huit aisément contrairement au sang et aux urines.
ans), la phase de transition (deux semaines), et la phase de repos – Les substances chimiques peuvent être présentes à long
(trois mois). Il est généralement considéré que les cheveux pous- terme dans le cheveu.
sent d’environ 1 cm par mois, avec des variations allant de 0,7 à – Les méthodes d’analyses sont en plein essor et de plus en
1,5 cm par mois. Le mécanisme supposé pour l’incorporation des plus perfectionnées grâce aux avancées de développement du
xénobiotiques dans les cheveux consiste en une diffusion interne matériel d’analyse.
des molécules du sang vers les cellules en croissance des bulbes – Certains biais comme le traitement des cheveux avant pré-
pileux, et une diffusion externe à partir des sécrétions sudorales, lèvement, notamment cosmétique, peuvent influencer, biaiser
sébacées, ou des éventuels contaminants de l’environnement. En et rendre plus difficiles les analyses.
fusionnant pour former le cheveu, les cellules en croissance piège-
raient les molécules dans la structure kératinisée. Les cinétiques
d’incorporation sont dépendantes des liaisons de la molécule à la
mélanine, un pigment des cheveux qui présente différents degrés 2. Prélèvement
d’oxydation. Il semble qu’il existe une différence quantitative
d’incorporation des molécules selon la couleur des cheveux. En des échantillons
effet, les cheveux foncés, qui présentent un degré d’oxydation
plus important de la mélanine, concentrent ou retiennent plus for-
tement les molécules que les cheveux clairs, à doses d’exposition Le prélèvement des cheveux doit être effectué par une personne
équivalentes. Cette observation pose donc des problèmes d’équité, compétente (biologiste, policier, gendarme) qui suit avec soin les
puisqu’il est admis par la communauté scientifique qu’à dose procédures judiciaires et évite toute contamination de l’échantillon
administrée équivalente, les concentrations mesurées dans les che- et tout contact avec les substances à rechercher.
veux noirs sont plus importantes que dans les cheveux blonds [2].
Il est conseillé d’attendre au moins quatre semaines après la pos-
Les traitements cosmétiques (coloration, décoloration, perma- sible exposition à la molécule avant de prélever les échantillons de
nente, lissage) peuvent affecter les analyses en diminuant la cheveux si la personne est vivante.
concentration des molécules incorporées dans les cheveux notam-
Les cheveux sont généralement prélevés dans la région du vertex
ment par modification de la porosité des cheveux. Donc il convient
postérieur de la tête car cette région présente moins de variations
de noter lors du recueil des cheveux tout traitement cosmétique et
de croissance. La quantité de cheveux nécessaire pour les analyses
de prélever, en cas d’altération visible, d’autres poils ou phanères.
est d’une touffe de cheveux du diamètre d’un crayon (soit environ
En effet, l’incorporation se faisant dans tous les poils, si les che-
une centaine de cheveux). Il est important de collecter suffisam-
veux ne peuvent être prélevés ou sont manquants, d’autres poils
ment de cheveux afin de pouvoir effectuer les tests de routine et
conviennent également comme les poils pubiens, les poils de la
permettre également une répétition d’analyse ou une contre-exper-
poitrine ou les poils axillaires. Ces poils sont particulièrement
tise si besoin. Dans le cadre des expertises judiciaires, il convient
recommandés lorsque les cheveux sont teints ou décolorés. Cepen-
d’effectuer le prélèvement en double. En effet, lorsqu’une tech-
dant, il conviendra de faire attention aux interprétations en utilisant
nique de dépistage préliminaire est réalisée, un volume suffisant
des poils différents de ceux de la tête, puisque l’incorporation peut
d’échantillon est requis pour effectuer des analyses plus poussées
être fort variable selon la localisation anatomique [2].
et des analyses confirmatoires par la suite [7].
La fixation des molécules dans les cheveux pourrait également
Les mèches de cheveux doivent être prélevées le plus près pos-
s’effectuer par le biais de l’environnement atmosphérique [4] [5]. sible du cuir chevelu, coupées avec des ciseaux (ne surtout pas
Les substances mères sont présentes dans les cheveux ou poils à arracher) et orientées avec racine-extrémité au moyen d’une corde-
des concentrations plus élevées que celles de leurs métabolites lette, fixée 1 cm au-dessus du niveau de la racine. Le découpage de
alors que dans les urines les rapports sont généralement inversés. cheveux doit se faire d’autant plus près de la peau que la phase de
De ce fait, les cheveux permettent de discriminer deux substances pousse à explorer est proche du moment du prélèvement.

P 158 – 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés

46
Innovations en analyses et mesures
(Réf. Internet 42112)

1– Analyse en biologie et en médecine 2


2– Analyse dans l'agroalimentaire Réf. Internet page

Compléments alimentaires à visée cosmétique : efficacité et risques pour le P152 49


consommateur
Les substances préoccupantes provenant des matériaux au contact des aliments P153 51

Spectrométrie d'émission induite par laser appliquée à l'authentification des vins P154 53

Application des isotopes stables à l'authentification des vins au Service commun des P155 55
laboratoires
Bioessais et biocapteurs : outils d'analyse des toxines dans l'agroalimentaire RE225 57

Agriculture de précision. Etude des variabilités spatio-temporelles des agrosystèmes IN238 61

3– Analyse pour l'environnement et la sécurité

4– Analyse en matériaux et en chimie

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

47
2

48
Référence Internet
P152

Compléments alimentaires à visée


cosmétique : efficacité et risques
pour le consommateur

par Esther KALONJI 2


ANSES, Unité d’évaluation des risques liés à la nutrition – Direction de l’évaluation
des risques
et Claire WALLAERT
Institut national de la consommation, Centre d’essais comparatifs

1. Compléments alimentaires à visée cosmétique :


ce que dit la réglementation ................................................................. P 152 2
2. Composition des compléments alimentaires à visée
cosmétique : quelle justification des effets revendiqués............. — 2
3. Composition des compléments alimentaires à visée
cosmétique : quelle sécurité d’emploi ............................................... — 3
4. Étude spécifique sur des compléments alimentaires
à visée cosmétique .................................................................................. — 4
4.1 Méthode de l’étude ...................................................................................... — 4
4.2 Présentation et analyse des données recueillies
(étiquetage, résultats d’analyse) ................................................................. — 4
4.2.1 Description des éléments de composition
et de communication « santé » ................................................................... — 4
4.2.2 Analyse des données recueillies........................................................ — 5
5. Conclusions................................................................................................ — 6
6. Annexe......................................................................................................... — 6
Pour en savoir plus ........................................................................................... Doc. P 152

a santé est un état de complet bien-être physique, mental et social, et


«L ne consiste pas seulement en une absence de maladie ou
d'infirmité » [1].
Dans un contexte occidental où le culte du corps et l’image de soi constituent
aujourd’hui un fait social, on peut aisément imaginer un glissement de la
notion de santé (s’entendant absence de maladies) vers celle de bien-être.
En effet, après l’ère des aliments dits « fonctionnels » et « santé » au début
des années 1980, on assiste depuis une quinzaine d’années au développement
de sous-catégories, notamment des « nutraceutiques » ou « cosmetofoods »
ou « nutricosmétiques » qui revendiquent des actions sur la peau, les cheveux
ou les ongles, voire les dents.
Si les travaux de recherche ont tenté d’établir des bases scientifiques solides
pour la démonstration des effets fonctionnels des aliments et/ou de leurs
constituants chez l’homme [2] [3], les données manquent encore pour asseoir
les revendications cosmétiques, parfois fantaisistes, utilisées pour valoriser
certains aliments.
Par ailleurs, ces aliments, pour lesquels sont revendiqués des effets cosméti-
ques, sont dans la grande majorité des cas des compléments alimentaires, et
intègrent des cocktails de nutriments et de substances variées dont les interac-
Parution : mai 2013

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


est strictement interdite. – © Editions T.I. P 152 – 1

49
Référence Internet
P152

COMPLÉMENTS ALIMENTAIRES À VISÉE COSMÉTIQUE : EFFICACITÉ ET RISQUES POUR LE CONSOMMATEUR _________________________________________

tions sont encore méconnues. Ainsi, au-delà de la nécessité de véracité des


messages véhiculés, il faut s’interroger sur la sécurité d’emploi, sur le long
terme, de ces produits.
Cet article est extrait de la revue « Annales des falsifications, de l’expertise
chimique et toxicologique » (n° 977) éditée par la SECF (Société des experts
chimistes de France).

2 1. Compléments alimentaires 2. Composition


à visée cosmétique : des compléments
ce que dit la réglementation alimentaires à visée
cosmétique : quelle
Il n’existe pas de définition réglementaire des denrées alimen-
taires à visée cosmétique. justification des effets
On peut postuler que ce sont des produits à la frontière entre les revendiqués
denrées alimentaires (règlement 2002/178/CE, directive 2002/46/CE)
et les produits cosmétiques (directive 76/768/CE).
Si le niveau de preuve exigible fait encore l’objet de débat, force est
Nota 1 : règlement no 2002/178/CE du Parlement européen et du Conseil du 28 janvier
de constater que de nombreux dossiers sont encore éloignés des
2002 établissant les principes généraux et les prescriptions générales de la législation ali- standards (lignes directrices) d’une évaluation scientifique adéquate.
mentaire, instituant l’Autorité européenne de sécurité des aliments et fixant des L’Autorité européenne de sécurité sanitaire des aliments qui est
procédures relatives à la sécurité des denrées alimentaires. aujourd’hui chargée de l’évaluation centralisée des allégations
insiste, comme l’Anses l’a régulièrement fait avant l’harmonisation,
Nota 2 : directive no 2002/46/CE du Parlement européen et du Conseil du 10 juin 2002
relative au rapprochement des législations des États membres concernant les
sur l’importance de disposer de la totalité des données disponibles.
compléments alimentaires. Toutefois, si les données expérimentales in vitro et chez l’animal sont
On entend par compléments alimentaires les denrées alimentaires dont le but est de
utiles pour expliciter les mécanismes mis en jeu dans les effets reven-
compléter le régime alimentaire normal et qui constituent une source concentrée de diqués, seules des études cliniques contrôlées permettent d’établir
nutriments ou d’autres substances ayant un effet nutritionnel ou physiologique seuls ou un lien de cause à effet entre la consommation d’un complément ali-
combinés, commercialisés sous forme de doses, à savoir les formes de présentation [....] mentaire de composition donnée et les effets revendiqués.
destinées à être prises en unités mesurées de faible quantité.
Or, peu d’études réalisées chez l’homme dans les conditions de
Nota 3 : directive no 76/768/CEE du Conseil du 27 juillet 1976 concernant le rapproche- composition et de consommation préconisées pour le CA à visée
ment des législations des États membres relatives aux produits cosmétiques.
cosmétique sont disponibles dans la littérature. Pour celles qui sont
On entend par produit cosmétique toute substance ou préparation destinée à être fournies, les évaluations permettent d’évoquer plusieurs écueils :
mise en contact avec les diverses parties superficielles du corps humain (épiderme, sys-
tèmes pileux et capillaire, ongles, lèvres et organes génitaux externes) ou avec les dents – l’extrapolation de données obtenues sur des modèles in vitro à
et les muqueuses buccales, en vue exclusivement ou principalement de les nettoyer, de
les parfumer et de les protéger afin de les maintenir en bon état, d’en modifier l’aspect
des effets nutritionnels par voie orale, sans disposer de données
ou de corriger les odeurs corporelles. sur la biodisponibilité cutanée des nutriments et substances ;
– l’inadéquation entre les effets revendiqués et les réalités
Le décret 2006-352 du 20 mars 2006 fixe, au niveau national, les physiologiques ; par exemple, comment peut-on justifier une allé-
dispositions générales relatives à la composition des compléments gation portant sur la « beauté de la peau » sans disposer de para-
alimentaires (CA) (nutriments, substances, plantes et extraits de mètres biologiques objectifs ? ;
plantes...), à l’étiquetage, aux déclarations de mise sur le marché
– l’absence de prise en compte du caractère multifactoriel d’un
et demandes d’autorisation d’emploi (dont le cas des CA venant
effet ; par exemple, la qualité de la masse capillaire inclut le nombre
d’un autre État membre), etc.
de cheveux, leur diamètre ainsi que leur résistance à la traction,
Par ailleurs, l’arrêté du 9 mai 2006 relatif aux nutriments pou- paramètres qui doivent être testés de manière concomitante ;
vant être employés dans la fabrication des compléments alimen- – l’existence de données statistiquement significatives mais avec
taires précise la liste des vitamines et minéraux pouvant être des incertitudes sur la plausibilité biologique et l’interprétation
utilisés pour la fabrication des CA, leurs formes chimiques ainsi physiologique ;
que leurs doses journalières maximales. – l’utilisation fréquente de questionnaires d’auto-évaluation par
Enfin, et depuis 2006, la communication « santé » sur les den- les sujets, rendant difficile l’objectivation des résultats obtenus ;
rées alimentaires a été harmonisée et les différentes revendica- – certains micronutriments présents dans les CA à visée cosmé-
tions, incluant celles à visée cosmétique, relèvent du règlement tique sont impliqués dans des réactions biochimiques au niveau
européen 1924/2006/CE du 20 décembre 2006 concernant les allé- du derme (vitamine C et synthèse de collagène, EPA et DHA et
gations nutritionnelles et de santé. L’évaluation des allégations, constitution de la double couche phospholipidique membranaire,
qui se faisait jusqu’alors par chaque État membre est maintenant vitamine E, beta-carotène, zinc, sélénium, cuivre et leurs activités
centralisée et confiée à l’Autorité européenne de sécurité des ali- antioxydantes) mais la modulation de ces effets par l’apport ali-
ments (European food safety authority-Efsa). Sur la base des avis mentaire reste à étudier ; de plus, d’autres micronutriments et
rendus par l’Efsa, une liste de 222 allégations de santé autorisées, microconstituants présents dans les CA à visée cosmétique n’ont
portant pour une grande part sur les vitamines et minéraux, vient pas fait la preuve de leur implication dans la biologie des phanères
d’être publiée par la Commission européenne. (vitamine B1/Thiamine, isoflavones).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


P 152 − 2 est strictement interdite. − © Editions T.I.

50
Référence Internet
P153

Les substances préoccupantes


provenant des matériaux
au contact des aliments

par Anne-Marie RIQUET 2


Chargée de recherche INRA – UMR INRA/AgroParisTech/CNAM

1. Risques potentiels liés aux substances de départ .......................... P 153 - 2


1.1 Monomères .................................................................................................. — 2
1.2 Additifs intervenant dans la formulation ................................................... — 3
2. Risques potentiels liés aux composés néoformés .......................... — 4
3. Discussion et conclusion ....................................................................... — 5
Pour en savoir plus ........................................................................................... Doc. P 153

a majeure partie des produits alimentaires distribués dans les pays déve-
L loppés est emballée. Les emballages sont des barrières destinées à
prévenir la contamination chimique et microbiologique des denrées, et à pro-
longer leur durée de vie. Ils servent aussi de support d’information pour le
consommateur. Mais, à côté de leurs nombreux aspects bénéfiques, les embal-
lages introduisent un risque potentiel pour le consommateur, du fait de la
migration dans les aliments de certains constituants des matériaux.
Les autorités nationales ont donc cherché à encadrer le risque par des textes
réglementaires. En principe, la réglementation de la santé des consommateurs
repose sur une exigence élémentaire très générale, formulée dans le
règlement (CE) No 1935/2004 [1] : « les matériaux et objets au contact des
aliments ne doivent pas céder de substances en quantités susceptibles de
mettre en danger la sécurité alimentaire ».
Dans la pratique, chaque État membre, voire chaque industriel est libre
d’appliquer ses propres outils et ses méthodes d’appréciation du risque, ce qui
entraîne une confusion grandement préjudiciable aussi bien à la perception du
risque qu’à la libre circulation des marchandises. Pour remédier à cette
situation, la Commission européenne a entrepris un travail d’harmonisation
qui a conduit à la proposition et à l’adoption de directives spécifiques, définis-
sant de manière précise comment répondre aux exigences fondamentales de
la directive cadre. Toutefois, la réglementation actuelle est encore incomplète,
et ne couvre pas encore tous les domaines de l’emballage, car il subsiste des
secteurs où des connaissances scientifiques doivent encore être acquises. C’est
le cas des emballages innovants (comme les emballages actifs et intelligents),
ou de systèmes plus anciens, et dont l’évaluation du risque est complexe. C’est
notamment le cas des systèmes réactifs où les migrants potentiels ne sont pas
les molécules introduites dans la fabrication, mais des produits de réaction de
ces molécules avec leur environnement, ou de ces molécules entre elles (com-
posés dits « néoformés »). Les matériaux sont en effet soumis à des conditions
pouvant favoriser la formation de nouveaux migrants potentiels (post-traite-
ments tels que la stérilisation, la cuisson, etc.). En conséquence, le risque ne se
limite pas aux substances de départ mais à un nombre parfois important de
sous-produits dont on ignore la nature chimique et la toxicité résultante.
Parution : mai 2013

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


est strictement interdite. – © Editions T.I. P 153 – 1

51
Référence Internet
P153

LES SUBSTANCES PRÉOCCUPANTES PROVENANT DES MATÉRIAUX AU CONTACT DES ALIMENTS __________________________________________________

L’objectif de cette courte présentation n’est pas de générer une tourmente


médiatique sur les risques potentiels liés à certaines substances issues des
matériaux au contact des aliments. Il est, bien au contraire, – dans le cadre d’une
thématique aussi complexe que l’évaluation des risques – de sensibiliser le lec-
teur, au travers de quelques exemples caractéristiques, aux efforts soutenus
déployés à plusieurs niveaux (académique, industriel, réglementaire) pour
contribuer à une meilleure sécurité sanitaire des aliments et ainsi accroître la
confiance des consommateurs vis-à-vis des produits qui leur sont proposés.
Cet article est extrait de la revue « Annales des falsifications, de l’expertise
chimique et toxicologique » (no 977) éditée par la SECF (Société des experts

2
chimistes de France).

1. Risques potentiels liés


CH3
aux substances de départ
HO OH

1.1 Monomères CH3

Le BPA (bisphénol A), dont la dénomination systématique est le


Figure 1 – Formule du bisphénol A
2,2-bis (4-hydroxyphényl) propane (figure 1), est utilisé comme un
des monomères dans la fabrication du polycarbonate, un poly-
mère qui présente une excellente transparence, une grande rigidité
(température de transition vitreuse Tg ∼ 150 oC) et une bonne
résistance aux chocs. Pour ces qualités, il est utilisé dans la fabri-
cation de nombreux récipients et ustensiles alimentaires, tels que
les bouteilles de boissons, les biberons, la vaisselle (assiettes et
tasses) et les récipients de conservation.
On retrouve également du BPA dans des systèmes de stockage O
O
et de transport (tuyaux, réservoirs), tels que les bonbonnes O
réutilisables, et dans certains vernis internes des boîtes de O
conserves où il contribue à l’élasticité, l’adhérence et l’étanchéité
de l’emballage. Il est essentiel pour permettre au matériau de sup-
porter les contraintes telles que l’emboutissage. Figure 2 – BADGE (diglycidyl éther du bisphénol A)

La question qui se pose aujourd’hui est le risque du BPA au


regard de l’exposition du consommateur par le biais de l’alimen-
tation. Pour y répondre, de nombreuses études de toxicité ont été
réalisées à l’échelle internationale et selon des normes internatio-
nales. Même si, à l’heure actuelle, les divers avis scientifiques
n’ont pas démontré de risque aux doses auxquelles le
consommateur est exposé, l’enjeu est devenu médiatique, voire O O
O
sociétal, et la Commission européenne a publié la directive O
2011/8/UE qui interdit l’utilisation du bisphénol A dans les biberons
en plastique. Elle spécifie l’interdiction de la fabrication de bibe-
rons avec du BPA à compter du 1er mars 2011 et l’interdiction de Figure 3 – BFDGE (diglycidyl éther du bisphénol F)
leur mise sur le marché à compter du 1er juin 2011.
Le « dossier » du BPA a soulevé deux problèmes complexes
Si les professionnels s’inquiètent autant des dangers des substi-
propres aux substances à risques connus. L’un porte sur le prin-
tuts potentiels que du principe de précaution, c’est qu’il y a déjà eu
cipe de précaution, principe selon lequel l’absence de certitudes,
des précédents, dont le cas des NOGE versus BADGE.
compte tenu des connaissances scientifiques et techniques du
moment, ne doit pas retarder l’adoption de mesures effectives et Le BADGE (diglycidyl éther du bisphénol A) (figure 2) et le
proportionnées visant à prévenir un risque dans les domaines de BFDGE (diglycidyl éther du bisphénol F) (figure 3) sont des mono-
l’environnement, de la santé ou de l’alimentation. L’autre porte sur mères utilisés d’une manière très générale comme substances de
les moyens de substitution de certaines substances préoccupantes départ pour la fabrication des vernis époxy phénoliques qui
qui sont actuellement incontournables pour la réalisation de cer- constituent les revêtements internes de nombreuses boîtes ali-
tains matériaux. En matière de solutions alternatives, pour éviter mentaires. Les problèmes liés à la migration de ces substances et
que les substituts potentiels ne s’avèrent plus toxiques que les ori- de leurs dérivés (produits d’hydrolyse et chlorohydrine) ont été
ginaux, il faut impérativement prendre en considération le temps très rapportés dans les médias depuis 1999. Sur la base de résul-
nécessaire à l’obtention de résultats opérationnels, ce qui peut tats analytiques alarmants en 1995, il a été mis en évidence un
prendre plusieurs années. besoin urgent de connaissances dans le domaine de la réactivité

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


P 153 − 2 est strictement interdite. − © Editions T.I.

52
Référence Internet
P154

Spectrométrie d’émission induite


par laser appliquée
à l’authentification des vins

par Coralie MARTIN


Université de Bordeaux, CNRS, ISM UMR 5255, Talence, France
2
Advanced Track and Trace, ATT, Rueil Malmaison, France
Jean-Luc BRUNEEL
Université de Bordeaux, CNRS, ISM UMR 5255, Talence, France
François GUYON
Service commun des laboratoires, Pessac, France
Bernard MEDINA
Service commun des laboratoires, Pessac, France
Michael JOURDES
Université de Bordeaux, ISVV, EA Œnologie 4577, Villenave d’Ornon, France
Pierre-Louis TEISSEDRE
Université de Bordeaux, ISVV, EA Œnologie 4577, Villenave d’Ornon, France
et François GUILLAUME
Université de Bordeaux, CNRS, ISM UMR 5255, Talence, France
Note de l’éditeur : cet article est extrait de la revue « Annales des falsifications, de l’expertise
chimique et toxicologique no 981 éditée par la SECF (Société des experts chimistes de France)

1. Spectroscopie optique « laser » et spectromètre Raman ......... P 154 - 2


2. Quelques exemples de l’exploitation d’un spectromètre
Raman pour l’authentification de bouteilles de vin .................... — 3
2.1 Étiquettes et capsules.............................................................................. — 3
2.2 Bouteilles en verre ................................................................................... — 3
2.3 Vin ............................................................................................................. — 5
3. Conclusions ............................................................................................ — 6
Pour en savoir plus ......................................................................................... Doc. P 154

ans le contexte de l’authentification et de la lutte contre la contrefaçon, les


D méthodes d’analyse chimique sont indispensables. En effet, malgré toutes
les précautions qui peuvent être prises pour lutter contre la contrefaçon d’un
produit commercial à travers des méthodes de marquage complexes, seules
des analyses permettant d’identifier la composition chimique des divers élé-
ments qui composent le contenant et le contenu permettent de garantir
l’authenticité du produit et éventuellement la provenance de l’objet contrefait.
Il existe un grand nombre de techniques analytiques plus ou moins sophisti-
quées et souvent complémentaires. Un enjeu important est de disposer
d’outils analytiques relativement légers et polyvalents permettant au moins
d’identifier une anomalie ou une incohérence. Les techniques de spectroscopie
optique sont prometteuses car les progrès récents dans les domaines de l’ins-
trumentation permettent de disposer dès maintenant d’outils modérément
onéreux, compacts, portables, pouvant être miniaturisés dans un proche futur.
Dans ce contexte, la spectroscopie laser est une technologie particulièrement
séduisante et nous allons illustrer ici à travers quelques exemples son poten-
tiel dans le domaine de l’authentification des vins.
Parution : mai 2015

Copyright © –Techniques de l’Ingénieur –Tous droits réservés P 154 – 1

53
Référence Internet
P154

SPECTROMÉTRIE D’ÉMISSION INDUITE PAR LASER APPLIQUÉE À L’AUTHENTIFICATION DES VINS __________________________________________________

1. Spectroscopie optique État Excitation λ0


« laser » et spectromètre électronique
excité Fluorescence
Raman Niveau
λ′ > λ0 Excitation λ0

électronique
virtuel Diffusion
La spectroscopie moléculaire repose sur le phénomène d’inte- Diffusion
Raman Rayleigh λ0
raction lumière-matière. Le rayonnement lumineux est porteur
État λ′ > λ0
d’énergie (l’énergie du photon est inversement proportionnelle à Niveaux
sa longueur d’onde) qui peut être absorbée par le matériau irradié. électronique
vibrationnels
fondamental
Ces mécanismes sont décrits schématiquement figure 1. Lorsque Absorption Absorption
le photon a une énergie qui correspond à la différence d’énergie UV infrarouge

2
entre l’état quantique fondamental d’une molécule et l’un de ses
états quantiques excités, un phénomène de résonance se produit De droite à gauche : l’absorption de photons dans l’infrarouge moyen
avec transition de l’état fondamental vers l’état excité. Pour des permet de sonder les états vibrationnels des molécules ; l’interaction
photons de faible énergie, c’est-à-dire pour les longueurs d’onde des photons dans le visible avec les molécules du milieu sondé va
provoquer les oscillations forcées des électrons modulées par les
micrométriques du rayonnement infrarouge, les niveaux
vibrations moléculaires et est à l’origine de la spectroscopie de
quantiques considérés correspondent aux vibrations moléculaires.
diffusion Raman (dite Stokes) ; l’absorption des photons dans le visible
Une fois que la molécule a absorbé le rayonnement, l’excès ou dans l’UV permet de sonder les états électroniques des molécules.
d’énergie est dissipé via des collisions avec les autres molécules Après absorption d’un photon, la molécule dans son état excité va
environnantes. Pour des photons ayant des longueurs d’onde plus dissiper son énergie par conversions internes puis regagner l’état
courtes (en général dans l’ultraviolet UV), les niveaux quantiques électronique fondamental en relaxant son excès d’énergie par
impliqués dans le processus d’absorption correspondent à des l’émission d’un photon.
états électroniques. L’excès d’énergie sera dissipé en partie via des
collisions avec les autres molécules du milieu, ce qui va progressi- Figure 1 – Représentation schématique des différents mécanismes
d’interaction photon-molécule
vement amener la molécule irradiée dans son état électronique
excité de plus basse énergie. Pour continuer à perdre l’énergie
emmagasinée et retourner dans son état quantique fondamental, du visible, sa couleur dominante perçue par l’œil étant liée à
cette molécule devra réémettre un photon. Ce rayonnement émis l’absorption de la lumière verte (450 à 550 nm). Cette absorption
après absorption est la luminescence qui englobe la fluorescence de la lumière donnant leur couleur aux vins est liée aux transitions
si la « durée de vie » dans l’état excité est relativement brève électroniques de certaines molécules qui les composent. Ainsi, si
(< 1 µs) ou la phosphorescence si la durée de vie est longue on irradie un tel matériau coloré avec une émission laser verte ou
(> 1ms). Tant que l’énergie du photon incident provoque la transi- violette, le phénomène de luminescence (fluorescence) mentionné
tion de la molécule vers l’état électronique excité (figure 1), la lon- ci-dessus se superposera, en le masquant le plus souvent, au phé-
gueur d’onde du photon émis sera toujours la même. En d’autres nomène de diffusion Raman bien plus faible en intensité. Cette
termes, la différence des longueurs d’onde entre photons incidents spectroscopie induite par laser, d’émission de fluorescence (spec-
et émis est variable. Il y a cependant un autre mécanisme d’inte- troscopie de fluorescence induite par laser que nous noterons
raction lumière-matière, qui n’est pas un phénomène de réso- LIFS) et/ou de diffusion Raman, est riche en information sur la
nance, provoquant aussi une émission de photons dans le composition chimique de l’objet irradié.
domaine du visible. Ici l’énergie apportée par les photons aux
molécules va forcer les électrons à adopter un état d’énergie supé- Le choix de la longueur d’onde du rayonnement excitateur sera
rieur dit « virtuel » de durée de vie nulle. Le retour à l’état fonda- alors un paramètre crucial à déterminer. Si notre objectif est de
mental provoque soit la réémission d’un photon de même énergie mesurer la diffusion Raman en minimisant le phénomène d’émis-
que le photon incident (collision photon-molécule élastique) pour sion de fluorescence, alors la source lumineuse excitatrice devra
la diffusion Rayleigh, soit la réémission d’un photon d’énergie dif- avoir une longueur d’onde se situant en dehors de toute absorp-
férente (collision inélastique) pour la diffusion Raman. La longueur tion électronique. Par exemple, pour un vin rouge (qui absorbe
d’onde du photon émis dépend de la longueur d’onde du rayon- donc la lumière verte vers 500 nm), plus la longueur d’onde du
nement incident, en d’autres termes la différence des longueurs laser se situe vers le proche infrarouge (> 700 nm) moins l’émis-
d’onde entre photons incidents et photons émis est constante. sion de fluorescence masquera la diffusion Raman.
Pour distinguer ce mécanisme du phénomène de luminescence,
Le rayonnement Raman est de faible intensité et la diffusion
on parlera de diffusion de la lumière. L’intensité de la diffusion
Rayleigh, bien plus intense, doit être rejetée pour améliorer le
Rayleigh, à l’origine de la couleur bleue du ciel, est plus de un
contraste du système optique du spectromètre. Dans un spectro-
million de fois celle de la diffusion Raman. Ainsi, un matériau
mètre Raman moderne (figure 2), le rayonnement diffusé par
transparent excité par une onde lumineuse monochromatique
l’échantillon analysé est transmis par un filtre « Notch » directe-
dans le domaine du visible émettra essentiellement dans toutes les
ment vers un réseau de diffraction. Ce filtre ne transmet pas la dif-
directions de l’espace un rayonnement de même longueur d’onde
fusion Rayleigh et le rayonnement diffracté par le réseau est
que le rayonnement incident. Pour un matériau coloré, c’est-à-dire
détecté par une caméra bidimensionnelle photosensible CCD
intégrant dans sa formulation des molécules absorbant dans le
(« Charge Coupled Device »). Ce principe de fonctionnement auto-
visible, les deux phénomènes d’émission de la lumière (lumines-
rise non seulement l’utilisation de lasers de faible puissance, mais
cence et diffusion) vont coexister si le rayonnement excitateur est
également le couplage du spectromètre à des microscopes
absorbé.
optiques (figure 2). Les progrès récents réalisés sur les lasers à
Du fait de la faible intensité du rayonnement diffusé inélasti- diode, les filtres, les fibres optiques, les réseaux de diffraction
quement, la spectroscopie Raman est une technique qui pendant holographiques et les caméras CCD permettent aujourd’hui de
longtemps a été assez délicate à mettre en œuvre et est donc res- concevoir des spectromètres Raman performants, peu gourmands
tée confinée dans les laboratoires de recherche. De plus, beaucoup en énergie et surtout de petite taille. Un point sur lequel, il n’est
de matériaux ne sont pas transparents dans le visible. Par pas inutile d’insister est que le spectromètre Raman décrit ici peut
exemple, le vin blanc est jaune, c’est-à-dire qu’il absorbe la tout aussi bien être utilisé pour détecter la fluorescence induite par
lumière violette de longueur d’onde comprise dans la gamme 300 laser LIFS. Nous disposons ici, en quelque sorte, de deux outils en
à 350 nm. Le vin rouge absorbe la lumière dans une large gamme un seul.

P 154 – 2 Copyright © –Techniques de l’Ingénieur –Tous droits réservés

54
Référence Internet
P155

Application des isotopes stables


à l’authentification des vins
au Service commun des laboratoires

2
par François GUYON
Service commun des laboratoires, Pessac, France
Laëtitia GAILLARD
Service commun des laboratoires, Pessac, France
Nathalie SABATHIÉ
Service commun des laboratoires, Pessac, France
Bernard MÉDINA
Service commun des laboratoires, Pessac, France
François GUILLAUME
Université de Bordeaux, Talence, France
et Marie-Hélène SALAGOÏTY
Service commun des laboratoires, Pessac, France

Note de l’éditeur :
Cet article est extrait de la revue « Annales des falsifications, de l’expertise chimique et
toxicologique » no 981 éditée par la SECF (Société des experts chimistes de France).

1. La banque de données isotopiques, un atout européen ............ P 155 - 2


2. Utilisation de marqueurs internes.................................................... — 3
3. Conclusion .............................................................................................. — 3
Pour en savoir plus ......................................................................................... Doc. P 155

es isotopes stables sont très utilisés dans le domaine de l’authenticité


L alimentaire et dans celui du vin en particulier. Les isotopes étudiés sont le
deutérium et le carbone 13 de l’éthanol et l’oxygène 18 de l’eau du vin [1] [2]
[3]. Ces isotopes sont analysés car, présents en faible concentration, ils sont
représentatifs du lieu et des conditions de croissance de la vigne, et donc de
maturation du raisin [4]. Ces caractéristiques se retrouvent dans le vin. Les iso-
topes stables sont également caractéristiques du cycle biochimique suivi par la
plante lors de la synthèse des molécules. On parle de plantes de type « C3 »
(cycle de Calvin) et de type « C4 » (cycle de Hatch et Slack). Les sucres synthé-
tisés selon ces deux processus présentent des caractéristiques très différentes
tant au niveau du deutérium que du carbone 13, différences qui se retrouvent
au niveau du produit de la fermentation, l’éthanol. Les trois méthodes offi-
cielles décrivent le protocole expérimental d’analyse faisant intervenir la
résonance magnétique nucléaire (RMN) et la spectrométrie de masse des rap-
ports isotopiques (IRMS) [1] [2] [3]. Les résultats obtenus par ces méthodes
sont utilisés principalement pour le contrôle de la chaptalisation (ajout de
sucre au moût, pratique réglementée) et le mouillage (ajout d’eau, pratique
Parution : mai 2015

Copyright © –Techniques de l’Ingénieur –Tous droits réservés P 155 – 1

55
2

56
Référence Internet
RE225

RECHERCHE

Bioessais et biocapteurs :
outils d’analyse des toxines
dans l’agroalimentaire
2
par Audrey SASSOLAS
Chercheur
Laboratoire IMAGES, EA-4218, université de Perpignan (France)
et Jean-Louis MARTY
Enseignant-chercheur
Laboratoire IMAGES, EA-4218, université de Perpignan (France)

Résumé : De nombreuses toxines sont susceptibles de contaminer les denrées ali-


mentaires. Le besoin de méthodes analytiques rapides, fiables, spécifiques et peu
coûteuses est une préoccupation majeure de l’industrie agroalimentaire afin d’assurer
la sécurité des produits commercialisés. Parmi ces contaminants, l’acide okadaïque,
l’aflatoxine M1 et l’ochratoxine A sont connus pour leur forte toxicité et leur omnipré-
sence dans les produits alimentaires. Des tests et des biocapteurs ont ainsi été
développés afin de détecter ces toxines.

Abstract : Many toxins can contaminate food. The need for fast, reliable, specific
and inexpensive analytical methods is a major concern for the food industry in order to
ensure the safety of commercialized products. Among such target, okadaic acid, afla-
toxin M1 and ochratoxin A are known for their high toxicity and their omnipresence in
agrofood. Kits and biosensors have been developed for the detection of these toxins.

Mots-clés : Agroalimentaire, tests, biocapteurs, acide okadaïque, aflatoxine M1,


ochratoxine A

Keywords : Agro-food, kits, biosensors, okadaic acid, aflatoxin M1, ochratoxin A

Points clés
Domaine : Bioanalyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Biocapteurs
Domaines d’application : Agroalimentaire
Principaux acteurs français :
Pôles de compétitivité : –
Centres de compétence : –
Industriels : R-Biopharm, Romer Labs, Neogen, Biosystems, ZEU-Immunotec
Autres acteurs dans le monde : laboratoires académiques de recherche
Contact : Jean-Louis Marty : jlmarty@univ-perp.fr
Parution : mai 2013

5 – 2013 © Editions T.I. RE 225 - 1

57
Référence Internet
RE225

RECHERCHE

1. Contexte impossible d’éviter la contamination des coquillages. Afin de


prévenir l’exposition des consommateurs à cette toxine, une
surveillance constante est assurée dans les zones de
L’industrie agroalimentaire est soumise à de fortes pressions
production.
en raison des réglementations strictes concernant la qualité et
la sécurité de ses produits. En outre, nous sommes de plus en ■ Les aflatoxines sont les mycotoxines les plus étudiées et
plus soucieux de la composition des aliments que nous les plus réglementées [2]. Ce groupe de toxines a été mis en
consommons. L’industrie agroalimentaire doit notamment être évidence en 1960 au Royaume-Uni après l’intoxication de
capable d’apporter au client la preuve que son produit est volailles par une moisissure du genre Aspergillus. Il a été

2 dépourvu d’allergènes ou de toxines.


Pour satisfaire les exigences réglementaires et celles du
consommateur, des outils et des méthodes d’analyse fiables
démontré que, chez les vaches laitières, l’aflatoxine B1 absor-
bée lors de la consommation d’aliments contaminés est méta-
bolisée en aflatoxine M1 qui est excrétée dans le lait. Les
sont requis. Les techniques chromatographiques sont actuel- aflatoxines sont connues comme étant de puissants cancéro-
lement utilisées pour l’analyse de contaminants, le contrôle de gènes.
la composition des aliments et l’authenticité des produits.
Toutefois, ces méthodes sont lourdes et nécessitent du maté-
■ L’ochratoxine A (OTA) est une mycotoxine qui a été iden-
tifiée en 1928 comme étant responsable de lésions rénales
riel coûteux ainsi que du personnel expérimenté. L’idéal est de
chez les porcs nourris avec des céréales moisies. L’OTA a éga-
développer des outils fiables, de petite taille, peu onéreux et
lement été incriminée comme étant à l’origine de troubles
simple d’utilisation afin de contrôler la qualité de la matière
rénaux chez l’homme. Cette mycotoxine présente un risque
première et des produits finis et assurer le suivi des
pour la santé publique d’autant plus fort que les moisissures
différentes étapes de production.
produisant l’OTA sont omniprésentes et contaminent de
Les tests en phase hétérogène (ELISA par exemple) ainsi nombreux aliments destinés à l’alimentation animale et
que les biocapteurs sont des candidats adéquats pour l’ana- humaine.
lyse agroalimentaire. Dans le cas du test en phase hétéro-
L’abondance et la toxicité de ces molécules rendent indis-
gène, l’élément biologique [enzyme, antigène (Ag) ou
pensables la mise au point de méthodes d’analyse fiables. De
anticorps (Ac)] est fixé sur un support solide tel que la paroi
plus, des mesures réglementaires ont été prises à l’échelle
d’un tube ou le puits d’une microplaque. Un biocapteur est
européenne afin de limiter les risques alimentaires. Cet article
un dispositif constitué d’un élément biologique immobilisé à la
décrit les différents tests et biocapteurs développés au sein du
surface d’un transducteur. Ce dernier traduit le signal phy-
laboratoire IMAGES pour l’analyse de ces trois toxines.
sico-chimique issu de la reconnaissance cible/biorécepteur
[substrat/enzyme, antigène/anticorps (Ag/Ac)] en un signal
électromagnétique mesurable et corrélable à la concentration
en substance cible dans le milieu (figure 1). Le principe du 2. Acide okadaïque
biocapteur a fait l’objet d’articles dans les Techniques de
l’Ingénieur [R 420] [F 4 010]. 2.1 Présentation de la toxine
De nombreux tests et biocapteurs ont été développés afin
de détecter la présence de toxines dans les aliments. Le labo- L’acide okadaïque (figure 2) est une phycotoxine produite
ratoire IMAGES s’est focalisé sur la mise au point de tests et par les dinoflagellés, notamment du genre Dinophysis [12].
de biocapteurs pour la détection de trois toxines présentant Cette toxine est ingérée par les bivalves filtreurs, tels que les
un impact considérable pour la santé publique : l’acide moules ou les huîtres, sans affecter leur odeur, leur apparence
okadaïque, l’aflatoxine M1 et l’ochratoxine A (OTA). ou leur goût. Ainsi, les sens humains ne sont d’aucun recours
pour évaluer la toxicité de ces aliments. Lorsqu’un individu
■ L’acide okadaïque est une toxine marine produite par les consomme des fruits de mer contaminés, il est alors sujet à
dinoflagellés. Afin de se nourrir, les coquillages filtrent l’eau et des troubles gastro-intestinaux. L’acide okadaïque est un inhi-
peuvent ingérer cette toxine. La consommation de fruits de biteur des protéines phosphatases de types 1 et 2A impliquées
mer contaminés peut engendrer des troubles gastro-intesti- dans différents processus intracellulaires comme le métabo-
naux chez l’homme. La prolifération des micro-algues produc- lisme, la division cellulaire, la transduction du signal ou le
trices d’acide okadaïque ne pouvant pas être contrôlée, il est fonctionnement des canaux ioniques.

Biorécepteur Transducteur

Traitement
Signal Signal
des données
physico- électrique
chimique
Substance
cible

Reconnaissance Électrochimique,
moléculaire optique...

Figure 1 – Principe du biocapteur [23]

RE 225 - 2 © Editions T.I. 5 – 2013

58
Référence Internet
RE225

RECHERCHE

O H OH
H
O O Toxine
HO
OH O O O pNP
H pNPP
OH O O Puits (λ = 405 nm)
OH
Gel
Figure 2 – Structure de l’acide okadaïque (photopolymère

2
Protéine PP
phosphatase ou gel d’agarose)
immobilisée
Cette toxine est responsable non seulement de problèmes de
santé publique mais a également des répercussions PP : protéine phosphatase ; pNPP : para-nitrophénylphosphate,
économiques. En effet, la présence de cette toxine dans une pNP : para-nitrophénol
zone entraîne la fermeture des parcs à moules et à huîtres et
l’interdiction de commercialiser les coquillages. Les pertes éco-
nomiques sont alors considérables pour les professionnels de la Figure 3 – Principe du test colorimétrique [24]
conchyliculture et de l’ostréiculture.

2.2 Méthodes d’analyse Électrode


sérigraphiée
Les bio-essais sur souris ont été largement utilisés pour
évaluer la contamination de coquillages par les toxines OH OH O
marines [6]. Ce test consiste à injecter un extrait concentré O PO32– OH O
PP
d’hépatopancréas (organe de l’huître qui concentre les
toxines) dans l’abdomen de trois rongeurs. Si au moins deux + 450 mV
d’entre eux succombent dans les 24 heures, le seuil de vs. Ag/AgCl
toxicité pour l’homme est considéré comme dépassé. Dès lors, Catéchol
Catéchol o-quinone
les mollusques sont interdits à la commercialisation. Toutefois, monophosphate (CMP)
cette méthode a causé une controverse quant à son efficacité.
Son usage a également soulevé des problèmes éthiques. Figure 4 – Principe de la détection électrochimique
Depuis le 1er juillet 2011, la Commission européenne a choisi du biocapteur enzymatique
la chromatographie liquide couplée à la spectrométrie
de masse comme méthode de référence pour la détection de
l’acide okadaïque [11]. L’Union européenne autorise une une diminution du signal électrochimique. La détection limite
teneur maximale de 160 µg d’acide okadaïque par kilogramme obtenue avec ce système (6,42 µg/L) est trop élevée et ne
de chair de coquillage. nous permet pas d’envisager l’utilisation de ce biocapteur pour
une analyse en routine. Une optimisation du système est
Notre laboratoire travaille sur la mise au point de tests et de actuellement en cours en utilisant un substrat qui a une plus
biocapteurs permettant l’analyse de fruits de mer. Deux types forte affinité pour l’enzyme.
d’éléments biologiques sont utilisés : enzyme ou anticorps.

2.2.1 Kits et biocapteurs enzymatiques 2.2.2 Systèmes de détection immunologiques

Les kits et biocapteurs enzymatiques sont basés sur l’inhi- 2.2.2.1 Tests ELISA (Enzyme-Linked Immuno Sorbent
bition de la protéine phosphatase par l’acide okadaïque. Assay)
Ce principe a notamment permis la mise au point de tests Plusieurs tests ELISA pour la détection de l’acide okadaïque
colorimétriques pour la détection de cette toxine marine. ont été décrits dans la littérature [6] [25]. La faible masse
Dans ce cas, la protéine phosphatase catalyse la déphospho- molaire de la toxine (805 g/mol) ne permet pas d’envisager la
rylation d’un substrat non coloré, le p-nitrophényl phosphate, mise au point d’un test ELISA de type sandwich. Un test ELISA
en un composé de couleur jaune, le p-nitrophénol. L’apparition basé sur une compétition indirecte peut être utilisé. Dans ce
de ce dernier est dosée à une longueur d’onde de 405 nm cas, la toxine est immobilisée au fond d’un puits de micropla-
(figure 3). que. Un échantillon contenant la toxine est mélangé avec
La protéine phosphatase présente un inconvénient majeur : l’anticorps anti-acide okadaïque. Cette solution est ensuite
elle est peu stable en solution. Afin de résoudre ce problème, incubée dans le puits. L’acide okadaïque de l’échantillon entre
l’enzyme peut être immobilisée dans un gel ou un polymère alors en compétition avec la toxine immobilisée pour la liaison
formé sur un support. L’enzyme immobilisée peut être à l’anticorps. Plus la quantité de toxines dans l’échantillon est
conservée pendant plusieurs semaines sans perte d’activité. élevée, moins l’anticorps est capable de se fixer au fond du
Ce test a permis d’analyser des échantillons de moules puits. La détection nécessite un marquage. Classiquement, un
contaminées. anticorps secondaire marqué avec une enzyme est utilisé afin
de générer un signal qui sera mesuré. Le pNPP (para-nitro-
Un biocapteur électrochimique a également été déve-
phénylphosphate) est utilisé comme substrat de l’enzyme. La
loppé pour la détection de l’acide okadaïque. La protéine phos-
réaction enzymatique conduit à la production d’un composé
phatase a été incluse dans un photopolymère formé à la
jaune qui est dosé à une longueur d’onde de 405 nm.
surface d’une électrode sérigraphiée. L’activité de l’enzyme est
mesurée en utilisant le catéchol monophosphate comme subs-
trat de l’enzyme. La réaction enzymatique produit du catéchol 2.2.2.2 Immunocapteurs
qui est oxydé électrochimiquement lorsqu’un potentiel de Le laboratoire IMAGES a développé plusieurs immuno-
450 mV vs. Ag/AgCl est appliqué entre les électrodes capteurs électrochimiques. Différentes approches ont été
(figure 4). L’acide okadaïque inhibe l’enzyme, ce qui induit envisagées afin de développer des immunocapteurs simples à

5 – 2013 © Editions T.I. RE 225 - 3

59
2

60
Référence Internet
IN238

INNOVATION

Agriculture de précision
Étude des variabilités spatio-temporelles
des agrosystèmes 2
par Corentin LEROUX
Ingénieur-docteur en agriculture de précision,
Fondateur d’Aspexit, Montpellier, France

L es Nations unies estiment que la population mondiale pourrait atteindre


9,8 milliards en 2050 et 11,2 milliards en 2100. Si ces projections se
vérifient, la demande alimentaire mondiale augmentera nécessairement de
façon importante. Même si la sécurité alimentaire est en partie un problème
de distribution, il serait dommageable de ne pas aussi inciter à augmenter la
production alimentaire car aucune approche, à elle seule, ne sera pleinement
efficace pour lutter contre l’insécurité alimentaire. Ce défi est colossal
puisque le secteur agricole doit faire face à cette demande alimentaire crois-
sante tout en tenant compte d’enjeux sociétaux et environnementaux criti-
ques (rareté de l’eau, perte de biodiversité, dégradation des terres…) et en
étant économiquement viable sur le long terme. L’agriculture écologique-
ment intensive a été une réponse à tous les défis mentionnés précédem-
ment. Même si certains reprochent à ces deux adjectifs de ne pas être
compatibles, l’agriculture écologiquement intensive cherche à augmenter la
production alimentaire tout en limitant les pressions environnementales.
En termes plus simples, les approches écologiquement intensives ont pour
objectif principal de produire « plus » avec « moins ». L’agriculture de préci-
sion, discipline scientifique qui cherche à mieux mesurer, quantifier, décrire et
comprendre les variabilités inhérentes aux systèmes de production à partir
de technologies de l’information et la communication (TIC), pourrait aider à
aller dans ce sens. Retours critiques sur une discipline qui a le vent en poupe
et qui n’a pas fini de faire parler d’elle.
Parution : mai 2020 - Dernière validation : janvier 2021

Points clés
Domaine : Mesures et analyses
Degré de diffusion de la technologie : Émergence
Technologies impliquées : Technologies digitales, modélisation, outil d’aide à la
décision
Domaines d’application : Gestion agricole
Principaux acteurs français :
– Centres de compétence : INRAE, Bordeaux Sciences Agro, Montpellier SupAgro, La
Salle Beauvais, AgroSup Dijon
Contact : http://www.aspexit.com

5-2020 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 238 - 1

61
Référence Internet
IN238

INNOVATION

1. Caractérisation plus fine


des variabilités spatio-temporelles
des agrosystèmes

Définir l’agriculture de précision est complexe dans le sens où


certains spécialistes tendent à la présenter comme une discipline Rendement

2 scientifique alors que d’autres préféreront la voir comme une stra- (t/ha)
tégie de gestion agricole en soi. C’est d’ailleurs pourquoi il est par-
fois si difficile pour certains acteurs (des scientifiques, des agricul- 10
teurs…) de se positionner clairement dans ce domaine. Certaines
questions reviennent souvent : « est ce que je peux me considé-
rer comme un agronome de précision ? », « est que ça a du sens
de dire qu’un agriculteur fait de l’agriculture de précision ? », « je
développe des capteurs optiques pour l’agriculture, je fais des sta-
tistiques appliquées sur des données agricoles, ou je travaille
dans le domaine de l’automatique appliqué à l’agriculture, pour- 1
N
quoi dit-on que je fais de l’agriculture de précision ? ». Pour tenter
de clarifier ces concepts et positionnements, il a été décidé ici
d’orienter la présentation de l’agriculture de précision sous l’angle O E
de la discipline scientifique. Et de montrer que c’est le transfert
des connaissances générées en agriculture de précision vers le S 100 m
terrain qui demande la participation de nombreuses disciplines
(mécanique, électronique, statistiques, optique, automatique, chi- Figure 1 – Variabilité spatiale du rendement dans une parcelle
miométrie [analyse de spectres]…) et qui soulève des questions de blé
opérationnelles du type : comment utiliser ces connaissances
pour améliorer la gestion des systèmes de production ? de ces facteurs agroenvironnementaux à l’échelle de l’heure,
de la journée ou encore du mois par exemple.

1.1 Mesure et quantification des variabilités


Il faut noter que la discipline scientifique de l’agriculture de préci-
spatio-temporelles des agrosystèmes sion s’est principalement concentrée sur les grandes cultures, et ce
depuis que la terminologie a été proposée. Néanmoins, cette disci-
Le terme « agriculture de précision » est né au début des pline s’ouvre maintenant à bien d’autres agrosystèmes : les cultures
années 1990 [1] comme une réponse pratique à l’impact de la pérennes comme la vigne [3], semi-pérennes comme la banane [4]
variation du sol sur la production agricole. Même si cette ou encore l’élevage [5]. Ce document de synthèse se concentrera
variabilité était connue depuis longtemps par les agriculteurs et néanmoins essentiellement sur la production végétale.
les agronomes [2], qui travaillaient autrefois sur de petites par-
celles et des champs qu’ils connaissaient bien, la révolution verte Décrire et quantifier les variabilités dans les systèmes de
a amené les acteurs agricoles à fusionner leurs petites zones de production est une chose. Comprendre l’origine et les sources
production pour faciliter les opérations agricoles au niveau des de ces variabilités en est une autre (figure 2). Le tableau 1 en
exploitations. Des parcelles avec des conditions de production montre la complexité, en décrivant un ensemble de facteurs sus-
variables (sol, topographie…) ont donc été fusionnées et travail- ceptibles d’expliquer la variabilité spatiale du rendement qu’il est
lées de manière uniforme. possible d’observer dans une parcelle agricole.
Dans le tableau 1, les auteurs proposent une classification particu-
L’agriculture de précision est la discipline scientifique qui s’in- lière de ces facteurs environnementaux, mais il en existe bien d’au-
téresse à mesurer, décrire, quantifier et comprendre cette tres. Dans son livre blanc de l’agriculture de précision, BeApi distin-
variabilité « perdue » ou « oubliée » dans les systèmes de gue les facteurs à l’origine d’une variabilité dite « structurelle » dont
production agricole à travers un ensemble d’outils et de sys- les conséquences s’expriment chaque année, de ceux à l’origine
tèmes de mesure qui seront présentés plus loin (figure 1). d’une variabilité dite « conjoncturelle » dont les effets sont spécifi-
L’agriculture de précision s’intéresse à deux sources de varia- ques à la campagne agricole en cours. Il serait également possible
bilité. La première, la variabilité spatiale, tend à considérer de séparer les facteurs avec lesquels l’agriculteur peut interagir (les
que les facteurs agroenvironnementaux étudiés dans les sys- facteurs dits « manageables » ou « contrôlables »), de ceux sur les-
tèmes de production (paramètres physico-chimiques du sol, quels l’agriculteur n’aura aucun contrôle. Ces facteurs peuvent aussi
état de végétation, stress hydrique, rendement…) ne sont être discriminés par origines et milieux [4] en distinguant :
pas uniformes mais varient dans l’espace. La variabilité — le sol, au travers :
temporelle, quant à elle, tend à considérer que ces proprié- (i) de ses propriétés physico-chimiques (profondeur, compac-
tés évoluent dans le temps au cours de la saison et entre des tion, texture) qui conditionnent la nutrition hydrique et minérale
saisons différentes. La notion d’échelle de travail est ici très des plantes via la capacité d’enracinement, la réserve utile en
importante parce que ces variabilités peuvent être étudiées à eau, la disponibilité des éléments minéraux ou encore la capacité
plusieurs niveaux. Dans l’espace, il est possible d’étudier une des plantes à les extraire du sol, et
variabilité à une échelle très fine, par exemple à l’intérieur (ii) des organismes du sol qui peuvent rendre plus ou moins
même d’une parcelle agricole (c’est l’étude de la variabilité disponibles certaines substances ;
intraparcellaire), à une échelle plus grande, comme celle
d’une exploitation agricole, ou même à une échelle beaucoup — le microclimat, qui dépend de la topographie mais aussi de
plus large, comme celle d’un bassin versant ou d’un bassin de l’architecture des plantes, et qui conditionne leur potentiel de
production. Dans le temps, il est possible de suivre l’évolution croissance en modifiant par exemple la photosynthèse ou les
stress induits par les gelées ;

IN 238 - 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 5-2020

62
Référence Internet
IN238

INNOVATION

Tableau 1 – Facteurs affectant la variabilité des rendements (source : Agrinova – adapté de [6])

Facteurs uniformes Facteurs non uniformes

Pratiques culturales Causes naturelles

Sens des rangs À travers les rangs Lignes irrégulières Zones irrégulières

– Date de plantation
– Variété
– Type de sol
– Position des drains
2
– Infestation de mauvaises
– Compaction – Drainage ou irrigation – Topographie
herbes ou de maladies
– Distribution non uniforme des – Historique de l’utilisation du – Dérive d’herbicides
– Fertilisé du sol et matière
résidus de culture sol : – Ombre ou effet de bordure
organique
– Application d’engrais ou de • passage de machinerie et ajout – Infestation d’insectes
– Effet des activités associées
pesticides : d’intrants ravageurs par les bordures
au précédent cultural
• changement (dose ou produit, • ajout de fumier – Épandage de fumier non
– Chevauchement d’épandage
équipement) • limites de champs uniforme
ou dérive d’herbicide
• mauvaise application • compaction – Mauvais égouttement
– Occurrence historique
• traitement localisé
– Animaux sauvages
• bris d’équipement
– Zones humides

Parcelle 1
Pression maladie
plus importante pH du sol Rendement
Travaillé Blé Blé
historiquement Fort 2004 2007
Rendement moins intensivement
(t/ha)

10

Faible

200 m Blé Blé


1 d’hiver d’hiver
N
N 2012 2015
Compactage
O E
O E en bout de rang

Rangée d’arbres et S
compactage en S 100 m
Les motifs spatiaux sont très proches sur les années 2004, 2007 et
bout de rang P/K du sol faibles
2015, mais complètement renversés sur l'année 2012 du fait d'une
pluviométrie beaucoup plus importante pendant la saison qui
a saturé certains sols en eau.
Figure 2 – Exemple de sources de variabilité de rendement
sur une parcelle de blé
Figure 3 – Patrons spatiaux de rendement sur quatre ans
— les maladies et ravageurs, à l’origine d’effets structurés sur une parcelle de blé (source : [7])
dans l’espace via des mécanismes de propagation dans les par-
celles ; propagation influencée par un certain nombre de fac- Considérons par exemple une parcelle de blé dont le rende-
teurs comme la densité de la canopée, l’humidité du sol, l’expo- ment a été mesuré très finement dans l’espace avec un cap-
sition aux vents dominants, la vigueur des plantes… ; teur de rendement embarqué sur une moissonneuse-
— les opérations culturales, à l’origine d’effets plus ou moins batteuse, et ce, plusieurs années d’affilée. Faisons l’hypo-
structurés dans les parcelles (variété et date de semis, applica- thèse que la variabilité intraparcellaire du rendement est
tions non homogènes, passages répétés des machines qui pro- forte (de fortes variations de rendement sont observées sur
voquent des tassements localisés...). la parcelle) et qu’en même temps ces phénomènes spatiaux
sont stables dans le temps (c’est-à-dire que sur une zone où
Mais alors, pourquoi chercher à décrire ces variabilités spatio-
le rendement est fort sur une année n, il y sera également fort
temporelles et à comprendre leurs causes ? Dans un premier
sur les années n + 1, n + 2…). Dans ce cas-là, l’agriculteur
temps, en tant que discipline scientifique, l’agriculture de précision
pourra raisonner son itinéraire technique de manière différen-
est intéressante pour générer des connaissances sur les phénomè-
ciée sur ses différentes zones de production intraparcellaires
nes spatio-temporels à l’œuvre dans les systèmes de production.
en sachant que les décisions qu’il aura prises seront cohéren-
Dans un deuxième temps, ces connaissances peuvent permettre
tes dans le temps (figure 3).
d’améliorer la gestion des agrosystèmes (voir section 2).

5-2020 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 238 - 3

63
2

64
Innovations en analyses et mesures
(Réf. Internet 42112)

1– Analyse en biologie et en médecine

2– Analyse dans l'agroalimentaire


3
3– Analyse pour l'environnement et la sécurité Réf. Internet page

Analyse non destructive de stupéfiants par spectroscopie RAMAN P148 67

Détection neutronique de matières illicites avec la technique de la particule associée RE177 69

Capteur de force innovant. Application au pesage ferroviaire et routier IN148 75

Identification des odeurs humaines par les chiens policiers RE182 79

Spectroscopie microonde P2875 83

Mortalités massives aigües d’abeilles. La spectrométrie de masse comme outil P157 87


d’investigation

4– Analyse en matériaux et en chimie

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

65
3

66
Référence Internet
P148

Analyse non destructive


de stupéfiants par spectroscopie
Raman

par Eloïse LANCELOT


HORIBA Scientific, application laboratory (Villeneuve d’Ascq)

3
et Jean-Pierre YIM
Directeur adjoint, Service commun des laboratoires (SCL) de Lille de la direction générale
de la concurrence, de la consommation et de la répression des fraudes (DGCCRF)
et de la direction générale des douanes et droits indirects (SGDDI) (Villeneuve d’Ascq)
Responsable de la région Nord/Belgique de la Société des experts chimistes de France

1. Contexte...................................................................................................... P 148 - 2
2. Matériel et méthode ................................................................................ — 2
2.1 Description de l’effet Raman ....................................................................... — 2
2.2 Matériel ......................................................................................................... — 2
2.3 Échantillons analysés .................................................................................. — 2
3. Résultats et discussion ........................................................................... — 2
3.1 Analyse des cristaux beiges........................................................................ — 2
3.2 Analyse Raman du comprimé C20 jaune ................................................... — 4
3.3 Analyse Raman du comprimé rose logo « Yin et Yang 19 » .................... — 6
4. Conclusion.................................................................................................. — 9

Pour en savoir plus ........................................................................................... Doc. P 148

a détection rapide de produits illicites est un impératif dans le cadre de la


L lutte contre le trafic de stupéfiants et de substances prohibées, et
notamment dans le cas de la procédure pénale de comparution immédiate.
Toutefois, leur identification peut comporter une étape préalable d’extraction.
La spectroscopie Raman est une technique non destructive et hautement sélec-
tive permettant de déterminer rapidement la nature de composés chimiques.
Différents échantillons de stupéfiants ont été analysés par spectroscopie
Raman afin de démontrer l’efficacité de cette méthode. La technique a permis
entre autres de détecter et parfois d’identifier les composants des produits illi-
cites ainsi que de vérifier leur homogénéité.
Cet article est extrait de la revue « Annales des falsifications, de l’expertise
chimique et toxicologique » (no 974) éditée par la SECF (Société des experts
chimistes de France).
Parution : mai 2012

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


est strictement interdite. – © Editions T.I. P 148 – 1

67
Référence Internet
P148

ANALYSE NON DESTRUCTIVE DE STUPÉFIANTS PAR SPECTROSCOPIE RAMAN _________________________________________________________________

1. Contexte
Depuis maintenant quelques années, la spectroscopie Raman est
devenue une méthode incontournable permettant l’analyse rapide
dans les sciences médico-légales. Plusieurs raisons font de cette tech-
nique un outil analytique puissant et efficace : il s’agit d’une techni-
que sans contact et non destructive, ne nécessitant qu’une quantité
minime d’échantillon (résolution spatiale inférieure au micromètre) et
pas ou peu de préparation de ce dernier. Les informations obtenues
par spectroscopie Raman incluent l’identification chimique ainsi que
la structure moléculaire. Ces caractéristiques sont très utiles pour
l’étude de substances illicites car la technique permet la détection de
différences infimes pouvant provenir de la composition, de l’origine
Figure 1 – Spectromètre Raman LabRAM Aramis commercialisé
de l’échantillon ou de la méthode de synthèse. Contrairement à la par la société HORIBA Scientific
spectroscopie infrarouge, la spectroscopie Raman est compatible
avec les solutions aqueuses ; ainsi l’analyse d’échantillons liquides

3
ou humides est possible. Les analyses à travers des flacons en verre Tableau 1 – Échantillons analysés
ou des sacs plastiques sont envisageables grâce au couplage avec un par spectroscopie Raman
microscope confocal, évitant ainsi de contaminer les échantillons en
les manipulant. L’accès à une base de données spectrales permet une Échantillon Description Photo
identification rapide de l’échantillon analysé.
Comprimé rose sécable,
Afin d’évaluer le potentiel de cette technique, l’étude suivante
logo « Yin et Yang 19 » contenant
présente les résultats obtenus par spectroscopie Raman sur 1
du chlorhydrate de MDMA (1)
quelques échantillons de la section de stupéfiants et substances
sur un support de cellulose
prohibées du SCL de Lille.

Cristaux beiges contenant


2
du chlorhydrate de MDMA
2. Matériel et méthode
Comprimé C20 jaune contenant
2.1 Description de l’effet Raman du Sildénafil (2) pour du Tadalafil (3)
3 annoncé, comme ont pu le montrer
L’effet Raman a été découvert en 1928 par le physicien indien des analyses préalables
Chandrashekhara Venkata Râman. Il résulte de l’interaction des pho- en spectroscopie infrarouge
tons d’une source de lumière monochromatique avec les molécules
de l’échantillon. Lorsque les photons sont diffusés élastiquement (1) MDMA : 3,4-méthylène-dioxy-méthylamphétamine ou ecstasy.
par les molécules, c’est-à-dire sans changement d’énergie, cette dif- (2) Sildénafil : vasodilatateur, principe actif du Viagra®.
fusion est appelée « diffusion Rayleigh ». Lorsque les photons sont (3) Tadalafil : vasodilateur, principe actif du Cialis®.
diffusés inélastiquement avec un changement d’énergie, on parle
de « diffusion Raman ». Le décalage en longueur d’onde correspond
à une transition vibrationnelle et ne dépend pas de la longueur 2.3 Échantillons analysés
d’onde d’excitation, contrairement au phénomène de fluorescence.
L’unité utilisée est une unité relative donnée en cm–1. Le spectre La section des stupéfiants et produits prohibés du SCL de Lille
Raman fournit une empreinte de l’ensemble des liaisons présentes réalise principalement des analyses qualitatives et quantitatives
dans le matériau analysé et lui est donc caractéristique. L’intensité dans le cadre de la lutte contre le trafic de stupéfiants. Différentes
des raies Raman dépend uniquement du nombre de molécules dans techniques sont pratiquées au laboratoire pour l’analyse des stu-
les différents modes vibrationnels qui leur sont associés ; aussi, les péfiants, les essais en spectroscopie Raman ont pour objectif de
temps de mesures sont variables en fonction du matériau analysé mieux connaître les atouts de cette technique.
(de la milliseconde à plusieurs minutes). Les échantillons décrits dans le tableau 1 ont été analysés par
spectroscopie Raman.
2.2 Matériel
Les spectres Raman ont été obtenus avec un spectromètre
LabRAM Aramis (société HORIBA Scientific) incorporant : 3. Résultats et discussion
– un microscope Olympus confocal pourvu de trois objectifs
(grossissement X10, X50, X100), d’une table XYZ motorisée et d’un
filtre spatial permettant d’optimiser la résolution spatiale ; 3.1 Analyse des cristaux beiges
– une caméra vidéo pour visualiser l’échantillon en microscopie ;
– trois lasers à 532 nm, 633 nm et 785 nm pour s’affranchir de tout Un spectre Raman des cristaux beiges a été obtenu en cinq
phénomène de fluorescence intrinsèque aux échantillons analysés ; secondes en utilisant le laser 532 nm. Un léger fond de fluores-
– plusieurs « filtres edges » permettant de s’affranchir de la dif- cence est visible dans le spectre brut mais cette dernière peut être
fusion Rayleigh selon la longueur d’onde sélectionnée ; supprimée au moyen d’une correction de ligne de base (figure 2).
– de multiples réseaux permettant de réaliser des mesures avec Le spectre contient de nombreuses raies Raman dont la position
différentes résolutions spectrales ; est donnée précisément par un algorithme de recherche de pics.
– un détecteur CCD ; L’identification du composé a pu être réalisée grâce au logiciel de
– un ordinateur équipé du logiciel d’acquisition et de traitement reconnaissance spectrale Spectral ID (figure 3). Le spectre
Labspec 5 et du logiciel de reconnaissance spectrale Spectral ID. enregistré présente en effet de nombreuses similitudes avec le
Le système est entièrement automatisé (figure 1). spectre de MDMA de la base de données.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie


P 148 – 2 est strictement interdite. – © Editions T.I.

68
Référence Internet
RE177

RECHERCHE

Détection neutronique de
matières illicites avec la technique
de la particule associée

3
par Bertrand PEROT
Docteur-ingénieur en physique
Expert international CEA en mesures nucléaires
CEA, DEN, Cadarache, laboratoire de mesures nucléaires, France
et Guillaume SANNIE
Ingénieur CEA, coordinateur de projets européens
CEA, DRT, LIST, Saclay, laboratoire capteurs et architectures électroniques, France

Résumé : La technique de la particule associée est une méthode d’interrogation avec


des neutrons rapides de 14 MeV permettant une caractérisation élémentaire de maté-
riaux potentiellement massifs et offrant une information sur la localisation spatiale des
éléments interrogés. Cela en fait une technique complémentaire de second niveau,
suite à l’imagerie X utilisée couramment comme contrôle de premier niveau pour la
détection des menaces terroristes dans les bagages et conteneurs de transport. Cet
article illustre la capacité de cette technique à identifier des explosifs, drogues, agents
chimiques ou matières nucléaires à différents stades de la chaîne de sécurité (lieux
publics, ports, frontières...).

Mots-clés : Interrogation neutronique, technique de la particule associée, détection


des menaces NRBC-E

Abstract : The Associated Particle Technique (APT) is a fast neutron interrogation


method allowing elemental characterization of bulk materials in 3D. It can be used as a
2nd level inspection complementary to X-ray imaging, which is used as 1st level inspection
to detect a suspicious item in a luggage or container, to confirm and identify the nature of
the threat. APT can thus detect explosives, illicit drugs chemical agents or nuclear mate-
rials at different levels of the security chain (public areas, seaports, boarders...).

Keywords : Fast Neutron interrogation, Associated Particle Technique, CBRNE threats


detection

Points clés
Domaine : Mesures nucléaires
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Interrogation neutronique, spectrométrie gamma,
coïncidences neutroniques
Domaines d’application : principalement la détection des matières illicites
(explosifs, drogues, toxiques chimiques, matières nucléaires), potentiellement
l’industrie nucléaire (caractérisation des déchets radioactifs, démantèlement,
contrôle de procédé)
Principaux acteurs français :
Pôles de compétitivité : Risques
Centres de compétence : CEA DEN Cadarache, laboratoire de mesures
nucléaires ; CEALIST Saclay, laboratoire capteurs et architectures électroniques ;
CEA DAM DIF, laboratoire mesures et traitements nucléaires ; CEA DAM DSNP,
direction sécurité et non-prolifération ;
Parution : février 2015

Industriels : SODERN
Contact : bertrand.perot@cea.fr

2 – 2015 © Editions T.I. RE 177 - 1

69
Référence Internet
RE177

RECHERCHE

1. Contexte expériences de physique, les applications hors laboratoire ont


été rendues possibles à la fin des années 1990 avec l’appari-
tion de tubes scellés à particule associée transportables, pro-
Les mesures nucléaires non intrusives, basées sur des rayon- duisant des neutrons de 14 MeV par réaction de fusion
nements gamma ou neutroniques très pénétrants, sont large- deutérium-tritium t(d, n)α (figure 1). Avec chaque neutron,
ment utilisées pour le contrôle de procédé, la caractérisation une particule alpha est émise approximativement à 180o et sa
des déchets radioactifs et le contrôle des matières nucléaires mesure par un détecteur à localisation permet de déterminer
([BN 3 445], [BN 3 405] et [BN 3 406]). Suite aux attentats du la direction d’émission du neutron associé. L’angle solide des
11 septembre 2001, nombre de ces techniques ont été adap- neutrons ainsi « signés » ou « marqués » (le terme consacré
tées à la détection des menaces dites « NRBC-E » (nucléaires, en anglais est tagged neutron ) est déterminé par la taille du
radiologiques, bactériologiques, chimiques – explosifs). Les détecteur alpha. Le faisceau de neutrons marqués peut être
mesures passives gamma et neutroniques, notamment les por- subdivisé en sous-faisceaux pour interroger différentes régions
tiques radiologiques de sécurité, permettent de détecter des de l’espace.
menaces de type R, voire N si les matières nucléaires ne sont

3 pas écrantées. Les mesures actives, basées sur une source de


rayonnement interrogateur, sont moins répandues mais plus
sensibles. La plus utilisée, l’imagerie photonique, γ ou X, n’est
Outre la direction d’émission du neutron, son temps de vol
jusqu’à son interaction dans le milieu interrogé est aussi
déterminé grâce au temps de coïncidence entre la détection
pas une mesure directe des menaces mais elle permet d’identi- alpha et celle du rayonnement gamma ou neutronique induit
fier rapidement, en contrôle de premier niveau, la présence par le neutron. Cela permet de remonter à la position de
d’éléments suspects dans les objets inspectés : bagages, l’interaction dans l’objet inspecté. Outre l’intérêt intrinsèque
conteneurs de transport aériens ou maritimes. L’interrogation de cette capacité d’inspection 3D, notamment pour le cou-
neutronique peut apporter, en analyse de deuxième niveau car plage avec l’imagerie photonique, cela permet de maximiser le
elle nécessite un temps de mesure de quelques minutes, une rapport entre le signal utile de la zone d’intérêt et le bruit
détection des menaces N, C et E. Parmi les différentes techni- induit en dehors de celle-ci, d’où une meilleure sensibilité par
ques d’interrogation neutronique, celle dite de la « particule rapport aux autres techniques d’interrogation neutronique.
associée » permet de focaliser spatialement l’inspection sur une Des générateurs transportables deutérium-deutérium ou deu-
zone suspecte repérée par imagerie photonique, ce qui la rend térium-tritium, comme ceux des figures 1 ou 2 mais non équi-
plus sensible en améliorant le rapport signal sur bruit. L’utilisa- pés de détecteur alpha, présentent une émission isotrope, ce
tion de neutrons rapides de 14 MeV lui confère également la qui impose d’utiliser un collimateur neutronique lourd et volu-
capacité d’interroger en profondeur les objets inspectés, mineux. En outre, la profondeur d’interaction n’est plus acces-
notamment les conteneurs, du fait du pouvoir de pénétration sible sans la mesure du temps de vol neutronique. Les
élevé de ces rayonnements. alternatives que pourraient constituer des sources isotopiques
(252Cf, AmBe, etc.) nécessitent, elles aussi, l’usage d’un
Dans le contexte mondial de lutte contre les menaces terro- collimateur et, par ailleurs, leur émission est permanente, a
ristes, le CEA a conduit, depuis une dizaine d’années, une contrario de celle des générateurs qui peut être arrêtée ins-
série de projets au niveau national et européen visant à déve- tantanément dès lors que la haute tension du tube est cou-
lopper cette technique. Le projet EURITRACK, du 6e PCRD pée, avantage important pour la limitation des risques
(programme cadre de recherche et développement de l’Union radiologiques.
européenne ou FP6, 6th Framework Program ) sur la détection
de produits illicites (notamment explosifs et drogues) dans les On distingue deux familles de réactions neutroniques
conteneurs maritimes a reçu en 2007 le prix de l'innovation et de détecteurs utilisés pour la TPA selon les rayonnements
technologique des premiers Trophées de la défense civile et a induits que l’on souhaite détecter, en fonction des matières à
fait l’objet de l’article [IN 82] dans les Techniques de l’Ingé- caractériser.
nieur en 2008. § Les neutrons de 14 MeV produisent sur les noyaux
Des évolutions importantes du système de mesure interve- rencontrés des réactions de diffusion inélastique (n,n′γ) et
nues depuis et d’autres applications de cette technologie dans autres réactions à seuil (n,2n), (n,α), (n,p), etc. qui s’accom-
le domaine de la sécurité ont été étudiées, lesquelles sont pagnent de l’émission de rayonnements gamma prompts. Ces
décrites dans le présent article. Le caractère polyvalent de la derniers sont caractéristiques de l’élément ayant subi la réac-
technique de la particule associée pour la détection de mena- tion et l’utilisation de détecteurs spectrométriques comme des
ces de différentes natures (chimique et nucléaire notamment, scintillateurs inorganiques NaI(Tl) ou LaBr3(Cl) permet d’iden-
en plus des explosifs) est mis en avant. Sans aborder ici les tifier les éléments majoritairement présents dans le volume
applications dans d’autres domaines que la sécurité, il est pos- inspecté. L’article [IN 82] décrit cette méthode et son appli-
sible d’imaginer, au vu des résultats présentés, l’intérêt poten- cation pour la détection du trafic illicite dans les conteneurs
tiel de ces capacités de caractérisation élémentaire de maritimes (projet EURITRACK).
matériaux potentiellement massifs et avec une information
§ Les neutrons peuvent aussi induire des fissions dans les
spatiale, par exemple pour la caractérisation des déchets ou le
matières nucléaires et, dans ce cas, on utilise des scintilla-
contrôle de procédé dans l’industrie nucléaire, l’inspection
teurs organiques plastiques ou liquides pour détecter les
in situ d’infrastructures terrestres ou marines, celle d’installa-
coïncidences entre les multiples particules neutrons et gamma
tions en démantèlement, pour les mesures de remédiation
émises lors d’une fission.
environnementale (détection de mines, caractérisation des
sols), etc. Les détecteurs privilégiés sont des scintillateurs en raison de
leur réponse rapide qui permet la mesure du temps de vol
neutronique à l’échelle de la nanoseconde. De même, le
détecteur alpha du générateur est équipé d’un scintillateur de
2. Technique de la particule associée type YAlO3:Ce (yttrium aluminium perovskite activé au
cérium, noté généralement YAP:Ce). La vitesse d’un neutron
La technique de la particule associée (TPA) est une méthode de 14 MeV étant de l’ordre de 5,1 cm/ns, la résolution tempo-
d’interrogation de la matière par des neutrons rapides produits relle de ces détecteurs, qui est typiquement de l’ordre de la
avec un accélérateur. Initialement mise en œuvre dans les nanoseconde (largeur à mi-hauteur du pic de coïncidence [1]

RE 177 - 2 © Editions T.I. 2 – 2015

70
Référence Internet
RE177

RECHERCHE

Générateur de neutrons

n t2 Objet
t1
inspecté
Détecteur α D
γ

3

Cible tritiée

Cône d’émission
des neutrons signés
Détecteur γ

a schéma de principe de l’interrogation localisée en volume grâce à la détection du neutron


(déterminé par un détecteur ! à localisation implanté dans le générateur) et à son temps
de vol (déterminé par coïncidence !-"), lequel fournit la distance D jusqu’à son interaction

Spectre gamma du volume interrogé Déconvolution sur la base de signatures élémentaires


acquises lors de la calibration du système
5 000 O(56,34 ± 0,31) %
Coups

Coups

Coups

Coups

Coups
C(37,04 ± 0,22) %
C N O Ni Cr
Coups

4 000 Pb(4,93 ± 0,54) %


Cr(1,06 ± 0,46) %
3 000 F(0,63 ± 0,79) %
0 2 3 4 5 6 7 0 2 3 4 5 6 7 0 2 3 4 5 6 7 0 2 3 4 5 6 7 0 2 3 4 5 6 7
Énergie (MeV) Énergie (MeV) Énergie (MeV) Énergie (MeV) Énergie (MeV)

2 000 Si
Coups

Coups

Coups

Coups

Coups

Fe Al Pb Zn
1 000
0 0 2 3 4 5 6 7
Énergie (MeV)
0 2 3 4 5 6 7
Énergie (MeV)
0 2 3 4 5 6 7
Énergie (MeV)
0 2 3 4 5 6 7
Énergie (MeV)
0 2 3 4 5 6 7
Énergie (MeV )

2 3 4 5 6 7
Énergie (MeV)

b spectre gamma de l’élément de volume interrogé et sa déconvolution en signatures élémentaires

Simulant Explosifs
de TNT
Mesure Drogues
Matières bénignes

O C

c triangle des proportions élémentaires du carbone, de l’azote et de l’oxygène permettant


de différencier les matières organiques entre elles (voir § 3.1)

Figure 1 – Principe de la méthode de la particule associée pour la caractérisation élémentaire avec des détecteurs de spectrométrie
gamma (scintillateurs inorganiques)

2 – 2015 © Editions T.I. RE 177 - 3

71
Référence Internet
RE177

RECHERCHE

Scintillateurs plastiques

4 n ou γ
d

Fission

α n n ou γ
2 t

3 1
3

n ou γ

Générateur de neutrons
à particule associée

a schéma de principe de la détection des coïncidences

Coïncidences d’ordre 1 Coïncidences d’ordre 2 Coïncidences d’ordre 3


Coups Coups Coups
Neutrons Neutrons prompts Uranium écranté
104 transmis 103 103
de fission Uranium nu
Écran métallique sans U
Matrice métallique seule
102 102
103

γ prompts 10
10
de fission
102

1 1

0 50 100 150 200 250 0 50 100 150 200 250 0 50 100 150 200 250
Temps de vol (ns) Temps de vol (ns) Temps de vol (ns)

b spectres de temps de vol à différents ordres de coïncidence (i.e. nombre de particules en coïncidence
avec la détection !) montrant la discrimination entre matériaux nucléaires et bénins (voir § 3.4)

Figure 2 – Principe de la détection de matières nucléaires avec la technique de la particule associée basée sur la mesure des
coïncidences avec des détecteurs neutron-gamma (scintillateurs organiques plastiques ou liquides)

[2]), conditionne en effet la taille minimale des volumes élé- sation élémentaire par spectrométrie des rayonnements
mentaires (ou voxels ) qu’il est possible d’inspecter. L’autre gamma induits, ou dans [4] [5] pour la détection des matières
paramètre important déterminant la taille des voxels est la nucléaires par analyse des coïncidences.
résolution avec laquelle sont localisées les particules alpha sur
Comme mentionné dans le paragraphe 1, la technique de la
le détecteur YAP:Ce, sa distance par rapport à la cible impré-
particule associée est une méthode d’activation neutronique
gnée de tritium où sont produits les neutrons dans le généra-
très spécifique qui offre des capacités de localisation spatiale
teur, et l’éloignement de l’objet inspecté par rapport au
uniques la rendant extrêmement complémentaire de l’imagerie
générateur puisque le faisceau s’évase (figure 1). In fine, des
photonique. Plusieurs systèmes de mesure portables sont
volumes élémentaires typiques de l’ordre du litre sont mesu-
arrivés au stade commercial, comme le dispositif ULIS de
rables à courte distance (moins de 1 m).
SODERN en France (http://www.sodern.com/sites/docs_wsw/
En complément des paragraphes suivants consacrés aux RUB_80/ULIS.pdf) pour la détection de menaces chimiques
applications de la technique de la particule associée, on trou- notamment dans des bagages abandonnés, mais pour
vera de nombreux détails techniques et méthodologiques dans l’inspection des conteneurs maritimes ou aériens, un seul sys-
les références [IN 82] et [3] pour ce qui concerne la caractéri- tème équivalent au système EURITRACK (§ 3.1) peut être

RE 177 - 4 © Editions T.I. 2 – 2015

72
Référence Internet
RE177

RECHERCHE

mentionné. Il s’agit du système PFNA (Pulsed Fast Neutron


Analysis, http://www-pub.iaea.org/MTCD/publications/PDF/
P1433_CD/ datasets/papers/sm_en-05.pdf) développé par la
société RAPISCAN aux États-Unis et testé à El Paso (Texas,
frontière mexicaine), puis à l’aéroport Georges Bush de Hous-
ton, au Texas. Basé également sur une mesure du temps de
vol neutronique pour déterminer la profondeur d’interrogation,
ce système utilise par contre un collimateur au bout d’un bras
mécanique articulé pour déterminer la direction et scanner le
conteneur. Ses inconvénients principaux qui ont conduit à
l’échec d’un développement industriel sont la lourdeur des ins-
tallations (bâtiment dédié pour assurer la radioprotection en
raison du niveau très élevé d’irradiation utilisé), des équipe-

3
ments (accélérateur Van de Graaf de 4 MV, 200 détecteurs
gamma) et de la maintenance (accélérateur, bras articulé, fui-
tes au niveau de la cible gazeuse de deutérium sous pres-
sion). L’approche proposée avec le système EURITRACK,
basée sur un tube scellé transportable de quelques kg déli-
vrant une émission neutronique moins intense d’au moins 3
ordres de grandeur, permettant une inspection focalisée sur
un volume d’intérêt repéré par imagerie au lieu de scanner
l’intégralité du conteneur, est beaucoup moins lourde et coû-
teuse à mettre en œuvre. Le fait de pouvoir repositionner faci-
lement un système de mesure de type EURITRACK, conçu de Figure 3 – Système d’inspection neutronique EURITRACK
façon encore plus compacte, au sein d’un même site (port installé sur le port de Rijeka, en Croatie
maritime par exemple) ou bien vers un autre poste de
contrôle (aux frontières par exemple), constitue un atout
important lié à l’absence d’installation lourde autour du sys- développé le détecteur alpha YAP:Ce segmenté, implanté dans
tème de mesure, une simple zone d’exclusion permettant le générateur de neutrons, et le logiciel de traitement et de
d’assurer la protection des utilisateurs. Nous mentionnerons mise en forme des données avec CAEN (PME italienne), res-
en conclusion quelques aspects pratiques et réglementaires ponsable de l’électronique d’acquisition. L’IRB (Institut Ruder
pour la mise en œuvre de cette technologie. Boscovic, Croatie) a organisé les essais en laboratoire à
Zagreb et de démonstration sur le port de Rijeka. La société
SODERN (France) a réalisé le générateur de neutrons à parti-
3. Applications cule associée. L’institut IPJ (Andrzej Soltan Institute for
Nuclear Studies, Pologne) a participé à la sélection et au choix
Nous abordons ici les applications potentielles de la TPA étu- des détecteurs gamma avec le CEA. Enfin, JRC (Joint Research
diées par le CEA et ses partenaires au travers de projets de Center d’Ispra, Italie) a contribué au logiciel d’aide à la
R&D nationaux et européens. décision avec le CEA.

La figure 3 montre le démonstrateur du système EURI-


3.1 Inspection de conteneurs maritimes TRACK installé à Rijeka, en Croatie, et la figure 4, un exemple
Cette application fondatrice a été étudiée au travers de deux de mesure avec une cible en bois cachée au milieu d’un char-
projets européens pilotés par le CEA, dont les objectifs étaient gement métallique. La présence de bois dans le fer est visible
de détecter divers produits illicites comme les explosifs et les sur le spectre gamma correspondant à la région de l’espace
drogues : qui contient la cible, sélectionnée dans le spectre de temps de
vol neutronique. Le concept d’emploi du système EURITRACK
– EURITRACK du 6e PCRD, mené de 2004 à 2008 et décrit
consiste à focaliser l’inspection avec le faisceau de neutrons
dans l’article [IN 82]. Ce projet a été récompensé en 2007 par
marqués sur une zone suspecte du conteneur repérée au
le 1er prix de l’innovation technologique des Trophées de la
préalable par un scanner à rayons X (contrôle rapide de pre-
défense civile, remis au Sénat par le Haut comité français
mier niveau, moins de 1 min). Il s’agit donc d’un contrôle de
pour la défense civile. Il s’est conclu par l’implantation d’un
deuxième niveau utilisé pour une levée de doute, avec un
démonstrateur sur le port de Rijeka, en Croatie [6] ;
temps de mesure typique de 10 min.
– Eritr@C de 2008 à 2010, financé par la DG Justice Liberty
Security (JLS) de l’Union européenne, qui a permis de pour- L’objectif principal du système EURITRACK est la détection
suivre les inspections pour améliorer le retour d’expérience, le d’explosifs ou de drogues, qu’il est difficile de différencier des
système de mesure et le logiciel d’aide à la décision pour les matières organiques bénignes (bois, vêtements, plastiques,
utilisateurs finaux, ainsi que de qualifier les outils de simula- etc.) par radiographie X, car ils ont une densité et un numéro
tion pour déterminer les performances d’une version indus- atomique moyen similaires. Suite à l’inspection neutronique,
trielle du système. Le CEA a été récompensé en mai 2008 par les spectres gamma sont donc décomposés en signatures élé-
le Prix de la jeune équipe du 7e festival des sciences et mentaires, comme celles représentées en figure 5 pour le car-
technologies de Marseille. bone (C), l’azote (N) et l’oxygène (O), dont les proportions
Les partenaires de ces projets sont mentionnés dans [IN 82] permettent ensuite de différencier les matières organiques.
et sur le site http://www.euritrack.org/. Parmi les principaux Les proportions de coups attribuables à chaque élément sont
acteurs sur le plan technologique, le CEA était responsable de déterminées en ajustant le spectre gamma mesuré, par
la conception du système par simulation numérique [30] [31], exemple avec un algorithme des moindres carrés, avec une
puis de sa qualification en laboratoire et sur site, ainsi que combinaison linéaire des spectres élémentaires des éléments
des outils d’interprétation des données et d’aide à la décision. susceptibles d’être présents en quantité significative dans les
L’INFN (institut national de physique nucléaire italien) a chargements, représentés en figure 6.

2 – 2015 © Editions T.I. RE 177 - 5

73
3

74
Référence Internet
IN148

INNOVATION

Capteur de force innovant


Application au pesage ferroviaire
et routier

par Gérard CLAVERIE


3
Ingénieur diplômé du CNAM
Ingénieur expert en conception d’instruments scientifiques
Université de Bordeaux 1, UMR 5797 – CNRS, Centre d’Études Nucléaires
de Bordeaux-Gradignan
Jean-Pierre FORTIN
Ingénieur Principal hors classe honoraire SNCF
Consultant industriel en Ingénierie et Études Spéciales de mécanique
et Bernard GUTFRIND
Université de Bordeaux 1, UFR de Physique
Expert scientifique et technique auprès du CNRS

Résumé : Cette innovation est un nouveau concept de capteur de force qui favorise
la création de dispositifs de pesage particulièrement adaptés au pesage dynamique,
mais capable également de répondre à des applications de pesage statique d’objets de
grand volume. Un capteur est fabriqué avec une poutre en acier. Selon l’application, la
poutre sert directement de récepteur de charges ou constitue un capteur de grande
dimension inséré dans un système de pesage.

Abstract : This innovation is a new force sensor concept. This new force sensor
favors the creation of devices for weighing, particularly adapted to dynamic weighing
and also suited to static weighing for large volume objects. A sensor is made with a
steel beam. Depending on the requested application, the beam receives directly the
load or is inserted into a weighing device as a very long force sensor.

Mots-clés : capteur de force, pesage dynamique, résistance des matériaux, poutre


en acier, jauge de contrainte, pont de Wheatstone

Keywords : force sensor, dynamic weighing, strength of materials, steel beam,


strain gage, wheatstone bridge

Points clés
Domaine : Techniques de mesures
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Extensomètre à fil résistant, collage
Domaines d’application : Pesage ferroviaire et routier
Principaux acteurs français :
Pôles de compétitivité :
Centre de compétence : CNRS, Centre d’Études Nucléaires de Bordeaux – Gradignan,
UMR 5797, Université de Bordeaux 1
Industriels :
Parution : août 2012

Autres acteurs dans le monde :


Contact : claverie@cenbg.in2p3.fr, http://www.cenbg.in2p3.fr

8 - 2012 © Editions T.I. IN 148 - 1

75
Référence Internet
IN148

INNOVATION

1. Contexte σ
Dans un contexte industriel où les gains de productivité sont
sans cesse recherchés, le pesage en dynamique, c’est-à-dire
le pesage d’une charge en mouvement, présente toujours un
grand intérêt pour le gain de temps qu’il représente. Particu-
lièrement vrai pour le pesage sur les chaînes de production,
cela concerne le pesage d’objets ponctuels comme le pesage
de colis ou le tri par le poids, et également le pesage ou le
Limite d’élasticité
contrôle volumétrique de matière en continu sur des transpor-
teurs à bande ou à rouleaux.
Le pesage des véhicules en marche est aussi une problé-
matique d’actualité, notamment celui des trains et des poids

3 lourds. Il s’agit là de charges très lourdes pouvant dépasser 20


tonnes. Dans ce domaine, au-delà des gains de productivité, la
sécurité et la préservation des infrastructures sont aussi un enjeu. ε
Pour la sécurité, il est souhaitable de détecter les véhicules globa- Région d’élasticité Région de plasticité
lement en surcharge, mais aussi de pouvoir mesurer le poids par
essieu et mieux encore, le poids par roue, pour vérifier l’équili- Figure 1 – Diagramme d’un essai en traction
brage des chargements ; cela est primordial pour éviter le chavi-
rement. La préservation des infrastructures routières est un vrai
2.1.2 Capteurs à jauges extensométriques classiques
problème pour les états car trop de véhicules routiers roulent en
surcharge. Le passage d’un poids lourd en charge normale équi- Un capteur à jauges extensométriques est composé d’un
vaut au passage de 10 000 automobiles, alors qu’un poids lourd corps d’épreuve et d’extensomètres à fils résistants usuelle-
ayant une surcharge de 20 % par essieu à celui de 245 000 voi- ment appelés jauges de contraintes [R 1 850] [R 1 860].
tures. Les Pays-Bas auraient estimé le coût de cette détérioration
par surcharge des poids lourds à 25 millions d’euros par an. Pour 2.1.2.1 Corps d’épreuve
cela, le pesage systématique des véhicules doit se développer. Le dimensionnement d’un peson, c’est-à-dire son adaptation à
Mais, analyser avec précision le trafic des charges sur une la gamme de force qu’il pourra mesurer, dépend du calcul de son
infrastructure ferroviaire ou routière présente aussi l’intérêt corps d’épreuve. C’est le corps d’épreuve qui subit les déforma-
d’améliorer la planification des opérations de maintenance tions engendrées par la force appliquée, et sur lequel sont fixés
et/ou de détecter l’inadéquation de cette infrastructure avec le les extensomètres à fils résistants destinés à les mesurer.
trafic réel qu’elle supporte. Toutes ces problématiques néces-
sitent l’utilisation de systèmes de pesage dynamiques perfor- 2.1.2.2 Relation entre contrainte, module d’élasticité
mants. Ces systèmes de pesage dynamique optimisent le et déformation
rapport précision de la pesée sur la vitesse de passage de la Le module de Young, ou module d’élasticité, est une
charge sur le dispositif. L’innovation décrite dans cet article constante qui relie la contrainte de traction (ou de
est celle précisément d’un outil nouveau et simple, également compression) à la déformation élastique isotrope (figure 1).
adapté à la fabrication de systèmes de pesage statique tels En effet, le rapport entre la contrainte de traction (compres-
que des barres peseuses ou plateformes de pesage. sion) appliquée à un matériau, et la déformation qui en
Nota : Cette technologie est protégée par brevet. Les licences d’exploitation résulte, c’est-à-dire l’allongement relatif ε, est constant tant
industrielle sont accordées par FIST SA France Innovation Scientifique et Transfert, que la limite d’élasticité du matériau n’est pas atteinte.
société de transfert et de commercialisation des technologies innovantes, filiale du
CNRS et d’OSEO INNOVATION. Cette relation est la loi de Hooke :

2. Description technique de l’innovation ε=


∆ℓ
(1)

2.1 Généralités σ = εE (2)
2.1.1 Principe d’un système de pesage classique avec σ contrainte (GPa ou daN/mm2),
Les systèmes de pesage classique sont réalisés à partir de E module de Young (GPa ou daN/mm2),
capteurs, appelés usuellement pesons, qui mesurent la charge
en un point. Pour peser en statique des objets de volume impor- ε allongement relatif ou déformation (sans dimension).
tant, il est nécessaire de fabriquer un système de pesage Nota : Pour l’acier, le module de Young, E = 21 × 103 daN/mm2.
comportant une surface de réception de la charge, adaptée au
volume de la charge. Typiquement, plusieurs capteurs sont pla- 2.1.2.3 Extensomètres à fils résistants
cés sous une plateforme et une électronique d’acquisition est Les extensomètres à fils résistants les plus couramment uti-
associée à un traitement informatique pour effectuer le calcul lisés sont des jauges à trame (figure 2).
de la masse de l’objet. Ainsi, sous un pont-bascule routier de
3 m × 16 m peuvent être disposés 6 capteurs de forces. De Ces jauges sont fabriquées à partir de feuilles métalliques de
même, en pesage dynamique, pour mesurer la charge d’un quelques microns d’épaisseur déposées sur un substrat synthé-
convoi, plusieurs capteurs sont nécessaires comme dans un tique. Les techniques de fabrication sont similaires aux techni-
pèse-essieux routier. Dans le cas du pesage d’un convoi ferro- ques de fabrication des circuits imprimés (insolation et attaque
viaire en marche, la technologie piézo-électrique est jusqu’à acide).
présent très souvent utilisée. Mais la technologie la plus cou- Sur un même substrat, plusieurs jauges électriquement
rante des capteurs équipant ces systèmes de pesage reste celle indépendantes sont implantées. Ce sont des jauges rosettes
des capteurs à jauges extensométriques. qui peuvent mesurer les contraintes selon deux, trois ou

IN 148 - 2 © Editions T.I. 8 - 2012

76
Référence Internet
IN148

INNOVATION

B
εx
R1 R2
O X

A C Vs
Jauge de contrainte
Jauges de contrainte simple
rosettes 90o
R4 R3

Figure 2 – Extensomètres à fils résistants ou jauges de contrainte


D 3
quatre directions distinctes : deux jauges rosettes à sont 90o
perpendiculaires. Ainsi, selon les modèles, il est possible de Ve
mesurer simultanément plusieurs valeurs de contrainte en un
même point (traction, compression, flexion).
Figure 3 – Montage en pont de Wheatstone complet
2.1.2.3.1 Principe d’une jauge
Le fil très mince qui constitue la jauge est aligné selon la
direction OX, la jauge subit donc la déformation εx de la surface
sur laquelle le substrat est collé. À cette variation de longueur RA RB
a 
∆ℓ Z Q
correspond une variation proportionnelle de la résistance Y
ℓ 0
∆R X
, avec k constante dépendant des matériaux utilisés (k = 2 x (S)
R
pour le constantan (cuivre-nickel) et le karma (nickel-chrome)). A L B

∆ℓ
εx = (3) Figure 4 – Schéma d’une poutre sur deux appuis supportant
ℓ une charge

∆R ∆ℓ
=k (4) 2.1.2.4 Progrès récents de la technologie des capteurs
R ℓ à jauges extensométriques
Les progrès des dernières décennies ont porté sur la qualité
2.1.2.3.2 Principe du pont de Wheatstone complet
des jauges de contraintes, des collages de jauges et l’intégra-
Le montage en pont de Wheatstone comporte 4 résistances tion de l’électronique dans le capteur, qui devient capteur
égales R1 , R2 , R3 , R4 , branchées comme indiqué sur la numérique.
figure 3. Entre les points B et D, la différence de potentiel est
nulle au repos. Une tension différentielle n’apparaît que
lorsque la condition R1·R3 ≠ R2·R4 est satisfaite. 2.2 Technologie innovante de capteur
Les variations de R1 et R3 agissent dans le même sens et R2
et R4 agissent en sens contraire. Ainsi, de façon générale, 2 Cette nouvelle technologie de capteur utilise une poutre ou
résistances adjacentes agissent en sens opposé et 2 résistan- une section de poutre métallique qui repose sur deux appuis
ces opposées agissent dans le même sens. consécutifs et qui est le corps d’épreuve du capteur. Ce prin-
cipe peut s’appliquer à des capteurs de petites tailles mais son
Dans la majorité des applications de capteurs, est utilisé un avantage est de pouvoir réaliser des capteurs de grandes
pont avec 4 jauges disposées de façon à ajouter leurs effets et dimensions, dont la surface peut servir directement de récep-
à retrancher les effets parasites à éliminer. teur de charge. Cette technologie exploite les propriétés de la
La variation des résistances fait apparaître une tension de résistance des matériaux (RDM) et plus particulièrement les
sortie Vs , proportionnelle aux variations relatives de résis- résultats de la théorie des poutres [1] [2].
∆R
tances de chaque jauge et qui vaut : 2.2.1 Principe du nouveau capteur de pesage
R
2.2.1.1 Cas d’une poutre sur deux appuis
Ve  ∆ R1 ∆ R2 ∆ R3 ∆ R4 
Vs =  − + −  (5) Soit une poutre horizontale isostatique, possédant un plan de
4  R1 R2 R3 R4  symétrie dans le sens de la longueur et reposant sur deux
appuis A et B (figure 4). Sur cette poutre, agit une charge
avec Ve , différence de potentiel AC. 
concentrée verticale Q à la distance a de l’appui A. On
Les signes + et – de l’équation traduisent la propriété du considère une section droite S de la poutre située à une dis-
montage en pont décrite ci-dessus. tance x de A.

8 - 2012 © Editions T.I. IN 148 - 3

77
3

78
Référence Internet
RE182

RECHERCHE

Identification des odeurs


humaines par les chiens policiers

par Sophie MARCHAL

3
Ingénieur chargé de la veille scientifique
SCIJ/groupe Odorologie
Sous-direction de la police technique et scientifique
Direction centrale de la police judiciaire, Écully, France
et Barbara FERRY
Chargée de recherche CNRS
Centre de recherches en neurosciences Lyon
UMR 5292 CNRS – INSERM U 1028 – Université Claude Bernard Lyon 1, France

’odorologie est une technique de criminalistique permettant de com-


L parer et d’identifier des odeurs humaines à l’aide de chiens
spécialement formés. L’objectif est d’identifier des auteurs ou victimes
d’infractions criminelles qui ont pu laisser sur la scène de crime, ou sur
un objet, leur trace odorante, au même titre que leur ADN ou leur
empreinte papillaire. Ainsi, l’odeur prélevée sur l’objet ou sur la scène de
crime est comparée à l’odeur d’un suspect.
Le groupe « odorologie » a été créé en 2000 au sein de la Direction cen-
trale de la police judiciaire (sous-direction de la police technique et
scientifique, SDPTS à Écully) ; c’est le seul laboratoire en France qui
applique depuis 2003 la technique de l’odorologie, importée de Hongrie.
Telle qu’elle est pratiquée au sein de la SDPTS, cette technique repose
sur une identification indirecte entre deux odeurs prélevées sur des sup-
ports. Cela permet d’éviter toute subjectivité des chiens vis-à-vis d’un
objet ou d’un individu, et de conserver les odeurs pendant de longues
périodes.
L’application rigoureuse des procédures de formation et d’entraînement
des chiens de la brigade cynophile de la SDPTS à l’identification des
odeurs humaines montre qu’à l’issue d’une période de deux ans les
animaux ne commettent plus d’erreur de reconnaissance entre deux
odeurs appartenant à deux individus différents. De plus, l’analyse des
résultats obtenus sur l’ensemble des chiens depuis 2003 suggère que la
sensibilité olfactive des chiens s’améliore avec l’entraînement pour
atteindre un niveau leur permettant de faire la reconnaissance entre deux
odeurs différentes d’un même individu dans 85 % des cas en moyenne.
Les données de cette étude montrent qu’un suivi rigoureux de l’ensemble
des procédures par les chiens de la brigade conduit à des performances
d’identification fiables et reproductibles qui devraient être considérées par
les magistrats comme des éléments de preuve dans une procédure judi-
ciaire, au même titre que les identifications des empreintes papillaires ou
d’ADN.
Cet article a pour objectif de décrire avec précision l’ensemble des prin-
cipes sur lesquels repose l’apprentissage de l’identification des odeurs
humaines. En partant des caractéristiques anatomiques et physiologiques
du système olfactif canin, l’article retrace l’utilisation des chiens dans le
Parution : mars 2017

pistage des odeurs humaines au cours de l’histoire. Puis, le corps de


l’article décrit avec précision les différentes phases de la formation mises

3-2017 © Editions T.I. RE 182 - 1

79
Référence Internet
RE182

RECHERCHE

au point par la brigade cynophile de la SDPTS afin de former les chiens


policiers à l’identification des odeurs corporelles humaines. Enfin, si la
discussion des résultats obtenus depuis 2003 avec la technique de l’odo-
rologie montre que, combinée à leur grande capacité de mémorisation,
l’exceptionnelle acuité olfactive des chiens peut servir à prouver la pré-
sence d’un individu sur une scène de crime, elle peut servir d’autres
causes dans le domaine de la sécurité publique mais aussi dans le
domaine médical.

3
Points clés

Domaine : Judiciaire.
Degré de diffusion de la technologie : Émergence.
Croissance : Maturité.
Technologies impliquées : Comportement, études et analyses statistiques.
Domaines d’application : Mise en évidence d’un nouvel élément de preuve
dans les enquêtes judiciaires.
Principaux acteurs français :
Expertise pratique : groupe odorologie, sous-direction de la police technique et
scientifique, Direction centrale de la police judiciaire.
Expertise théorique et scientifique : Équipe CMO, Centre de recherche en neuros-
ciences de Lyon, UMR 5292 Inserm U 1028 – Université Claude Bernard Lyon 1.
Contacts : Barbara Ferry (équipe CMO, CNRS)
barbara.ferry@cnrs.fr
http://www.researchgate.net/profile/Barbara_Ferry/info

1. Contexte de son visage, le ton de sa voix [1] ou encore certains gestes,


ce qui lui a permis de faciliter son insertion au sein du groupe
humain. Mais avec l’apparition des machines pour le travail, de
1.1 Système olfactif du chien : l’élevage en milieux clos et de nouvelles armes, la relation de
un outil d’exception commensalisme existant entre l’homme et le chien a évolué. Si
les chiens ont gardé leur rôle de pisteur au cours de la chasse
Les signaux olfactifs fournissent de nombreuses informations (limier), leurs performances olfactives et leurs aptitudes au
qui sont essentielles à la survie des espèces dans leur milieu dressage sont aujourd’hui utilisées dans différents domaines
écologique. La détection et l’identification des molécules olfac- pour la détection et l’identification de particules odorantes
tives présentes en suspension dans l’air permettent aux ani- confirmant la présence d’éléments contre lesquels il est impor-
maux d’adapter leur comportement en fonction du type de tant de lutter.
signal qu’elles indiquent. Le sens de l’olfaction va ainsi jouer un
Au niveau anatomique, les caractéristiques particulières
rôle dans l’identification de sources de nourritures comestible et
d’organisation et de fonctionnement du système olfactif per-
non comestible, dans la détection de la présence de prédateurs
mettent au chien d’identifier une multitude d’odeurs différentes,
ainsi que dans les comportements sociaux tels que le choix du
avec un seuil de détection très bas. Tout d’abord, la cavité
partenaire, les relations mère-petit ou la reconnaissance d’un
nasale des chiens est organisée de façon à optimiser l’efficacité
groupe. Dès lors, on comprend aisément pourquoi le système
du transport des odeurs en orientant le flux d’air vers les cor-
olfactif s’est développé au cours de l’évolution, notamment chez
nets olfactifs par contraction des muscles de la truffe. La décon-
les mammifères, en un système sophistiqué et parfois très
traction de ces muscles permet, lors de l’expiration, d’envoyer
complexe leur permettant de détecter et d’identifier des milliers
le flux d’air sur la partie latérale de la truffe. Cette dynamique
de molécules odorantes présentes en suspension dans l’air.
particulière de l’air inspiré et expiré permet de potentialiser le
Parmi les espèces de mammifères montrant une remarquable traitement des odeurs lors du flairage [8]. Les cornets olfactifs
acuité olfactive, le chien est un macrosmate dont les capacités sont constitués par des os très fins, organisés en lamelles
de détection et de pistage ont été très tôt employées par enroulées et tapissés d’un épithélium à la surface duquel sont
l’homme pour l’aider à chasser, pour garder son territoire et le situés quelques 200 à 250 millions de neurorécepteurs olfactifs.
défendre contre les attaques de prédateurs ou d’ennemis. Au La muqueuse olfactive (environ 200 cm2) enroulée sur
cours de l’évolution, le chien a développé des aptitudes lui per- elle-même est recouverte par un mucus, ce qui permet aux
mettant de décoder certains signaux très discrets émis par molécules odorantes présentes dans le flux d’air inspiré d’être
l’homme, lui permettant de s’adapter à leur humeur et à leur adsorbées plus ou moins rapidement en fonction de leur taille et
état émotionnel comme ses odeurs corporelles, les expressions leur caractéristique hydrophile et hydrophobe [31].

RE 182 - 2 © Editions T.I. 3-2017

80
Référence Internet
RE182

RECHERCHE

propre. Ce système combinatoire permet, avec l’ensemble des


Épithélium olfactif récepteurs, de discriminer des milliers (plus de 500 000) de
(vue sagittale) molécules odorantes. Le fonctionnement d’un tel système
explique pourquoi les mammifères, et le chien en particulier,
possèdent une grande capacité de détection olfactive.

1.2 Historique de l’odorologie


Les performances de détection olfactive des chiens ont été uti-
Bulbe olfactif lisées depuis longtemps pour le pistage de certaines odeurs et
des études ont montré que le chien est capable de comparer les
odeurs de même type afin d’identifier celle qu’on lui demande de

3
retrouver [21] [26] [56]. Cette capacité a été exploitée très tôt
par les services de sécurité pour retrouver des individus perdus
ou recherchés grâce au pistage. Les premières études publiées
Organe voméronasal
sur ce sujet font état de la rapidité et de l’efficacité des chiens à
mémoriser une odeur corporelle humaine pour suivre ensuite sa
trace dans des milieux ouverts afin de retrouver la personne à
laquelle elle appartient [44]. Les performances de pistage des
chiens montrent que le chien est capable de comparer l’odeur
d’un individu recherché à des odeurs de nature différente ainsi
qu’aux odeurs laissées par d’autres personnes s’étant trouvées
sur le même lieu [21] [53]. Ces observations suggèrent que le
chien est capable de mémoriser une odeur complexe telle que
Le bulbe olfactif, où arrivent les informations en provenance directe l’odeur humaine et de la comparer aux odeurs d’autres per-
de l’épithélium, est trois fois plus grand que celui de l’homme, sonnes pour l’identifier sur une piste et la suivre.
même si le cerveau du chien est dix fois plus petit. L’organe vomé-
ronasal est spécialisé dans la détection des phéromones. Or, les odeurs humaines sont complexes. Des données en
chromatographie en phase gazeuse couplée à la spectrométrie
Figure 1 – Représentation schématique des structures de masse ont montré que l’odeur corporelle humaine est consti-
impliquées dans le traitement des odeurs chez le chien tuée d’un mélange complexe de plusieurs éléments volatils et
dont la composition diffère d’un individu à l’autre [46]. L’odeur
corporelle humaine contient une composante acquise généti-
Les neurones sensoriels sont situés dans la membrane de quement qui va influencer la composition du mélange de molé-
l’épithélium et les cils qui les prolongent baignent dans le mucus cules chimiques appartenant aux familles des hydrocarbures,
épithélial. Les récepteurs olfactifs sont des protéines membra- des alcools, des acides carboxyliques, des cétones et des
naires présentes à la surface des cils qui captent et fixent les aldéhydes [3] [60] [61]. Elles sont secrétées par les cellules
molécules en fonction d’un certain nombre de propriétés, épithéliales de l’épiderme ainsi que par les glandes apocrine,
comme leur poids moléculaire, leur densité électronique, leur eccrine et sébacée. Cette composante génétique est la signa-
polarisabilité, leur structure tridimensionnelle... Chaque neu- ture de l’activité de notre système immunitaire, elle-même
rone sensoriel (ou neurone olfactif ; NO) exprime un seul type déterminée par un ensemble de gènes codant pour les protéines
de récepteur. À leur autre extrémité (figure 1), les axones des du système immunitaire appelés « complexe majeur
NO sont regroupés en faisceaux de 10 à 100 axones. Ces fais- d’histocompatibilité » [2] [17] [18] [39] [59]. Ce mélange com-
ceaux traversent l’os ethmoïde (lame ethmoïdale), situé à la plexe et unique de molécules odorantes constitue ce que l’on
base du crâne, et convergent dans le bulbe olfactif sur d’autres appelle l’« odeur primaire ». La constitution de l’odeur pri-
neurones relais appelés « cellules mitrales » pour former les maire est propre à chaque individu, elle est constante dans le
glomérules. Le taux de convergence des NO sur ces cellules temps et varie d’un individu à l’autre [14] [37] [43] [58]. Sur
mitrales est très élevé et chaque glomérule reçoit les terminai- cette composante primaire se greffe une composante secon-
sons axonales de plusieurs milliers de NO (voir [15], figure 2). daire contenant d’autres éléments présents dans notre sueur.
Les axones des cellules mitrales forment les filets nerveux qui Cette odeur dite « secondaire » est générée par un mélange de
vont assurer les connexions entre le bulbe olfactif et le cortex molécules issues du fractionnement, par les micro-organismes
olfactif (entorhinal, périrhinal) ainsi que le thalamus et d’autres vivant sur notre peau, des acides gras à longue chaîne produits
régions du système limbique impliquées dans les processus de par les glandes sudoripares. Cette composante secondaire peut
mémoire et d’apprentissage. elle-même être influencée par le régime alimentaire, l’état phy-
siologique (comme le stress, l’anxiété, la dépression...) ou
Mais si le système olfactif peut détecter et reconnaître des pathologique dans lequel se trouve un individu [23] [24] [55].
molécules, grâce à un grand nombre de récepteurs, la perception Enfin, l’odeur tertiaire correspond aux molécules volatiles pro-
de toute odeur ne se résume pas à l’activation d’un récepteur venant des cosmétiques (savon, parfum...) ou d’autres sources
particulier, à la transduction, puis à la transmission du message (comme le tabac).
par une voie spécifique jusqu’aux aires cérébrales. En effet,
même si le nombre de récepteurs différents est élevé (environ Si l’observation du comportement des chiens de pistage
1 200), il reste très inférieur au nombre des molécules odorantes montre qu’ils sont capables de retrouver une odeur humaine
différentes discriminables et des études électrophysiologiques par l’identification de l’ensemble de ces trois composantes [24]
ont montré qu’un récepteur olfactif de la muqueuse peut [26] [51], d’autres études suggèrent que le chien est aussi
répondre à plusieurs molécules odorantes présentant des struc- capable de procéder à un codage élémentaire de l’odeur
tures chimiques différentes (figure 3). Le codage de l’odeur humaine afin d’identifier une odeur humaine particulière parmi
résulte donc d’une activation combinatoire d’un ensemble d’autres par comparaison sélective de leur composante
de récepteurs. Chaque odeur est ainsi représentée, à l’entrée primaire [38] [45] [50]. Le chien a même été plus rapide que la
du bulbe olfactif, par une carte d’activité fonctionnelle qui lui est technologie puisqu’il a été capable d’identifier deux odeurs de

3-2017 © Editions T.I. RE 182 - 3

81
3

82
Référence Internet
P2875

Spectroscopie microonde

par Annunziata SAVOIA


Ingénieure de Recherche CNRS, Univ. Lille, CNRS, UMR 8523 – PhLAM-Physique des Lasers
Atomes et Molécules, F-59000 Lille, France

Spectroscopie de rotation ....................................................................... P 2 875 - 3

3
1.
1.1 Description classique..................................................................................... — 3
1.2 Description quantique dans l’approximation du rotateur rigide ............... — 4
2. Spectromètre à impulsions microondes par transformée
de Fourier FTMW......................................................................................... — 5
2.1 Principe général ............................................................................................. — 5
2.2 Spectromètre SIMO ....................................................................................... — 6
2.2.1 Cavité Pérot-Fabry................................................................................. — 6
2.2.2 Jet supersonique................................................................................... — 8
2.3 Avantages de la spectroscopie à impulsions microondes
par transformée de Fourier ........................................................................... — 9
3. Spectromètre à impulsions microondes par dérive
de fréquences CP-FTMW .......................................................................... — 10
3.1 Nécessité d’une évolution ............................................................................. — 10
3.2 Principe général ............................................................................................. — 10
4. Exemples d’applications de la spectroscopie microonde............... — 11
4.1 Spectroscopie de rotation pour l’étude de molécules d’intérêt
atmosphérique ............................................................................................... — 12
5. Conclusion.................................................................................................... — 12
6. Glossaire ....................................................................................................... — 13
Pour en savoir plus ............................................................................................. Doc. P 2 875

a spectroscopie est une discipline expérimentale qui étudie l’émission, la dif-


L fusion et l’absorption d’un rayonnement électromagnétique par des atomes
ou des molécules.
Les méthodes expérimentales en spectroscopie ont débuté dans le domaine
le plus accessible du spectre électromagnétique, le visible, où l’œil pouvait être
Parution : août 2021 - Dernière validation : août 2021

utilisé comme détecteur. C’est ainsi qu’en 1655, Newton entreprend ses expé-
riences sur la dispersion de la lumière blanche à l’aide d’un prisme en verre.
Cependant, il a fallu attendre environ 1860 pour que Bunsen et Kirchhoff
construisent le spectroscope à prisme utilisable en tant qu’instrument.
En 1885 Balmer établit de façon empirique une relation mathématique qui
permet de calculer les longueurs d’ondes des raies visibles du spectre de
l’atome d’hydrogène. C’est ainsi que démarre la relation étroite entre l’expé-
rience et la théorie en spectroscopie, l’expérience fournissant les résultats et
une théorie appropriée essayant de les expliquer et de prédire des résultats
dans des expériences voisines.
Cependant, la théorie rencontre de plus en plus de difficultés tant qu’elle est
basée sur la mécanique classique de Newton, et cela jusqu’au développement de
la mécanique quantique par Schrödinger en 1926. À cette époque, les données
provenant des expériences de spectroscopie, sauf celles effectuées sur des atomes

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 875 – 1

83
Référence Internet
P2875

SPECTROSCOPIE MICROONDE ________________________________________________________________________________________________________

très simples, dépassent les prédictions de la théorie, limitée par les approxima-
tions faites pour que les calculs puissent aboutir.
La première expérience où les fréquences microondes ont été utilisées pour
étudier une molécule est réalisée par Cleeton et Williams en 1934. Ils avaient
construit des oscillateurs magnétron sur mesure pour effectuer une étude de
l’inversion du mode vibrationnel de la molécule NH3.
La spectroscopie microonde est utilisée dans le domaine de la physico-chimie
dans le but de déterminer la structure des molécules en phase de gaz avec une
grande précision. La difficulté de l’utilisation des spectres dans la détermination de
la structure géométrique d’une molécule augmente avec sa taille et sa complexité.
Les fréquences de transition de rotation pouvaient déjà être mesurées avec haute
précision à cette époque, mais les chercheurs n’étaient pas en mesure de fournir
des informations sur la structure des molécules avec une précision correspon-
dante à celle issue de l’expérience. Cette situation s’est améliorée grâce aux
progrès des méthodes numériques. À partir des années 1960, avec l’arrivée d’ordi-

3 nateurs puissants permettant de réduire les approximations, la théorie commence


à prédire des propriétés spectroscopiques avec une précision comparable à celle
que l’on peut obtenir expérimentalement.
Les améliorations apportées aux instrumentations électroniques et aux équipe-
ments à vide après 1970 permettent d’améliorer encore la technique expérimentale.
Balle et Flygare en 1979 conçoivent un spectromètre à impulsions microondes
par transformée de Fourier, FTMW (Fourier Transform Microwave Spectro-
meter). Le principe de ce type de spectromètre est d’exciter des molécules à
l’aide d’une impulsion microonde et de mesurer le signal de désexcitation
émis par celles-ci. Ensuite une transformée de Fourier du signal est effectuée
donnant lieu à un ensemble de raies qui constituent le spectre des molécules
étudiées.
L’interprétation d’un spectre à température ambiante est rendue difficile par
la superposition de raies très proches en fréquence. Si, en outre, on s’intéresse
à des systèmes où plusieurs espèces sont présentes en même temps, par
exemple des complexes moléculaires, le spectre est très dense. La mesure
d’un spectre à basses températures, de l’ordre de quelques kelvins, permet de
réduire le nombre de raies et rend donc son étude plus simple. De telles tem-
pératures sont atteintes avec la technique dite du jet supersonique, présentée
dans le paragraphe 2.2.2, qui a été couplée par Balle et Flygare en 1981 au
spectromètre à impulsions microondes.
Le spectromètre FTMW permet d’étudier une vaste gamme de molécules,
comme par exemple des molécules d’intérêt biologique, des acides aminés, des
sucres et des particules odorantes et plus récemment des composés organiques
volatils COV.
La diffusion des techniques de spectroscopie microondes n’est pas uni-
quement due aux développements techniques de l’instrumentation mais
aussi à l’augmentation d’installations de calcul qui permettent des investi-
gations théoriques approfondies avec des méthodes sophistiquées de
chimie quantique. Par exemple, le laboratoire PhLAM dispose d’un cluster
informatique doté d’une grande quantité de mémoire (jusqu’à 1536 Go). Les
méthodes de calculs quantiques se basent sur divers formalismes mathéma-
tiques dans lesquels il s’agit de résoudre l’équation de Schrödinger en
prenant en compte toutes les interactions entre les particules constituant les
systèmes étudiés. Les aspects de chimie quantique ne sont pas traités dans
cet article.
Pour les aspects de chimie quantique, les articles [AF 6 050] et [J 1 011]
peuvent être consultés.

P 2 875 – 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés

84
Référence Internet
P2875

_________________________________________________________________________________________________________ SPECTROSCOPIE MICROONDE

Principaux symboles Principaux sigles


Constantes de rotation de l’opérateur AWG Arbitrary Waveform Generator
A,B,C s–1
Hamiltonien
COV Composé Organique Volatil
d m Distance entre les deux miroirs
CP-FTMW Chirped Pulse-FTMW
E J Énergie propre de la molécule

Amplitude du champ électromagnétique FID Free Induction Decay


E0 V.m–1
associé à l’impulsion microonde
FTMW Fourier Transform MicroWave
h J.s Constante de Plank (= 6,6 × 10–34)
SIMO Spectromètre à Impulsions Microondes
I kg.m2 Moment d’inertie
TEM Transverse ElectroMagnetic
Nombre quantique associé au moment
J
angulaire

3
TWA Traveling Wave Tube Amplifier
Nombre quantique associé à la projection
k du moment cinétique selon l’axe
de symétrie de la molécule étudiée en spectroscopie d’émission et absorption et ne sera pas
traitée ici.
m kg Masse

Nombres entiers qui caractérisent le mode L’émission ou l’absorption d’un rayonnement électromagné-
m,n,q
de la cavité tique par la matière ne peut se produire que pour des fréquences
qui lui sont propres. L’ensemble des transitions observées entre
N Nombre de Fresnel
les niveaux d’énergie constitue le spectre du système étudié.
P Quantité de mouvement angulaire
Il représente en quelque sorte une empreinte digitale caractéris-
Q Coefficient de qualité
tique de l’espèce sous examen.
R m Rayon de courbure du front d’onde De façon générale, les photons des régions visible et ultraviolette
du spectre électromagnétique induisent des transitions entre les
Constante de temps de retour niveaux d’énergie électroniques d’une molécule, ceux de la lumière
T2
à l’équilibre infrarouge excitent les transitions entre les niveaux vibratoires alors
que les transitions entre les niveaux de rotation sont générées par les
w m Rayon du champ électromagnétique fréquences de la gamme 1 GHz-1 THz. Les fréquences microondes se
situent entre 1 et 30 GHz.
Repère dans la cavité (z direction
x,y,z La technique de spectroscopie d’émission consiste à stimuler un
de propagation du faisceau d’ondes)
système moléculaire dans un état excité et puis à détecter la radia-
Moment dipolaire de la molécule tion émise par le système moléculaire pendant la relaxation vers
μ D l’état fondamental [15]. À l’inverse, lorsque l’on mesure la radia-
(1D = 3,33564 × 10–30 C.m)
tion atténuée passant à travers un système moléculaire, l’on parle
v s–1 Fréquence centrale du mode de spectroscopie d’absorption [P 2 656].
L’intérêt de l’enregistrement et de la modélisation du spectre de
κ Paramètre de Ray rotation d’un système moléculaire est de conduire à l’identification
non ambiguë de sa structure. La connaissance de la géométrie
λ m Longueur d’onde
donne alors accès aux propriétés physico-chimiques du système
ω s–1 Vitesse angulaire étudié.

Pulsation de la transition entre deux états


ωo s–1 Pour les origines de la spectroscopie, consulter les références
d’énergie
[1] [2] [3] et pour les aspects concernant la chimie quantique les
références [13] [14].

1. Spectroscopie de rotation
1.1 Description classique
La spectroscopie exploite l’émission, l’absorption et la diffusion Dans cet article, les concepts théoriques essentiels à la compré-
du rayonnement électromagnétique pour l’étude d’atomes ou de hension de la technique de spectroscopie microonde [15] [16] sont
molécules. L’émission a lieu lorsqu’un atome ou une molécule présentés.
perd de l’énergie en rayonnant de la lumière. L’absorption est le Les transitions entre les niveaux d’énergie de rotation peuvent être
processus inverse. observées de façon isolée par spectroscopie rotationnelle dite pure
ou peuvent accompagner des changements des niveaux d’énergie
Dans le cas de la diffusion, le rayonnement électromagnétique vibrationnels et/ou électroniques. La spectroscopie microonde est
est dévié de sa trajectoire au moment où il interagit avec la matière. généralement concernée par les spectres de rotation pure et ceux-ci
Il s’agit d’une interaction de nature différente de celle observée et sont les seuls traités dans cet article.

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 875 – 3

85
3

86
Référence Internet
P157

Mortalités massives aigües


d’abeilles
La spectrométrie de masse comme outil
d’investigation

par Valérie BOUCHART


Responsable d’unité Santé publique
3
LABÉO, Saint Contest, France
UMR INSERM 1086 Anticipe, université de Caen-Normandie, centre François Baclesse,
Caen, France

et Margot BEGUE
Assistante de recherche
LABÉO, Saint Contest, France

1. Méthodes d’analyse chromatographiques ................................. P 157 – 2


1.1 Préparation des échantillons ............................................................. — 2
1.2 Analyse de dépistage ......................................................................... — 3
1.3 Analyse quantitative .......................................................................... — 3
2. Mise en évidence d’une MMAA liée à une intoxication .......... — 4
3. Discussion ........................................................................................ — 5
4. Conclusions et perspectives......................................................... — 6
Pour en savoir plus.................................................................................. Doc. P 157

es abeilles jouent un rôle essentiel dans l’équilibre de nos écosystèmes. La


L mortalité des abeilles est un phénomène naturel dans les ruchers puisque
chaque hiver 5 à 10 % des colonies décèdent. Cependant depuis le milieu des
années 80, des cas de surmortalité des colonies d’abeilles sont observés au
niveau mondial. Depuis 1998, le phénomène est appelé « syndrome d’effondre-
ment des colonies d’abeilles » (en anglais : « Colony Collapse Disorder » : CCD).
Il s’agit d’un phénomène complexe aux origines multiples : causes biologiques,
exposition aux produits chimiques employés dans l’environnement, alimenta-
tion, pratiques apicoles… La diversité de ces causes, pouvant intervenir de
manière isolée ou en association, est susceptible de participer à l’affaiblisse-
ment des colonies voire de provoquer une mortalité massive aigüe d’abeilles
(MMAA). Une colonie d’abeilles est considérée victime de MMAA lorsque, bru-
talement et sur une période inférieure à 15 jours, des abeilles adultes sont
retrouvées mortes ou moribondes sous forme d’un tapis devant ou dans la
ruche (volume d’abeilles touchées supérieur à un litre), et/ou lorsque la colonie
est victime de dépopulation (hors essaimage), c’est-à-dire qu’il y a disparition
d’une grande partie des abeilles adultes avec présence dans la ruche d’une
population très réduite d’abeilles avec présence de couvain, de réserves de
miel et de pollen en quantité.
Parution : avril 2022

Copyright © - Techniques de l’Ingénieur - Tous droits réservés P 157 – 1

87
Référence Internet
P157

MORTALITÉS MASSIVES AIGÜES D’ABEILLES –––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

En Normandie, les directions départementales de protection des populations


(DDPP) centralisent les déclarations et observations des MMAA des apiculteurs.
Le vétérinaire doit alors orienter les investigations, s’il s’agit d’une suspicion de
maladies classées dangers sanitaires de premières catégories comme : la loque
américaine, la nosémose, le petit coléoptère de la ruche (Aethina tumida) et
l’acarien parasite Tropilaelaps clareae, ou s’il s’agit d’une suspicion de MMAA
liée à une intoxication par des agents chimiques comme les produits phytophar-
maceutiques, les biocides ou les médicaments vétérinaires. Les cas de dépéris-
sement ou d’affaiblissement ne sont actuellement pas pris en compte dans ce
dispositif, du fait de leur caractère non aigu. Parmi ces produits potentiellement
toxiques, les recherches réalisées s’intéressent essentiellement aux pesticides
comme les composés organophosphorés, les produits organochlorés, les pyré-
thrinoı̈des et les néonicotinamides. Il est cependant intéressant de suivre
d’autres familles d’insecticides ou d’autres types de molécules pesticides,
comme les herbicides, fongicides, auxquelles les abeilles peuvent être potentiel-
lement exposées dans leur environnement. Afin de répondre à ces besoins,

3
l’objectif de cet article est donc de déterminer rapidement, après la collecte des
échantillons d’abeilles mortes, la présence de produits chimiques dans un spec-
tre suffisamment large, d’aider les autorités à prendre les mesures sanitaires
adaptées et de définir les suites à donner, en enquêtant sur l’origine de la conta-
mination. Pour cela, plusieurs analyses sont mises en œuvre au laboratoire.
Nota : cet article est issu de la revue « Annales des falsifications, de l’expertise chimique et toxicologique » éditée par la
SECF (Société des experts chimistes de France).

Le protocole développé est basé sur la méthode normalisée


1. Méthodes d’analyse « QuEChERS » soit Quick, Easy, Cheap, Efficient, Rugged and Safe
(rapide, facile, abordable, efficace, robuste et sécuritaire) [2]. Deux
chromatographiques grammes d’abeilles, correspondant à environ 20 abeilles, sont
placés dans un tube avec 10 ml d’acétonitrile de qualité « LC-MS »
(JT Baker™, Radnor, USA), 3 ml d’eau ultrapure (Milli-Q‚, Milli-
Afin d’être le plus exhaustif possible, une stratégie d’analyse a été pore, Molsheim, Allemagne) et 3 ml d’hexane de qualité « pestipur »
développée et vise à dépister la présence éventuelle de pesticides (Carlo-Erba Reagents SAS, Val de Reuil, France) afin de réaliser une
par une analyse chromatographique non ciblée en chromatographie extraction liquide-liquide (figure 2). L’ensemble est homogénéisé et
liquide couplée à un détecteur de masse à temps de vol (LC-Q-Tof : extrait à l’ultra-turrax (IKA‚-Werke, Staufen, Allemagne). Après
Liquid Chromatography Quadrupole Time-of-flight) et une confirma- centrifugation, le surnageant est transféré et agité vigoureusement
tion et quantification par une analyse ciblée en chromatographie dans des tubes contenant un mélange commercial (Agilent, Santa
liquide avec spectromètre de masse en tandem (LC-MS/MS : Liquid
Chromatography tandem Mass Spectrometry) pour une liste de
208 molécules potentiellement présentes dans l’environnement.
Dans ce cas, le recours à la chromatographie liquide oriente les
recherches vers les molécules polaires. En parallèle, une démarche
comparable est réalisée pour les molécules apolaires avec des ana-
lyses en GC/MS avec confirmation en GC/MS/MS afin d’élargir ces
recherches à un spectre large d’agents chimiques.
L’objectif est de disposer d’une méthode permettant d’extraire et
de quantifier une grande variété de résidus de pesticides et certains
métabolites dans des matrices complexes telles que les abeilles,
qui est une matrice riche en matière grasse et en pigment. Dans le
cas de l’analyse de résidus de pesticides, la qualité et la maı̂trise
des phases d’extraction et de purification sont essentielles pour
éviter les interférences et l’encrassement des chaı̂nes analytiques.

1.1 Préparation des échantillons


Lors de la survenue d’une MMAA [1], les échantillons d’abeilles
mortes collectés au niveau des ruches sont congelés et transmis au
laboratoire pour analyse. Il faut un prélèvement d’au minimum une
centaine d’abeilles (figure 1), soit environ 10 g, pour pouvoir les
broyer finement et obtenir un échantillon bien représentatif. Figure 1 – Échantillon d’abeilles mortes

P 157 – 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés

88
Innovations en analyses et mesures
(Réf. Internet 42112)

1– Analyse en biologie et en médecine

2– Analyse dans l'agroalimentaire

3– Analyse pour l'environnement et la sécurité


4
4– Analyse en matériaux et en chimie Réf. Internet page

Spectromètres RMN de paillasse pour l’analyse en ligne de réactions en flux continu J8015 91

Spectroscopie de diffusion Raman en conditions extrêmes IN164 95

RMN large bande des noyaux quadripolaires en phase solide : exemple du IN166 99
strontium-87
AFM-IR : caractérisation chimique à l’échelle nanométrique IN224 105

Caractérisation par spectroscopie infrarouge de matériaux cimentaires IN237 109

Détection d’hydrates par activation neutronique dans des pipelines sous-marins IN249 113

Avancées technologiques des sources et capteurs térahertz. Vers le transfert industriel P2145 117

Apport de la caractérisation in situ dans les procédés ALD RE263 123

Le rayonnement térahertz pour l'analyse des matériaux du patrimoine culturel RE213 127

La Joconde analysée à l'aide d'une caméra multispectrale RE140 133

Tomographie à l'aide de rayons Terahertz RE172 137

Analyse de tableaux de Léonard de Vinci par spectrométrie de fluorescence des rayons RE200 141
X
Méthodes de spectroscopie d'absorption X pour l'analyse des matériaux du RE214 145
patrimoine
Analyse non destructive des objets d'art par méthodes spectroscopiques portables RE217 151

Analyse de la perte de couleur des peintures au smalt par spectroscopie d'absorption RE211 157
X

 Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires

89
Restauration des peintures au plomb par irradiation laser RE224 161

Imagerie par spectrométrie de masse TOF-SIMS pour l’analyse de tableaux anciens RE274 165

90
Référence Internet
J8015

Spectromètres RMN de paillasse


pour l’analyse en ligne de réactions
en flux continu

par Patrick GIRAUDEAU


Professeur à l’Université de Nantes, Membre junior de l’Institut Universitaire de France
Université de Nantes, Laboratoire CEISAM, UMR CNRS 6230, Nantes, France

et François-Xavier FELPIN
Professeur à l’Université de Nantes, Membre junior de l’Institut Universitaire de France
Université de Nantes, Laboratoire CEISAM, UMR CNRS 6230, Nantes, France

4
1. Chimie en flux vs Chimie en batch.............................................. J 8 015 – 2
1.1 Définition et sémantique .................................................................... — 2
1.2 Principales différences entre flux et batch ........................................ — 2
2. Spectromètres RMN de paillasse ................................................. — 3
3. Suivi réactionnel par RMN BC 1H................................................. — 6
19
4. Suivi réactionnel par RMN BC F ............................................... — 7
5. Suivi réactionnel par RMN BC 2D................................................ — 8
6. Utilisation de RMN BC dans des réacteurs en flux
autonomes ........................................................................................ — 8
7. Conclusion........................................................................................ — 10
8. Glossaire ........................................................................................... — 13
Pour en savoir plus.................................................................................. Doc. J 8 015

C ontrairement à la biologie qui utilise massivement des techniques d’auto-


matisation depuis les années soixante-dix, la chimie de synthèse a été plus
réticente à s’ouvrir aux nouvelles technologies. Alors que la chimie de synthèse
a fortement bénéficié de l’amélioration des outils analytiques, notamment grâce
à l’apparition des spectromètres de résonance magnétique nucléaire (RMN)
dans les laboratoires de recherche dès les années soixante-dix, elle n’a que
peu bénéficié d’outils technologiques pour conduire des réactions chimiques.
Si Marcelin Berthelot (1827-1907), l’un des plus éminents chimistes français du
XIXe siècle, venait à visiter un laboratoire de recherche en chimie organique du
XXIe siècle, il s’apercevrait que, comme lui 150 ans auparavant, les chimistes
utilisent toujours de la verrerie standardisée pour conduire les réactions chimi-
ques. Cette situation s’explique par le fait que les chimistes de synthèse ont
naturellement privilégié l’étude du contenu (mélange réactionnel) que du conte-
nant (réacteur, dispositif expérimental…). Bien entendu, cette situation quelque
peu caricaturale tend à évoluer de plus en plus rapidement.
L’un des premiers tournants a été l’utilisation des synthétiseurs de pepti-
des automatiques dans les années quatre-vingt-dix suivi par l’arrivée des réac-
teurs microondes comme dispositifs de chauffage alternatif aux méthodes
Parution : juin 2019

Copyright © - Techniques de l’Ingénieur - Tous droits réservés J 8 015 – 1

91
Référence Internet
J8015

SPECTROMÈTRES RMN DE PAILLASSE POUR L’ANALYSE EN LIGNE DE RÉACTIONS EN FLUX CONTINU ––––––––––––––––––––––––––––––––––––––––––––––

traditionnelles basées sur une convection électrique. Toutefois, il a fallu atten-


dre les années 2000 pour profondément modifier les techniques de synthèse
traditionnelles avec l’apparition de la chimie en flux miniaturisée. Cette dernière
a révolutionné la façon d’appréhender la conduite de réactions chimiques,
notamment car elle permet d’atteindre des réactivités impossibles jusqu’alors
dans des conditions de sécurité accrues. Désormais, de nombreux laboratoires
académiques et industriels se sont équipés d’appareillages commerciaux.
Dans le même temps, la RMN a opéré un « retour vers le futur » spectaculaire
avec le développement et la commercialisation de spectromètres de paillasse
fonctionnant à bas champ entre 40 et 80 MHz pour le proton. Ces fréquences
de résonance étaient typiquement celles utilisées dans les années soixante-dix
mais avec des appareils ne bénéficiant pas de la miniaturisation des spectromè-
tres de paillasse modernes. Pour atteindre ce degré de miniaturisation, la phy-
sique associée à ces nouveaux dispositifs a été singulièrement modifiée par
rapport aux appareils traditionnels fonctionnant à haut champ. Ces nouveaux
spectromètres de paillasse laissent entrevoir une révolution dans divers domai-
nes des sciences chimiques et notamment pour l’analyse en temps (quasi)réel
de transformations chimiques.
Cet article traite de l’utilisation des spectromètres de paillasse (donc transpor-
table) fonctionnant à bas champ magnétique pour le suivi réactionnel de trans-

4 formations conduites dans des réacteurs en flux continu. Ce domaine de


recherche émergent a déjà conduit à des avancées spectaculaires et devrait
conduire à moyen terme à des dispositifs de synthèse embarqués ou portatifs.
Un glossaire en fin d’article regroupe les définitions importantes ou utiles à la
compréhension du texte.

1. Chimie en flux vs Chimie 1.2 Principales différences entre flux


et batch
en batch Il existe plusieurs différences majeures entre un procédé en
batch et un procédé en flux que ce soit au niveau de l’expression
de certains paramètres ou en termes de phénomènes physiques
1.1 Définition et sémantique inhérents à chacun de ces deux procédés.
Stœchiométrie. En batch, celle-ci est définie par les quantités de
La synthèse ou chimie en flux continu est le terme utilisé par les
matières de chaque réactif ajoutées dans le réacteur. En flux, la
chimistes de synthèse pour décrire le procédé par lequel des réac-
stœchiométrie est définie par la concentration des réactifs et le
tifs sont mis en commun de façon continue et circulent dans un
débit de leur écoulement respectif.
fluide pendant un temps donné. Les ingénieurs en procédés parlent
plutôt de réacteurs continus avec toutefois une classification beau- Temps de réaction. En batch, le temps de réaction est défini par
coup plus rigoureuse tenant compte également de la nature de la le temps de contact nécessaire entre les réactifs pour atteindre le
forme du réacteur, de la nature de l’écoulement et de l’agitation. taux de conversion souhaité (idéalement 100 %) en produit attendu.
Par opposition, les chimistes de synthèse décrivent la chimie en En flux, le temps de réaction est appelé temps de résidence t R puis-
batch comme le procédé par lequel des réactifs sont mis en com- qu’il est déterminé par le rapport entre le volume du réacteur et le
mun dans une enceinte et mis sous agitation pendant un temps débit du fluide circulant.
donné. De leur côté, les ingénieurs procédés parlent plutôt de réac- Rendement – Productivité. Le calcul du rendement en batch est
teur (ou cuve) fermée, tout en tenant compte également de la une étape quasiment obligatoire pour évaluer l’efficacité d’une trans-
nature de l’agitation. formation. Il est généralement calculé sur produit purifié et défini
Par ailleurs, une certaine confusion apparaı̂t lorsque les termes comme la quantité de matière obtenue sur la quantité de matière
de micro- ou milli-réacteurs sont utilisés. Ces deux termes définis- que l’on devrait obtenir dans le cas d’une transformation totale des
sent en réalité la taille des canaux dans lesquels circule le fluide. réactifs en produit. En flux, il est possible de calculer un rendement
Ainsi, il est communément admis qu’un réacteur microfluidique après avoir mis en contact une quantité de matière définie pendant
possède des diamètres de canaux compris entre 10 et 500 mm un temps donné. Toutefois, le calcul de la productivité est souvent
alors que pour des tailles supérieures, allant jusqu’à quelques mil- plus pertinent dans le cas d’un processus en continu. La productivité
limètres, on parle de réacteurs millifluidiques. exprimée comme la quantité de matière obtenue par unité de temps

J 8 015 – 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés

92
Référence Internet
J8015

–––––––––––––––––––––––––––––––––––––––––––––– SPECTROMÈTRES RMN DE PAILLASSE POUR L’ANALYSE EN LIGNE DE RÉACTIONS EN FLUX CONTINU

est définie comme le produit de la concentration de la solution en difficultés, il est possible d’immobiliser un réactif solide au sein
produit par le débit du fluide circulant. Il est possible d’exprimer la d’une cartouche [8] ou de plonger le réacteur dans un bain à ultra-
productivité en la rapportant à une unité de volume en prenant en sons [9] pour éviter la formation de particules solides. Dans tous
compte le volume du réacteur. Cette expression de la productivité les cas, une étude préalable doit être menée pour chaque transfor-
est communément appelée space-time-yield par les Anglo-Saxons. mation afin de s’affranchir ou de limiter les phénomènes de bou-
chage par des particules insolubles.
Agitation – Mélange – Transfert de matière. L’agitation d’un réac-
teur fermé est une problématique complexe. En laboratoire de recher-
che, l’agitation est souvent réalisée à l’aide d’un barreau magnétique
recouvert de téflon, de taille et forme adaptées au réacteur utilisé.
L’agitation est souvent une des sources majeures (souvent sous-esti- 2. Spectromètres RMN
mée) de non-reproductibilité d’une transformation. Le régime turbu-
lent de ce type d’agitation conduit à des gradients de concentration de paillasse
(et de chaleur) au sein de l’enceinte réactionnelle. Le transfert de
matière en flux peut-être bien plus efficace grâce à l’emploi de mélan-
geurs ou de réacteurs au design varié [IN 94].
La nature non invasive de la détection RMN est un atout considé-
Transfert de chaleur. Dans le cas d’une convection électrique tra- rable pour le suivi de réactions en ligne en comparaison de la chro-
ditionnelle, le transfert de chaleur au milieu réactionnel est assuré matographie liquide ou gazeuse, notamment pour la détection de
par les parois du réacteur. Un réacteur en flux possède un ratio composés hautement réactifs susceptibles de réagir avec la phase
entre la surface de contact et le volume bien plus élevé qu’un réac- immobilisée des colonnes chromatographiques. La spectroscopie
teur en batch à taille équivalente. Pour s’en convaincre, il suffit de RMN est utilisée depuis de nombreuses années pour le suivi en
comparer la surface de contact entre un ballon en verre communé- ligne de réactions chimiques, grâce à sa capacité à fournir de pré-
ment utilisé dans les laboratoires de recherche pour les réactions cieuses informations structurales ainsi que des données quantitati-
en batch avec un simple réacteur tubulaire du même volume. ves justes et précises. La RMN à haut champ (HC) a longtemps
L’amélioration du transfert de chaleur en flux se traduit bien sou-
vent par des cinétiques réactionnelles (lorsque celles-ci sont dépen-
dantes d’une activation thermique) considérablement améliorée.
constitué l’outil privilégié, via l’utilisation de sondes RMN dédiées
à l’analyse en flux [10] ou plus récemment grâce au développement
de tubes en flux compatibles avec une configuration RMN de rou-
4
Inversement, les réactions exothermiques sont mieux contrôlées tine [11]. Attention, il s’agit ici de l’analyse qui est en flux et non la
car la dissipation de la chaleur par les parois du réacteur en flux réaction, par prélèvement du milieu réactionnel agité en cuve fer-
est favorisée par rapport à un réacteur en batch. mée. Bien que la RMN HC bénéficie d’une sensibilité et d’une réso-
lution relativement élevées, les spectromètres HC sont difficilement
Exemple compatibles avec la chimie en flux. En effet, ces équipements lourds
Il est possible de comparer la surface de contact entre un réacteur et coûteux sont généralement installés dans des laboratoires dédiés
fermé et un réacteur tubulaire en flux contenant le même volume de et pilotés par un personnel spécialisé. À l’inverse, la RMN à bas
solvant. La surface de contact d’un réacteur fermé en verre de forme champ (BC), basée sur l’utilisation de petits aimants permanents,
cylindrique de rayon r rempli à moitié de solvant équivaut à S = 2pr 2. permet de contourner ces inconvénients grâce à une taille réduite
Pour ce qui est d’un réacteur en flux tubulaire, la surface de contact qui rend les instruments de mesure compatibles avec un environne-
correspond à l’aire de la surface courbe de rayon r et de longueur L ment de synthèse organique (utilisation sous hotte standard).
exprimée par S = 2prL. Dans le cas d’un volume utile de 2,5 mL, le Pendant plusieurs dizaines d’années, la RMN à bas champ a été
réacteur cylindrique possède des cotes standardisées avec un rayon limitée à la relaxométrie, utilisant des aimants permanents à bas
d’environ r = 1,6 cm. La surface de la demi-sphère est donc de champ (0,5 T) dont l’homogénéité n’est pas suffisante pour acqué-
16 cm2. Pour ce qui est d’un réacteur tubulaire, la surface dépend du rir des spectres RMN avec une résolution acceptable. Dans le cas
diamètre interne. Afin de calculer une surface moyenne, un rayon de de la relaxométrie, l’information pertinente consiste en une distri-
0,25 mm est utilisé pour le calcul. Dans ce cas, la longueur du tube est bution des temps de relaxation obtenue par déconvolution du
de L = 13,5 m pour obtenir un volume de 2,5 mL. La surface calculée signal de précession libre FID (Free Induction Decay). Bien que
est donc dans ce cas de 212 cm2, c’est-à-dire 13 fois supérieure à la cette approche ait été utilisée pour le suivi de réactions chimiques
surface calculée pour le ballon en verre. Ce calcul n’est qu’une gros- en temps quasi-réel [12] [13], elle apparaı̂t limitée à certaines clas-
sière approximation car dans le cas d’un mélange réactionnel de ses de réactions où les réactifs et les produits sont caractérisés par
250 mL par exemple, la taille du réacteur fermé est de l’ordre de des régimes de relaxation significativement différents.
500 mL alors que le même réacteur tubulaire de 2,5 mL peut tout à
fait être utilisé dans un procédé en flux continu. Dans ce cas, la sur- Plus récemment (dans les années 2010), une nouvelle génération
face de surface de contact du réacteur en flux pour 250 mL de volume de spectromètres RMN à bas champ est apparue comme une alter-
réactionnel est 130 fois supérieure à celle du réacteur fermé. native prometteuse. Ces spectromètres RMN dits « de paillasse »
(benchtop) sont également basés sur des aimants permanents,
mais dont l’homogénéité est devenue suffisante pour réaliser
Pression. Lorsque l’écoulement au sein d’un réacteur micro- et l’acquisition de spectres RMN classiques avec une résolution
milli-fluidique est assuré par des pompes issues ou dérivées de acceptable [14]. Depuis 2015, les spectromètres RMN de paillasse
systèmes HPLC, il est possible de travailler à des pressions allant ont ouvert de nouveaux marchés pour la RMN, rendant cette der-
jusqu’à plusieurs centaines de bar en toute sécurité grâce à l’utili- nière accessible à des environnements exigeants comme les sites
sation d’un régulateur de pression. De telles pressions ne sont de production ou les laboratoires de synthèse organique. Ces équi-
atteignables en batch qu’à l’aide d’autoclaves dans des conditions pements compacts, disponibles commercialement auprès de plu-
d’utilisation et de sécurité bien plus complexes. La possibilité de sieurs fournisseurs, ont l’avantage d’un coût raisonnable (de 50 à
pouvoir travailler sous hautes pressions et hautes températures 100 k€, contre plusieurs millions d’euros pour les spectromètres à
dans des conditions de sécurité optimales, a permis de développer très haut champ) et d’un coût de fonctionnement quasi négligeable.
des procédés en conditions supercritiques [1] [2] [3] [4] [5] [6] [7]. Les spectromètres de paillasse ne nécessitent pas de fluides cryo-
Dans ces conditions, les propriétés des solvants et des réactifs géniques, étant construits à partir d’aimants permanents constitués
sont profondément modifiés. d’alliages de terres rares. Les équipements commerciaux actuels
Réaction avec des solides. L’une des limitations des réacteurs en utilisent des champs magnétiques entre 1 et 2 T, correspondant à
flux concerne l’utilisation de réactifs solides ou la formation de sels une fréquence de résonance 1H entre 40 et 80 MHz.
ou de précipités au cours de la réaction qui peuvent boucher les Les spectromètres RMN de paillasse ont ouvert la voie à de nou-
canaux de faibles diamètres internes. Pour remédier à ces velles applications de la RMN dans les domaines du suivi

Copyright © - Techniques de l’Ingénieur - Tous droits réservés J 8 015 – 3

93
4

94
Référence Internet
IN164

INNOVATION

Spectroscopie de diffusion Raman


en conditions extrêmes

par Aurélien CANIZARES


Ingénieur en développements spectroscopiques
Laboratoire CEMHTI (Conditions extrêmes et matériaux : haute température et irra-
diation), UPR3079 CNRS
Patrick SIMON
Directeur de recherche
Laboratoire CEMHTI UPR3079 CNRS 4
et Guillaume GUIMBRETIERE
Chargé de recherche
Laboratoire CEMHTI UPR3079 CNRS

Résumé : Cet article, dédié à la spectroscopie de diffusion Raman appliquée aux


conditions extrêmes, présente, en complément d’autres articles de notre collection, un
état de l’art de l’instrumentation et de la méthodologie Raman via le détail des
dernières évolutions technologiques ainsi que les difficultés rencontrées liées aux
conditions extrêmes. Il montre ensuite des exemples d’applications aux milieux hostiles
(relaxation structurale de la silice pendant le recuit, suivi in situ de l’altération du
dioxyde d’uranium sous radiolyse).

Abstract : This article, dedicated to Raman scattering spectroscopy applied to the


extreme conditions, presents, as a supplement to other articles of the Techniques de
l’Ingénieur revue, a state of the art of the Raman instrumentation and methodology
through detailing the last technological evolutions as well as the special difficulties
linked to the extreme environment working conditions. It then shows examples of
applications in hostile conditions (structural relaxation of the silica during annealing, in
situ monitoring of surface alteration of uranium dioxide under radiolysis).

Mots-clés : Raman, nucléaire, haute température, innovations technologiques,


conditions extrêmes

Keywords : Raman, nuclear energy, high temperatures, technological innovations,


extreme conditions

Points clés
Domaine : techniques d’analyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Spectroscopie de diffusion Raman, accélérateur de
particules, cyclotron
Domaines d’application : matériaux, nucléaire, géologie, hautes températures
Principaux acteurs français :
Industriels : Renishaw, Horiba Jobin Yvon, Andor Technology, Bruker Corp.,
Jasco, Thermo Scientific, BW Tech, BaySpec, Kaiser Optical System
Parution : septembre 2013

Autres acteurs dans le monde :


Contact : canizares@cnrs-orleans.fr

9 - 2013 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 164 - 1

95
Référence Internet
IN164

INNOVATION

1. Contexte

Intensité Raman (u · arb.)


1,0
La recherche de nouveaux matériaux a toujours été au cœur Cristobalite
de l’activité de l’homme. Dans un premier temps destinée à
Cœsite
satisfaire ses besoins primaires, la maîtrise de nouveaux
matériaux a permis de concevoir des outils de plus en plus 0,8 Quartz
complexes, jusqu’à servir de support à la révolution indus- Stishovite
trielle au XIXe siècle, et aux révolutions technologiques Tridymite
(microélectronique...) du XXe siècle. 0,6
Silice
Un matériau, qu’il soit naturel ou élaboré par l’homme, est
sélectionné pour ses propriétés afin d’entrer dans la
conception d’objets plus ou moins complexes. Que l’on s’inté- 0,4
resse à ses caractéristiques mécaniques, thermiques, élec-
triques, magnétiques, optiques, ou chimiques, la connaissance
de la structure atomique du matériau est la clef de la 0,2
compréhension de ses propriétés macroscopiques.
L’utilisation de méthodes de caractérisations complémentaires

4 permet de remonter à l’organisation atomique d’un matériau,


afin de pouvoir relier propriétés macroscopiques et organisation
microscopique. De nombreuses techniques donnent accès à des
0,0

200 300 400 500 600


informations structurales soit locales, comme les spectroscopies Nombre d’ondes (cm–1)
RMN, soit plus globales comme la diffusion des rayons X et des
neutrons, ou encore les spectroscopies vibrationnelles (Brillouin, Figure 1 – Exemples de spectres Raman
infrarouge ou Raman).
La connaissance de l’évolution des propriétés des matériaux
en conditions d’usage permet de prévoir leur évolution dans le spectres de matériaux de compositions identiques (SiO2) mais
temps, notamment lorsqu’ils sont exposés à des environ- de structures différentes. Les modes du spectre de silice, en
nements sévères. Afin d’assurer une sécurité de fonction- noir, sont larges, caractéristiques d’une structure
nement de systèmes – qui peut être cruciale dans certains cas désordonnée : celle d’un verre. Les autres spectres repré-
(réacteurs nucléaires, procédés chimiques...) – ou de garantir sentent les polymorphes du cristal de SiO2 . Les modes sont
une qualité de fabrication optimale d’un produit (cimenteries, plus fins, caractéristiques d’une structure ordonnée.
industrie verrière, aciéries, barrières thermiques ou radiopro-
tection), il est indispensable de prévoir le comportement des En résumé, la position du pic Raman renseigne sur
matériaux lorsqu’ils sont soumis à des conditions hostiles, telles l’espèce chimique mise en jeu dans la liaison sondée sa
que température ou irradiation dans les exemples précédents. largeur caractérise l’ordre structural. Un déplacement du
La spectroscopie de diffusion Raman, méthode optique basée pic renseigne sur l’état de contrainte du matériau et sur sa
sur l’interaction lumière/matière, est particulièrement bien température.
adaptée au suivi des propriétés de matériaux en conditions
extrêmes. L’utilisation de lumière visible (ou proche du visible)
offre en effet l’avantage de pouvoir déporter la sonde d’excita- Cette technique a connu un essor lié aux innovations technolo-
tion/collection via un jeu de fibres optiques, et ainsi de ne lais- giques qui ont permis de rendre la technique plus largement
ser en zone hostile que le minimum de composants optiques, et applicable. Dans un premier temps, l’excitation a été révolution-
de réaliser l’analyse du signal collecté en zone « sûre » (loin des née par le LASER : cohérence, monochromaticité, directionnalité
conditions extrêmes, stabilisée thermiquement). De plus, l’ana- et intensité. Vint ensuite l’analyse multicanale, qui a fortement
lyse est non destructive, et les mesures se réalisent sans réduit le temps de mesure grâce à l’acquisition simultanée de la
contact : il est ainsi possible de maintenir la sonde Raman éloi- gamme spectrale sur le millier de pixels d’un détecteur multica-
gnée de l’échantillon (de quelques dixièmes de millimètres à nal (barrettes de photodiodes dans un premier temps, puis
quelques dizaines de mètres), atténuant les effets de tempéra- aujourd’hui caméras CCD). Ensuite, la microspectroscopie
ture ou de rayonnements ionisants. Raman a donné accès à l’analyse cartographique d’échantillons
avec une résolution spatiale inférieure au micromètre, grâce aux
objectifs microscopiques à forte ouverture numérique, au filtrage
2. Instrumentation Raman : confocal et aux platines de déplacement micrométriques. Des
technologies ont permis d’améliorer la fiabilité, la qualité et la
un état de l’art rapidité d’acquisition des cartographies : citons la technologie de
synchronisation du déplacement du réseau et de la lecture CCD
pour obtenir un spectre large bande haute résolution ou encore
La spectroscopie de diffusion Raman est présentée en
les méthodes de type « superpixel », développées par les princi-
détail dans l’article Spectroscopie Raman [P 2 865]. Cette
paux constructeurs de spectromètres.
technique expérimentale repose sur la diffusion inélas-
tique de la lumière par les liaisons interatomiques (vibra- Nota : CCD pour Charge-Coupled Device.
teur isolé dans les molécules, phonons dans les solides).
Elle permet de connaître la composition de la matière
ainsi que sa structure (et sa dynamique) Nous allons détailler les configurations d’études non
conventionnelles, permettant d’accéder aux bas nombres
La figure 1 présente six spectres illustrant les informations d’ondes et d’étudier les matériaux en conditions
accessibles par la méthode de caractérisation. Ce sont les extrêmes.

IN 164 - 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 9 - 2013

96
Référence Internet
IN164

INNOVATION

Unités
Lumière
collectée
Un spectre Raman est la représentation d’une intensité
diffusée en fonction de l’énergie des photons.

Monochromateur
Les ordonnées s’expriment en nombre de coups détec-
tés par le pixel du CCD correspondant à l’énergie
concernée (qui est en réalité un gamme d’énergie). On
utilise souvent une unité arbitraire, dont l’abréviation
peut-être confondue avec d’autres unités (unités
atomiques). On préférera l’abréviation u.arb.
En spectroscopie vibrationnelle, les abscisses
s’expriment en nombres d’ondes (n.o), en cm–1. D’autres
spectroscopies utilisent des unités comme le nanomètre
(optique visible), le GHz (Brillouin), l’eV (spectroscopies Figure 2 – Schéma d’un prémonochromateur
électroniques).
Rappelons les équivalences suivantes :
1 eV = 8 065 cm–1 = 242 THz
1 cm–1 = 30 GHz = 1,24 × 10–4 eV
d’atteindre une limite bas nombres d’ondes inférieure à
10 cm–1, tout en conservant l’accès aux spectres Stokes et
antiStokes. Leur prix est aujourd’hui élevé, 10 à 20 fois
4
Notons que fréquences et nombres d’ondes sont des supérieur à celui des filtres précédents.
grandeurs couramment utilisées.
2.1.2 Étages multiples
Il est également possible d’accéder aux bas nombres
2.1 Accès aux très bas nombres d’ondes d’ondes en utilisant un spectromètre à étages multiples
(figure 2), le plus souvent triple monochromateur [1]. Le
Les bas nombres d’ondes désignent la gamme spectrale dernier « étage » (monochromateur) est utilisé pour la dis-
inférieure à 150 cm–1 dont l’obtention est complexe en persion du signal collecté, alors que les deux premiers jouent
raison de la diffusion élastique Rayleigh (et de la réflexion le rôle d’un filtre extrêmement sélectif (la limite bas nombres
à la surface de l’échantillon en configuration de rétrodiffusion) d’ondes du spectre Raman peut atteindre les 1,5 cm–1) fonc-
et dont l’intensité dépasse de plusieurs ordres de grandeur tionnant pour toutes les longueurs d’ondes.
celle du signal Raman. Pourtant, cette gamme spectrale peut
présenter un grand intérêt, par exemple dans l’étude des Le premier monochromateur disperse la lumière analysée,
verres (pic de Boson) et dans le cas de mesure de tempéra- c’est-à-dire étale spatialement les différentes composantes
ture par méthode Stokes/antiStokes. spectrales du signal collecté depuis l’échantillon. Une fente
sélectionne physiquement les longueurs d’onde d’intérêt, en
2.1.1 Filtres empêchant le signal de diffusion élastique de pénétrer dans le
second étage de dispersion (faisceaux violets sur le schéma).
Les spectromètres commerciaux les plus courants utilisent Ce deuxième monochromateur a pour rôle de « remélanger »
un filtre interférentiel (type Edge ou Notch) pour éliminer la le faisceau (tronqué de la composante élastique) au moyen
diffusion élastique de Rayleigh. d’un réseau monté en opposition. L’ensemble de ces deux
Les filtres holographiques Notch sont obtenus par un monochromateurs constitue le « prémonochromateur »
processus d’impression photographique : un milieu photosen- soustractif du système à étages multiples. Le cas des
sible est exposé à deux sources cohérentes qui vont interférer systèmes à étages multiples où les dispersions s’ajoutent
et ainsi créer une distribution périodique de l’indice de réfra- (systèmes additifs), dont l’intérêt est d’obtenir une résolution
ction. Cette couche photo-imprimée est ensuite protégée entre spectrale maximale, n’est pas abordé ici.
deux lames minces. Ces filtres sont de type coupe-bande : ils La gamme du spectre à filtrer est sélectionnée en modifiant
permettent d’obtenir les modes Stokes et antiStokes (ces la position des réseaux. Il est ainsi possible de mesurer les
derniers sont principalement utilisés pour la mesure de la raies Stokes et antiStokes (figure 3).
température). Les filtres Notch permettent de descendre à
Ce dispositif permet l’accès aux très bas nombres d’ondes
relativement bas nombres d’ondes (80-120 cm–1), mais ont
pour toutes les longueurs d’ondes d’excitation. Cependant, le
une durée de vie limitée.
passage par deux monochromateurs diminue fortement la
La technologie Edge, également basée sur les inter- luminosité du système et par conséquent l’intensité du signal
férences, est désormais la plus répandue. Les filtres Edge sont Raman. Par ailleurs, le réglage et la stabilité du système, plus
constitués de couches minces obtenues par une pulvérisation complexes qu’un simple filtre interférentiel, réservent ce
par faisceau d’ions (IBS) qui vont, grâce aux interférences, système aux spectroscopistes Raman avertis et à une utili-
atténuer la raie Rayleigh (densité optique = 6), et transmettre sation en laboratoire.
90 % du signal Stokes (uniquement). Ce sont des filtres
passe-bas. Le front de montée et les taux de réjection sont
aujourd’hui comparables aux filtres holographiques Notch. De 2.2 Hautes températures
plus, ils offrent une très bonne résistance mécanique (bonne L’étude des propriétés des matériaux à haute température
durée de vie, seuil de dommage élevé). requiert des développements instrumentaux originaux, notam-
L’apparition récente de filtres coupe-bande très efficaces ment en raison de l’émission thermique de l’échantillon dans
(Ondax SureBlockTM) permet d’avoir accès aux très bas le visible lorsqu’il est chauffé à plus de 1 000 oC. Nous verrons
nombres d’ondes. Leur fabrication repose sur la technologie quelles sont les techniques qui permettent d’acquérir un
du filtre holographique réflectif en volume. Ils permettent spectre Raman à très haute température.

9 - 2013 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 164 - 3

97
Référence Internet
IN164

INNOVATION

Luminance spectrale (u · arb.)


Rayleigh 1,0
500 K

Stokes 1000 K
0,8
AntiStokes 1200 K
1400 K
0,6
1800 K
ν0 - νvib ν0 ν0 + νvib 2200 K
0,4
a spectre 2600 K
3000 K
0,2

Stokes
0,0

0 5 000 10 000 15 000 20 000 25 000

4 ν0 - νvib ν0 ν0 + νvib
Figure 4 – Luminance spectrale du corps noir à différentes
Nombre d’ondes (cm–1)

b spectre filtré pour mesure de la raie Stockes températures

AntiStokes
105

104
ν0 - νvib ν0 ν0 + νvib
L(T)/L(1 000 °C)

c spectre filtré pour mesure de raie AntiStockes


103
ν fréquence

102
Figure 3 – Filtrage de la raie Rayleigh au niveau de la fente
intermédiaire du prémonochromateur

101
2.2.1 Difficultés
L’émission thermique est la lumière émise par un échantillon
100
dont la température est supérieure au zéro absolu. A tempé-
1 000 1 200 1 400 1 600 1 800 2 000 2 200 2 400
rature ambiante, les radiations sont uniquement émises dans
le domaine spectral de l’infrarouge, donc ne gênent pas dans Température (°C)
la gamme spectrale d’intérêt en spectroscopie Raman. Mais
lorsque la température du matériau augmente, le maximum Figure 5 – Luminance spectrale en fonction de la température
à 532 nm [2]
d’émission se décale vers le rayonnement visible (loi de dépla-
cement de Wien).
Gardons en mémoire que l’intensité de la diffusion Raman avec C1 = 1,191 × 10–16 W · m–2,
est trop faible pour être visible à l’œil nu. Or nous avons tous C2 = 1,439 m · K,
vu un corps émettre dans le visible, du fer porté au rouge au
filament d’ampoule chauffé à blanc qui nous éclaire. Nous σ nombre d’ondes,
comprenons alors que le signal d’émission thermique de T température absolue.
l’échantillon, qui se superpose au signal Raman, va dans un La luminance spectrale d’un corps réel est reliée à celle du
premier temps (gamme 600 à 1 000 oC) détériorer le rapport corps noir par son émissivité :
signal sur bruit du spectre, puis à plus haute température va
complètement masquer le signal Raman. L (σ , T ,θ )
ε (σ , T ,θ ) =
Un corps noir idéal absorbe toute la radiation incidente. Sa L0 (σ , T )
luminance spectrale, représentée sur la figure 4, est donnée La figure 5 [2] représente l’évolution de l’intensité de la
par la loi de Planck : luminance spectrale du corps noir en fonction de sa tempé-
rature, L (T ), normalisée par rapport à la luminance spectrale
C1σ 3 à 1 000 oC, L (1 000 oC) (à 532 nm).
L0 (σ ,T ) =
C σ  On peut retenir que la luminance du corps noir augmente
exp  2  − 1 approximativement d’un facteur 10 tous les 200 oC dans notre
 T  gamme d’intérêt.

IN 164 - 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 9 - 2013

98
Référence Internet
IN166

INNOVATION

RMN large bande des noyaux


quadripolaires en phase solide :
exemple de strontium-87

par Danielle LAURENCIN

4
Chargée de recherches CNRS
Docteur en chimie de l’université Pierre et Marie Curie (Paris)
Institut Charles Gerhardt de Montpellier, UMR 5253, France
et Christian BONHOMME
Professeur
Ingénieur ENSCP
Docteur en chimie de l’université Pierre et Marie Curie (Paris)
Laboratoire de chimie de la matière condensée de Paris, UMR 7574, France

Résumé : La RMN en phase solide des noyaux quadripolaires (I > 1/2) se distingue
de la RMN des spins 1/2 du fait de l’interaction quadripolaire. Celle-ci peut être très
intense, entraînant un élargissement considérable des raies de résonance. Cet article
passe en revue les propriétés des noyaux quadripolaires et les principales séquences
d’impulsions dédiées à leur étude. Il insistera plus particulièrement sur les derniers
développements en RMN en mode statique (excitation et acquisition large bande),
conduisant à des gains en sensibilité très importants, et montrera comment appliquer
ces nouvelles méthodologies à l’étude du 87Sr (I = 9/2).

Abstract : Solid state NMR of quadrupolar nuclei (I > 1/2) differs from NMR of spin 1/2
nuclei due to the quadrupolar interaction, which can be very strong and lead to a significant
broadening of resonances. This article give an overview of the properties of quadrupolar
nuclei and the main pulse sequences dedicated to their study. It will insist more specifically
on the latest developments of NMR experiments in static mode (broadband excitation and
acquisition), which lead to a significant gain in sensitivity. It then illustrates how to apply
these new methodologies in the specific case of 87Sr (I = 9/2).

Mots-clés : résonance magnétique nucléaire, solide, quadripolaire, haute résolution,


matériaux, très large bande, strontium

Keywords : nuclear magnetic resonance, solid, quadrupolar, high resolution,


materials, ultra wide line, strontium
Parution : mai 2014

5 - 2014 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 166 - 1

99
Référence Internet
IN166

INNOVATION

Points clés
Domaine : technique d’analyse structurale
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : résonance magnétique nucléaire (RMN), calculs
théoriques par la fonctionnelle de la densité (DFT)
Domaines d’application : chimie des matériaux
Principaux acteurs français :
Pôles de compétitivité : CEMHTI (Orléans), ENS (Paris), CRMN/ENS Lyon (Lyon),
LCMCP (Paris), UCCS (Lille), ENSICAEN (Caen), IRAMIS/CEA (Saclay), ISCR
(Rennes), Tectospin-ILV (Versailles), ICMMO (Orsay), ICPME (Créteil), IECB
(Bordeaux), ISM2 (Marseille), ICGM (Montpellier), CEA/INAC (Grenoble), IMN
(Nantes), CRM2 (Nancy)
Centres de compétence : réseau TGIR-RMN (http://www.tgir-rmn.org/)
Industriels : Bruker France

4
Autres acteurs dans le monde :
Acteurs industriels : Bruker, Agilent, Jeol
Pour une liste (non exhaustive) d’acteurs académiques dans ce domaine,
consulter également http://www.rockychem.com/links/whos-who-in-ssnmr.html
Contact : danielle.laurencin@univ-montp2.fr, christian.bonhomme@upmc.fr

1. Contexte utilisées couramment dans les laboratoires. Dans une seconde


partie, nous insisterons sur les spécificités de la RMN des
noyaux quadripolaires : noyaux quadripolaires « faibles » et
La résonance magnétique nucléaire (RMN) en phase solide
« forts », effet quadripolaire au second ordre, haute résolu-
connaît actuellement des développements instrumentaux et
tion, excitation large bande en mode statique. Dans une troi-
méthodologiques remarquables. Ceux-ci concernent, entre
sième partie, nous illustrerons les avantages de cette dernière
autres, l’utilisation de champs externes B0 de plus en plus
technique dans le cadre de la RMN du 87Sr (I = 9/2) en foca-
intenses (B0 = 23,5 T, fréquence de Larmor associée au
lisant le discours sur l’étude d’un composé de référence enri-
proton : ~ 1 GHz), l’augmentation de sensibilité sur plusieurs
chi en 87Sr, le malonate de strontium [SrCH2(COO)2]. Les
ordres de grandeur et la mise en œuvre de nouvelles
spécificités du 87Sr y seront présentées. Enfin, dans la der-
méthodes d’acquisition du signal RMN.
nière partie, différentes applications de la RMN du 87Sr à
Les noyaux quadripolaires (à savoir ceux à spin nucléaire l’étude de matériaux seront exposées.
I > 1/2, avec I entier ou demi-entier) constituent environ
75 % des noyaux magnétiquement actifs du tableau pério- Nota : un tableau des symboles est présenté en fin d’article.
dique. Citons pour exemples 2H (I = 1), 14N (I = 1),
23Na (I = 3/2), 27Al (I = 5/2), 10B (I = 3), 51V (I = 7/2),
93Nb (I = 9/2), 87Sr (I = 9/2)... Leur étude par RMN est donc
2. Principe de la RMN en phase solide
particulièrement importante en chimie, biochimie et science
des matériaux. De manière générale, ces noyaux ne sont pas La RMN est une technique d’analyse structurale non
seulement soumis aux interactions de déplacement chimique destructive, fondée sur la propriété de spin nucléaire (I) de
et dipolaires, mais également à l’interaction quadripolaire. certains noyaux. La notion de spin nucléaire est de nature
Cette interaction implique le couplage du moment quadripo- purement quantique et se traite mathématiquement de
laire du noyau, Q, avec le gradient de champ électrique local manière rigoureuse dans le cadre de la mécanique
(ou EFG, Electric Field Gradient). L’amplitude de l’interaction quantique [1] [2]. Il est ainsi démontré que I ne peut prendre
quadripolaire peut être très intense et atteindre plusieurs que des valeurs entières (0, 1...) ou demi-entières (3/2,
MHz ! Elle dépasse de plusieurs ordres de grandeur les gam- 5/2...). La RMN n’est possible que lorsque I ≠ 0. Les propriétés
mes classiques de déplacements chimiques. Il en résulte des de quelques noyaux d’intérêt pour notre exposé sont présen-
difficultés non négligeables lors de l’enregistrement des tées dans le tableau 1. On peut démontrer qu’il est possible
spectres, particulièrement en phase solide. d’associer au spin nucléaire un moment magnétique qui lui est
Cet article présente quelques-uns des tous derniers proportionnel (on parle alors de « magnétisme nucléaire ») :
développements en RMN en phase solide dédiés à l’étude des
noyaux quadripolaires dans le domaine de la détection large µ = γ h/2π I (1)
bande. Ces développements ont en effet permis de repousser
les limites de détection et d’envisager l’étude de noyaux parti- où l correspond au moment angulaire de spin, γ correspond au
culièrement difficiles du point de vue de la RMN. rapport gyromagnétique du noyau considéré et h correspond à
Dans une première partie, nous présenterons brièvement la constante de Planck, avec h = 6,64 × 10–34 J · s. L’unité de γ
l’expérience RMN et nous décrirons les spécificités de la RMN est le rad · s–1 · T–1 ; γ est donc homogène à une vitesse angu-
en phase solide : anisotropie des interactions, formes de raie laire (pulsation) par unité de champ magnétique. La RMN
caractéristiques, principales expériences en RMN du solide, repose sur l’interaction entre un spin nucléaire (ou, plus

IN 166 - 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 5 - 2014

100
Référence Internet
IN166

INNOVATION

généralement, une collection de spins dans le cas de la matière Cette fréquence dépend explicitement du noyau (via γ ) et
condensée : solutions, solides ou gaz sous pression) et un du champ magnétique extérieur B0 . La grandeur γ peut être
champ magnétique extérieur qui sera noté B0 . Dans le cadre de positive ou négative. Nous choisissons de définir ν0 comme
la mécanique quantique [1] [2], cette interaction peut être une grandeur positive, ce qui justifie l’utilisation d’une valeur
absolue dans l’équation (5). Dans le tableau 1 sont réperto-
représentée par un hamiltonien Ĥz , que l’on nommera riées quelques fréquences de Larmor. L’ordre de grandeur
« hamiltonien Zeeman » par la suite : sera retenu : de quelques dizaines à quelques centaines de
MHz.
ˆ = − γ h/2 π B ˆ
H I (2)
z 0 z Lorsque B0 = 0 T (soit en absence de champ magnétique
externe et en négligeant toute influence du champ terrestre,
où Îz correspond à la composante de l’opérateur Î , parallèle
~ 50 µT), toutes les énergies Em sont égales (on parle alors
au champ magnétique B0 . La signification de l’hamiltonien est I

entièrement décrite dans l’ouvrage de Cohen-Tannoudji de « dégénérescence des niveaux mI »). En présence de
et coll. [2]. B0 ≠ 0 T (de 7 à 24 T pour la plupart des spectromètres
modernes), il y a levée de dégénérescence des niveaux
D’après les principes de la mécanique quantique, le nombre
quantique de spin I (≠ 0) est associé à un second nombre d’énergie Em . Prenons l’exemple d’un noyau possédant un
I
quantique (entier ou demi-entier), mI , tel que mI = – I, spin nucléaire I = 1/2, d’où mI = ± 1/2 (voir figure 1a, pour
– I + 1, ..., I – 1, I. D’un point de vue énergétique, chaque
niveau mI est associé à une énergie que l’on notera Em :
I
γ > 0). Pour B0 ≠ 0 T, l’écart d’énergie présent entre les deux
niveaux d’énergie est donné par l’équation (4). Cette 4
différence d’énergie conduit à une différence de peuplement
Em = − mI γ h/2 π B0 (3) des différents niveaux. En notant N+1/2 et N–1/2 les
I
populations respectives de ces niveaux et en utilisant la
D’un point de vue mathématique, les énergies définies dans statistique de Boltzmann, nous avons :
l’équation (3) correspondent aux valeurs propres de l’hamilto-
nien Zeeman, défini ci-dessus. Lors d’une expérience de RMN,
des transitions spectroscopiques entre niveaux d’énergie vont N –1 /2  ∆E   −γ ℏB 
0
= exp  −  = exp   (6)
être mesurées. Les transitions RMN dites « permises » N +1 /2  kT   kT 
correspondent à ∆mI = ± 1. L’écart d’énergie présent entre
deux niveaux d’énergie successifs étant donné par :
où k représente la constante de Boltzmann
∆E = γ h/2 π B0 (4)
h
(k = 1,38 × 10–23 J· K–1), T la température (en K) et ℏ =
.
Il en résulte immédiatement l’expression suivante pour la 2π
fréquence ν0 associée à la transition entre deux niveaux À température ambiante (T = 293 K), et compte tenu de la
d’énergie, dite « fréquence de Larmor » : très faible valeur de ∆E, il est facile de calculer une bonne
approximation de la différence de population n :
γ B0
ν0 = (5) ∆E
2π n = N +1 /2 − N −1/2 ∼ (7)
2 kT

Tableau 1 – Exemples de noyaux actifs en RMN

γ Q ␯0
AN
Noyau I (B0 = 19,96 T)
(%) (107 rad · s–1 · T–1) (10–28 m2)
(MHz)
1H 1/2 99,98 26,75 – 850,13
19F 1/2 100 25,18 – 799,92
31P 1/2 100 10,84 – 344,14
29Si 1/2 4,68 – 5,32 – 168,90
93Nb 9/2 100 6,57 – 0,32 208,32
17O 5/2 0,037 – 3,63 – 2,6 × 10–2 115,25
133Cs 7/2 100 3,53 – 3 × 10–3 111,50
87Sr 9/2 7,02 – 1,16 0,305 36,84
I : nombre quantique de spin.
AN : abondance naturelle.
γ : rapport gyromagnétique (peut être négatif).
Q : moment quadripolaire (peut être négatif).
ν0 : fréquence de Larmor, donnée en valeur absolue.
Nota : les noyaux de forte AN et de γ élevé (en valeur absolue) seront dits « sensibles » en RMN. Ce sera le contraire pour les noyaux de faible AN
et de γ peu élevé (en valeur absolue). Ainsi, le 87Sr sera particulièrement peu sensible en RMN.

5 - 2014 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 166 - 3

101
Référence Internet
IN166

INNOVATION

^
^ ^ HQ(2)
HZ HQ(1)
mI = – 3/2

^
H ^
Z HA MQ
mI = – 1/2
mI = -1/2

ν0 ν0 + ∆A mI = ± 1/2, ± 3/2
mI = ±1/2 SQ
(B0 = 0 T)
(B0 = 0 T)
mI = + 1/2
mI = + 1/2

mI = + 3/2

4 En absence de champ Bo, à gauche, les


niveaux mI = ± 1/2 sont dégénérés.
En absence de champ Bo, à gauche, les quatre niveaux mI = ± 1/2, mI = ± 3/2 sont
dégénérés.
En présence de champ Bo, à droite, il y a En présence de champ Bo, à droite, il y a levée de dégénérescence sous l’effet de
levée de dégénérescence sous l’effet de ^.
l’hamiltonien Zeeman H z
^
l’hamiltonien Zeeman Hz. ^
Les niveaux sont perturbés par l’hamiltonien quadripolaire au 1er ordre, HQ(1) : on
remarque que la transition centrale, mI = + 1/2, – 1/2, n’est pas perturbée par cette
interaction alors que les transitions satellites, mI = +3/2, + 1/2, mI = – 1/2, – 3/2,
La fréquence associée à l’écart d’énergie
^ , le sont. Toutes les transitions sont perturbées par l’hamiltonien quadripolaire au 2e
est ν0. Sous l’effet de l’hamiltonien H A ^
ordre, HQ(2). Les flèches pleines correspondent aux transitions à un quantum,
associé à l’interaction A, les niveaux
∆mI = ± 1, (SQ ou single quantum). La flèche pointillée correspond à une transition
d’énergie sont modifiés : il en résulte une
multiple quanta, ∆mI = ± 3, (MQ ou multiple quantum). Cette transition MQ est
variation de la fréquence, ν0 + ∆A.
impliquée dans l’expérience MQ-MAS (voir section 2.1.2)

a I = 1/2 b I = 3/2

Figure 1 – a) Diagramme des niveaux d’énergie pour un spin I = 1/2 (␥ > 0) en absence de champ B0 , à gauche, et en présence
de champ B0 , à droite , b) diagramme des niveaux d’énergie pour un spin quadripolaire I = 3/2 (␥ > 0) en absence de champ B0 ,
à gauche, et en présence de champ B0 , à droite

Pour obtenir cette expression, nous avons utilisé le fait que bobine, puis amplifiés, digitalisés et traités mathémati-
∆E quement par transformation de Fourier : on obtient alors un
⬍⬍ 1 . Nous retiendrons de cela que n est une valeur très spectre RMN standard, dans le domaine des fréquences
kT (comme mentionné précédemment, ces fréquences
faible, ce qui est la cause de la faible sensibilité de
correspondent aux transitions spectroscopiques entre niveaux
l’expérience de RMN. L’écart de population conduit à la
d’énergie).
création d’une aimantation macroscopique M0 , parallèle à B0
et dont l’intensité est donnée par la loi de Curie : À ce stade de l’exposé, nous avons décrit le principe de
l’expérience de RMN, en insistant tout particulièrement sur la
notion de diagramme d’énergie. Cette description est
N γ 2 B0 ℏ2 I (I + 1) commune à la RMN en solution et à la RMN en phase solide.
M0 = (8)
3 kT Dans les paragraphes suivants (2.1 à 2.3), nous allons
préciser les spécificités de la RMN en phase solide. Nous
Il est à noter que l’aimantation M0 n’est pas induite instan- conseillons au lecteur de se familiariser avec certains dévelop-
tanément en présence de B0 . L’établissement de M0 est pements de la RMN en solution en se reportant à deux articles
correctement décrit par un temps caractéristique T1 (ou temps publiés dans les Techniques de l’Ingénieur [P 2 880]. Deux
de relaxation spin-réseau). Ce temps caractéristique T1 ouvrages de Canet et coll. sont de bonnes introductions au
intervient dans les équations de Bloch, qui régissent le domaine de la RMN [3] [4]. Pour un niveau plus avancé,
comportement de l’aimantation en présence de champs l’ouvrage de Levitt [5] est recommandé.
magnétiques [P 2 880].
L’expérience de RMN à proprement parler consiste à utiliser 2.1 Interactions internes et externes en RMN
un second champ magnétique B1 , perpendiculaire à B0 et à la
résonance (fréquence de Larmor). Ce champ oscillant B1 est Afin de bien cerner les potentialités de la RMN en phase
créé par une bobine située au cœur de la sonde RMN et solide dans le cadre de l’analyse structurale, il est important
entourant l’échantillon étudié. Il en résulte un mouvement de d’appréhender les principales interactions intervenant au
grande amplitude de M0 et la création de composantes niveau du système de spins. Mehring [6] distingue les
oscillantes dans le plan de mesure (perpendiculaire à B0). Ces interactions externes et les interactions internes au
signaux (dans le domaine temporel) sont recueillis par la système.

IN 166 - 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 5 - 2014

102
Référence Internet
IN166

INNOVATION

■ Les interactions externes sont reliées aux champs travers les liaisons, alors que le couplage dipolaire correspond
magnétiques B0 et B1. Comme nous l’avons vu ci-dessus à une interaction à travers l’espace. Cette interaction est à
(équation (2)), la présence de B0 dans l’expérience RMN l’origine de l’observation des multiplets, en particulier en RMN
conduit à l’interaction Zeeman, caractérisée par l’hamiltonien en solution [P 2 880] ;

Ĥz . L’aimantation macroscopique, M0 est parallèle à B0 avant – l’interaction quadripolaire n’intervient que pour les
noyaux dits « quadripolaires », caractérisés par un spin
l’application de B1 (via une impulsion RF). L’interaction I > 1/2 (entier ou demi-entier). Cette interaction provient du
externe correspondant au champ B1 s’exprime sous la forme couplage entre le moment quadripolaire, Q, du noyau (dû à la
d’un hamiltonien radiofréquence (RF) : non-sphéricité de la charge à l’intérieur du noyau) et le
gradient de champ électrique local [5]. Le moment quadripo-
ˆ = − 2γ B cos (2 πν t + α ) Iˆ laire est une grandeur intrinsèque du noyau considéré : elle
H (9)
RF 1 ref x est tabulée (tableau 1). Le gradient de champ électrique (EFG
Electric Field Gradient) est une grandeur tensorielle de rang 2
Nous remarquons immédiatement que, contrairement à
(comme le déplacement chimique). La constante quadripolaire
ˆ,H
H ˆ fait intervenir une des composantes perpendiculaires s’exprime de la façon suivante :
z RF

à B0 (nous pouvons également envisager Îy dans l’expres- CQ = e2 qQ /h (13)

sion de ĤRF ).

■ Les interactions internes concernent pour leur part expli-


CQ s’exprime en MHz, e correspond à la charge élémentaire de
l’électron et eq correspond à la composante principale la plus
4
grande du tenseur EFG (cf. paragraphe suivant).
citement le noyau dans son environnement chimique au sein
d’une structure donnée. Contrairement aux interactions Signalons pour finir que d’autres interactions peuvent être
externes, les interactions internes dépendent donc de l’échan- également présentes, comme le déplacement de Knight (ou
tillon (à fréquence de Larmor fixée). Quatre interactions Knight shift) dans les métaux et l’interaction de couplage
internes principales peuvent être citées : paramagnétique lorsque des électrons célibataires sont à
proximité des spins nucléaires.
– le déplacement chimique [P 2 880], qui met en jeu le
cortège électronique entourant le noyau. Il en résulte un
coefficient d’écran σ qui vient modifier l’expression de la
fréquence de Larmor : En conclusion de ce paragraphe, précisons que toutes
les interactions internes présentées ci-dessus s’ajoutent
ν0 = γ B0 /2 π (1 − σ ) (10) à l’hamiltonien Zeeman [voir équation (2)]. Si elles ne
sont pas trop importantes en amplitude par rapport à ce
L’ordre de grandeur σ est 10–6 à 10–5. Cette interaction est dernier, elles peuvent être traitées comme des pertur-
à l’origine de l’échelle des déplacements chimiques pour un bations en énergie des niveaux Zeeman [1] [2]. Il en
noyau donné (en ppm). L’expression la plus générale de résulte des variations des fréquences de résonance
l’hamiltonien de déplacement chimique ou Chemical Shift (CS) associées. Ces variations sont mesurées au cours de
est donnée par : l’expérience RMN, par l’application de B1 . En RMN en
solution, les variations d’écarts d’énergie se ramènent de
ˆ = γ Iˆ [σ ] B
H (11) façon très générale à des scalaires grâce aux mouvements
CS 0
moléculaires rapides qui moyennent les interactions. Dans
Nous remarquerons la notation [σ] qui correspond à un le paragraphe 2.2, nous allons montrer que cette vision
objet mathématique particulier, un tenseur de rang 2 (§ 2.2) est insuffisante en RMN en phase solide et qu’il faut reve-
[6] [7] [8]. Le déplacement chimique, δ, correspond à δ ≈ – σ, nir à la notion de tenseur évoquée dans l’expression de
à une constante de référence près ; l’hamiltonien de déplacement chimique [voir
équation (11)].
– le couplage dipolaire entre deux noyaux A et X,
(νA ≠ νX , cas hétéronucléaire, ou νA = ν X, cas homonucléaire)
est une interaction à travers l’espace entre les deux
moments magnétiques associés. Dans le cas hétéronucléaire, 2.2 Anisotropie des interactions – Formes
l’interaction est caractérisée par la constante dipolaire, D : de raies
Toutes les interactions A (A = δ, D, J, Q...) peuvent être
D = (µ0 /4 π) (h/4 π2 ) γ A γ X /rA3− X (12) représentées par des tenseurs de rang 2 symétriques, et ce
avec une très bonne approximation [6]. Un tenseur de rang 2
où µ0 correspond à la perméabilité magnétique du vide symétrique est généralement représenté par un tableau 3 × 3,
(µ0 = 4π × 10–7 kg · m · A–2 · s–2). On constate que D fait dont seuls six coefficients sont indépendants. Nous avons déjà
intervenir le produit des γ. L’interaction dipolaire sera d’autant utilisé cette notation pour représenter le tenseur de dépla-
plus forte que les valeurs de γ seront élevées (c’est le cas par cement chimique, [σ] [équation (11)]. Pour un noyau magné-
exemple de 1H, 19F, 31P, voir tableau 1). D fait intervenir tiquement actif donné et une interaction A, il existe un unique
également rA-X la distance internucléaire. Il apparaît donc repère orthonormé centré sur le noyau, tel que le tableau
clairement que la mesure du couplage dipolaire permet une représentatif de A soit diagonal :
mesure des distances atomiques. Cette observation est
largement utilisée lors de l’expérience NOE, dans le cadre de
la RMN en solution [P 2 880] ; A 0 0 
 11 
– l’interaction de couplage indirect (ou scalaire) J fait [A] =  0 A22 0  (14)
intervenir explicitement les électrons de liaisons présents  
entre les noyaux A et X. Il s’agit donc d’une interaction à  0 0 A33 

5 - 2014 Copyright © – Techniques de l’Ingénieur – Tous droits réservés IN 166 - 5

103
Référence Internet
IN166

INNOVATION

Ce repère particulier est appelé « repère des axes Supposons une poudre contenant un très grand nombre de
principaux » (Principal Axes System, PAS) ; Aii correspondent cristallites que nous désirons étudier par RMN en phase solide.
aux valeurs propres de A. Nous appelons « valeur isotrope de Supposons également que chaque cristallite porte un unique
noyau magnétiquement actif soumis à l’interaction A. Chaque
1
l’interaction » la quantité Aiso = ∑ i Aii (connue en mathéma- cristallite, et donc le PAS de A associé, présente une orien-
3 tation particulière par rapport au champ magnétique externe,
tique comme la trace du tenseur). Cette valeur isotrope a une B0. Pour chaque cristallite, l’orientation de B0 dans le PAS est
signification particulière dans le sens où elle correspond à la spécifiée par deux angles d’Euler, θ et ϕ (figure 2a).
valeur mesurée par RMN en solution, en présence de mouve- L’interaction A va modifier les niveaux d’énergie selon :
ment brownien (nous supposons ici que l’on peut négliger tout
effet éventuel de solvant). D’un point de vue mathématique,
nous notons que la trace de A, ∑ i Aii , est un invariant lors de Em = − mI γ h/2 π B0 + E (1) + E (2) + ... (15)
tout changement de repère à partir du PAS. I mI mI

4
ZPAS (A)
B0
θ

YPAS (A)
ϕ
XPAS (A)
X’(ϕ) D 0 –D (kHz)

Repère des axes principaux : Couplage dipolaire :


A X .
µo ប γ γ
Le champ magnétique extérieur B0 est D est la constante dipolaire, D =
4π 2π r3A-X
repéré par les angles d’Euler, θ et ϕ. La
Un tel doublet est également observé dans le cas
projection de B0 dans le plan (XPAS (A),
noyau quadripolaire, I = 1 (pour une asymétrie nulle).
YPAS (A)) est donnée par X’(ϕ).
Le déplacement chimique isotrope est fixé arbitrairement à 0.

a c

δ11 + 1/2 ↔ – 1/2


δ22 δ33

δ11 = δ22
+ 3/2 ↔ + 1/2 – 1/2 ↔ – 3/2

δ33 + 5/2 ↔ + 3/2 – 3/2 ↔ – 5/2


+ 7/2 ↔ + 5/2 – 5/2 ↔ – 7/2

+ 9/2 ↔ + 7/2 – 7/2 ↔ – 9/2


δiso (ppm)

0 (kHz)
CQ/96 – CQ/96
Anisotropie de déplacement chimique :
Interaction quadripolaire :
Lorsque δ11≠ δ22 ≠ δ33, le spectre est dit « quelconque ».
Lorsque δ11≠ δ22, l’anisotropie est dite « axiale ». La L’intensité de la transition centrale n’est pas à l’échelle (elle est
valeur isotrope de l’interaction, δiso, correspond à la fortement réduite). On note la présence de huit transitions
moyenne arithmétique des trois valeurs principales. satellites. CQ est la constante quadripolaire associée au noyau.

b d

Figure 2 – a) Représentation du repère des axes principaux de l’interaction A (ou PAS), b) forme de raie correspondant à l’interaction
d’anisotropie de déplacement chimique (CSA) ␦ . ␦11 , ␦ 22 et ␦ 33 sont les valeurs principales de l’interaction, c) forme de raie
correspondant à l’interaction dipolaire hétéronucléaire (doublet de Pake), d) forme de raie pour un spin I = 9/2 (et ␩Q = 0)

IN 166 - 6 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 5 - 2014

104
Référence Internet
IN224

INNOVATION

AFM-IR : caractérisation chimique


à l’échelle nanométrique
par Alexandre DAZZI
Professeur des universités, docteur en physique de l’université de Bourgogne
Laboratoire de Chimie-Physique, université Paris-Sud, Orsay, France
et Ariane DENISET-BESSEAU
Maître de conférences, docteur en physico-chimie de l’université Paris-Sud
Laboratoire de Chimie-Physique, université Paris-Sud, Orsay, France

L a spectromicroscopie infrarouge (IR) est une technique efficace pour


identifier chimiquement les composés d’un échantillon (par leurs spec-
tres infrarouges) et les localiser spatialement. Cependant, la principale limi-
tation de cette technique infrarouge « classique » est sa résolution spatiale :
4
celle-ci est imposée par la partie optique et est de l’ordre de quelques
micromètres.
C’est dans ce contexte que la technique d’AFM-IR a été développée pour
permettre de réaliser des études IR (spectres d’absorption et cartographies)
à l’échelle de quelques nanomètres. Cette technologie en pleine expansion
est basée sur le couplage entre un microscope à force atomique (AFM) et un
laser IR accordable pulsé. L’idée principale est de s’affranchir de la détection
optique pour étudier l’interaction des photons infrarouges avec la matière,
pour ne pas être limité par la diffraction de la lumière. Pour cela, on suit l’effet
photothermique associé à l’absorption de la lumière infrarouge.
Pour faire ce type de mesure, l’échantillon est imagé par AFM (topographie de
surface) puis illuminé avec la source laser IR. La pointe du microscope à force
atomique qui est en contact avec l’échantillon est alors utilisée pour détecter
l’effet photothermique induit dans l’échantillon suite à l’absorption du rayon-
nement IR : si la longueur d’onde du laser correspond à une bande d’absorp-
tion de l’échantillon, alors une partie de la lumière est absorbée puis conver-
tie sous forme de chaleur. Ceci crée une augmentation locale de température.
Cette augmentation de température induit la dilatation de l’échantillon qui
repousse la pointe de l’AFM. Cette poussée est extrêmement rapide et est
ressentie comme un choc dans la pointe engendrant l’oscillation du levier de
l’AFM. L’avantage de cette approche est que l’amplitude des oscillations est
proportionnelle à l’absorbance et permet d’atteindre une résolution de quel-
ques nanomètres (grâce à la pointe de l’AFM).
Depuis 2012, cette technologie est utilisée, à travers le monde, en routine
pour l’analyse infrarouge à l’échelle nanométrique que ce soit pour les aca-
démiques ou les industriels et ce dans des domaines aussi divers que la
science des polymères, la microbiologie, la pharmacie ou encore l’étude
des matériaux du patrimoine ou l’astrochimie.
Cet article propose de décrire le principe fondamental de cette technologie
et d’expliquer son fonctionnement qui reste relativement simple et intuitif.
C’est sans doute pour ces dernières raisons que cette technologie a pu sé-
duire des scientifiques de différents horizons et est utilisée dans de nom-
breux domaines. Par la suite, l’article illustrera l’impact de cette technologie
par la description de quelques applications récentes en sciences des poly-
mères, en microbiologie et se terminera par la présentation des perspecti-
ves et les évolutions potentielles de la technique.
Parution : juillet 2019

7-2019 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 224 - 1

105
Référence Internet
IN224

INNOVATION

Points clés
Domaine : techniques d’imagerie et d’analyse chimique
Degré de diffusion de la technologie : croissante
Technologies impliquées : microscopie à force atomique et laser infrarouge
Domaines d’application : science des polymères, science de la vie, photonique,
science des matériaux, pharmacie, patrimoine culturel
Principaux acteurs français :
— pôles de compétitivité
— centres de compétence
— industriels
Autres acteurs dans le monde :
https://www.anasysinstruments.com/
https://www.bruker.com/products/surface-and-dimensional-analysis.html

4
Contact : alexandre.dazzi@u-psud.fr/ http://www.lcp.u-psud.fr/spip.php?article358

1. Contexte composés chimiques, en fixant la valeur de la fréquence infra-


-

rouge sur un de leur maximum d’absorption et en observant


1.1 Limitation de la spectromicroscopie l’image ainsi obtenue, soit de définir une ligne d’intérêt sur
l’échantillon et d’étudier l’évolution du spectre d’absorption
infrarouge IR en repérant l’apparition ou la disparition de bandes d’absorp-
La spectroscopie consiste à étudier l’interaction entre une onde tion le long de ce profil. En ce qui concerne la résolution spatiale,
électromagnétique (dans le contexte de cet article) et la matière comme tout dispositif optique, le microscope confocal est limité
en observant des phénomènes d’excitation ou de désexcitation, en 1,22 × λ
fonction de l’énergie ou de la fréquence de l’onde. Dans le domaine par la diffraction (le critère de Rayleigh donne : ; avec l
D
de l’infrarouge, l’étude de l’absorption d’onde électromagnétique la longueur d’onde et D l’ouverture de la pupille). La dimension
permet de sonder les vibrations moléculaires de la matière. de l’image obtenue par le trou du diaphragme est de l’ordre de
Le domaine de fréquence 4 000-500 cm-1 (2,5 à 20 microns), la longueur d’onde. Dans le domaine infrarouge qui nous inté-
appelé « moyen infrarouge », est particulièrement intéressant car resse, cela signifie que la résolution spatiale s’étend de 1 mm à
il contient toutes les bandes vibrationnelles des composés organi- 20 mm [1][2].
ques. La spectroscopie infrarouge est donc un outil très efficace
pour l’identification chimique de la matière. Les applications 1.2 Dépasser les limites de résolution
concernent de nombreux domaines : le biomédical (détermination
de la composition des tissus, identification de micro-organis- Pour dépasser les limites de résolution de la microscopie
optique, il est souvent préconisé d’utiliser la microscopie en
mes…), la détection de polluants (détection de traces de gaz dans
champ proche. Le concept de cette microscopie consiste à utili-
l’atmosphère, mesures de CO2 dans les zones urbaines…), l’agro-
ser une sonde locale pour réaliser une mesure physique
nomie (contrôle qualité des denrées…) la science des matériaux
(optique, force, électronique…) entre cette sonde et l’échantil-
(caractérisation de mélanges de polymères…).
lon. Cette sonde doit être aussi petite que possible car c’est sa
La spectroscopie IR n’offrant pas de résolution spatiale, son dimension qui définit la résolution. Comme la mesure entre la
couplage avec la microscopie permet de proposer une étude en sonde et l’échantillon est locale (limitée spatialement), il faut
2 ou 3D. Cependant, la limitation intrinsèque de la microscopie que la sonde balaye l’échantillon pour obtenir une image.
liée à la diffraction de la lumière fait que la résolution des micros- Il existe trois grandes familles de microscopes champ proche :
copes infrarouges atteint difficilement 5-10 mm. Pour améliorer les microscopes à effet tunnel (Scanning tunneling Microscope),
la résolution des images et approcher de la résolution limite, un les microscopes à force atomique (Atomic Force Microscope) et
dispositif de type confocal est alors utilisé. Le principe du micro- les microscopes à champ proche optique (Scanning Near-field
scope confocal est de créer un éclairement focalisé sur l’échantil- Optical Microscope) [3][4][5]. Le microscope de champ proche
lon et de l’imager à travers une ouverture. De cette manière, optique est la première alternative à avoir été mise en place.
seuls les rayons issus du volume focal sont détectés ce qui per- Le microscope contient un nano-pointe métallique et fonctionne
met d’améliorer la résolution latérale et axiale. Par contre, en collectant les ondes évanescentes autour de l’objet étudié en
comme la mesure ne se fait qu’en un point de l’échantillon, il est frustrant son champ électrique local avec une pointe diffusante
nécessaire de balayer la tache focale sur toute la surface pour de dimension nanométrique ou en le collectant par une sonde
reconstruire l’image. Ces montages optiques permettent de limi- locale à ouverture [6]. L’idée est donc de sonder des ondes élec-
ter l’étendue géométrique du faisceau et d’améliorer le rapport tromagnétiques comportant des informations de dimension plus
signal sur bruit des images. L’association de ce type de micro- petites que la longueur d’onde ce qui permet de dépasser les cri-
scope avec une source infrarouge et avec un spectromètre à tères de résolution classique. Bien que les résultats de champ
transformée de Fourier est un dispositif appelé « spectromicro- proche optique visible soient nombreux et remarquables dans le
scope ». D’une manière générale, un volume 3D d’acquisition, domaine de la microscopie et de la plasmonique, ceux concer-
contenant deux coordonnées d’espace (x, y) et une coordonnée nant le domaine infrarouge sont assez discutables [7]. En effet
spectrale (spectre d’absorption infrarouge), est obtenu pour la mesure de l’onde évanescente ou de la lumière diffusée par
chaque échantillon. À partir de ces données, des images d’ab- la sonde ne donne pas une mesure directe de l’absorption mais
sorption pour différentes longueurs d’onde sont générées : il est une mesure de la dispersion associée à l’absorption. De plus
possible soit d’étudier la distribution spatiale de certains l’instrumentation associée au microscope de champ proche

IN 224 - 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 7-2019

106
Référence Internet
IN224

INNOVATION

optique infrarouge est complexe à développer et à utiliser pour apportée par la lumière infrarouge est convertie en augmenta-
les non-experts. tion locale de température, c’est l’effet photothermique. Cette
Dans ce contexte, une solution alternative pour la mesure d’ab- augmentation de température induit une contrainte forte à l’inté-
sorption a été proposée en contournant les difficultés associées rieur de l’échantillon qui la relaxe en se dilatant. En effet, la
aux mesures des techniques de champ proche optique : notam- variation relative de volume d’un objet est proportionnelle à son
ment celle qui consiste à extraire l’information d’absorption d’une coefficient de dilatation thermique multiplié par l’augmentation
mesure relative à un mélange d’ondes évanescentes. La solution ΔV
de température ( = β × ΔT ; V volume, b coefficient de dilata-
simple est de mesurer la réponse acoustique ou thermique V
engendrée localement par l’absorption d’une impulsion lumineuse tion thermique et T température). Cette dilatation est transmise
incidente. Les travaux de C. Boccara et al. présentent, de manière au levier via la pointe de l’AFM, provoquant ainsi son oscillation
assez complète, comment il est possible de réaliser des mesures (figure 2a). Les lasers infrarouges utilisés sont pulsés avec une
de spectroscopie infrarouge en utilisant l’effet photothermique [8]. durée d’impulsion de quelques dizaines de nanoseconde. La dila-
De nombreuses expériences fondées sur ce principe ont été déve- tation thermique induite est donc extrêmement rapide comparée
loppées pour le champ proche par H. Pollock et al. et ont montré au temps de réponse du levier de l’AFM, qui est proche de la cen-
également la possibilité de reproduire des spectres d’absorption taine de microseconde. Chaque fois qu’il y a absorption d’une
IR grâce à une sonde locale capable de mesurer les variations de impulsion laser, la dilatation de l’échantillon est « ressentie »
température [9][10]. Bien que toutes ces expériences aient par- comme un choc transmis par la pointe de l’AFM, induisant l’oscil-
lation libre du levier (figure 2b). Lors de cette oscillation, tous

4
faitement prouvé leur efficacité à reproduire les spectres infrarou-
ges des échantillons étudiés, elles n’ont pas pu démontrer la pos-
sibilité de réaliser des images avec une résolution meilleure que
celle de la microscopie infrarouge classique.
aser
La technique AFM-IR, décrite dans cet article, est une tech- de l
Dio
nique de champ proche fondée sur la détection de l’effet photo- Photodiode
thermique induit suite à l’absorption de la lumière infrarouge.
Contrairement aux premiers travaux réalisés en photother-
mique, la mesure de l’absorption est directe avec une résolution
proche du nanomètre.

2. Description de la technique AFM-IR Levier AFM

2.1 Mesure locale de l’absorption


La technique AFM-IR (figure 1) consiste à éclairer un échantil- er IR
Las
lon avec une source laser IR accordable en longueur d’onde tout
en le sondant avec la pointe d’un microscope à force atomique
(brevet US 2008/0283,755). Si cette source laser est réglée sur
une longueur d’onde correspondant à l’une des bandes d’absorp-
tion de l’échantillon, un effet photothermique est généré.
La pointe de l’AFM est alors utilisée comme détecteur de cette
absorption. Figure 1 – Vue schématique du montage AFM-IR en mode
En effet, la manière la plus courante pour mesurer l’absorption contact : l’oscillation du levier est directement enregistrée
infrarouge est de détecter la dilatation de l’échantillon par par la photodiode servant à la mesure de déflexion du levier
pour l’imagerie de topographie
la pointe AFM lorsqu’il y a une absorption optique : l’énergie

0,2
Oscillation du levier

0,1
Fa
isc
ea 0,0
u
IR

Force << phototermique >> –0,1

Dilatation –0,2

–0,3
0,00 0,05 0,10 0,15 0,20 0,25 0,30
Lumière absorbée ms
a Vue schématique illustrant b Représentation de l’oscillation (déflexion) amortie du levier AFM
le principe photothermique après un choc induit par l’absorption infrarouge d’un échantillon

Figure 2 – A) Vue schématique illustrant le principe photothermique B) Représentation de l’oscillation (déflexion) amortie du levier AFM
après un choc induit par l’absorption infrarouge d’un échantillon

7-2019 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 224 - 3

107
Référence Internet
IN224

INNOVATION

les modes propres de vibration sont sollicités. La mesure de l’ab- de lipides dans des bactéries filamenteuses : la topographie
sorption locale de l’échantillon se fait simplement en mesurant révèle un faisceau de filaments bactériens. L’information de
l’amplitude de ces oscillations grâce à la photodiode utilisée topographie obtenue par l’AFM est morphologique et est complé-
pour la mesure de déformation du levier AFM (figure 1). Il est tée par l’acquisition des cartographies d’absorption pour localiser
important de noter que l’amplitude d’oscillation du levier est les lipides à l’intérieur de la bactérie. Les lipides en question sont
directement proportionnelle à l’absorbance : cette relation de majoritairement des triacylglycérols et possèdent une forte
proportionnalité a été démontrée par différents travaux théori- absorption à 1 740 cm-1 (élongation de la liaison C = O de leurs
ques et expérimentaux [11][12]. Généralement, l’oscillation est fonctions ester). Grâce à l’acquisition des images à ce nombre
amortie par les frottements de la pointe avec la surface et s’es- d’onde spécifique, on peut visualiser les accumulations de lipides
tompe après une demi-milliseconde. qui se font sous forme de vésicules à l’intérieur des bactéries.
Ainsi, cette méthode permet de mesurer un spectre d’absorp- Dans notre exemple, les dimensions de ces vésicules (entre 500
tion en un point donné de la surface (en fixant la position de la et 50 nm) sont largement plus petites que la longueur d’onde
pointe AFM) en accordant la longueur d’onde du laser. Pour utilisée (5,76 mm). Dans le cas de cette image, la résolution de
chaque longueur d’onde, l’amplitude des oscillations est mesu- l’image est donc de l/100.
rée ce qui permet de reconstruire le spectre point par point
(figure 3a). De plus, il est possible de faire des cartographies D’une manière générale, les spectres obtenus par AFM-IR
d’absorption en déplaçant la pointe de l’AFM sur la surface et en reproduisent fidèlement ceux obtenus par spectroscopie clas-
fixant la longueur d’onde (figure 3b) de la source IR. L’image de sique (FTIR) alors que les dimensions des échantillons sont bien

4 topographie et l’image infrarouge sont obtenues simultanément.


Elles sont donc parfaitement corrélées comme illustré par les
résultats (figure 3b) obtenus suite à une étude de la répartition
plus petites que la longueur d’onde et que les cartographies
chimiques révèlent une résolution proche de celle de l’AFM
(la dizaine de nanomètres).
Amplitude d’oscillation

Nombre d’onde (cm–1)


a Méthode de reconstruction d’un spectre infrarouge

500 nm 500 nm

Topographie Cartographie chimique

b Exemple d’une cartographie chimique obtenue sur des bactéries formant


des filaments et capables de stocker de forte concentration de lipides

Figure 3 – A) Méthode de construction d’un spectre infrarouge B) Exemple d’une cartographie chimique obtenue sur des bactéries formant
des filaments et capable de stocker de forte concentration de lipides. À gauche, la topographie représentant un faisceau de filaments
bactériens. À droite, l’image infrarouge correspondante à l’absorption à 1 740 cm 1
-

IN 224 - 4 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 7-2019

108
Référence Internet
IN237

INNOVATION

Caractérisation par spectroscopie


infrarouge de matériaux
cimentaires
par Matthieu HORGNIES
Docteur en sciences et génie des matériaux, HDR
Chargé de recherche, LafargeHolcim Innovation Center, Saint Quentin Fallavier,
France

C e travail porte sur la description des avantages et des limites de la spec-


troscopie infrarouge à transformée de Fourier (IR-TF) pour analyser les
matériaux à base cimentaire (phases anhydres de clinker Portland, phases
4
minérales hydratées, matériaux de construction contenant de la pâte de ci-
ment (comme les mortiers et les bétons). Contrairement à l’analyse de pro-
duits organiques, polymères et revêtements de types peinture ou vernis, la
spectroscopie IR-TF est relativement peu utilisée pour étudier les matériaux à
base cimentaire et à prise hydraulique. En effet, d’autres méthodes analyti-
ques, telles que l’analyse thermogravimétrique (ATG) ou la diffraction de
rayons X (DX) lui sont souvent préférées lorsqu’il s’agit de caractériser ces
matériaux. Pourtant la spectroscopie IR-TF était déjà utilisée dans les années
1970 pour caractériser les phases anhydres de clinker et possède plusieurs
avantages qui la rendent intéressante pour intégrer la gamme des méthodes
de caractérisation des matériaux cimentaires.
Dans cet article, plusieurs résultats appliqués seront décrits tout en évo-
quant, en parallèle, les références bibliographiques adéquates pour qui vou-
dra approfondir le sujet. En premier lieu, les principaux modes d’analyse
généralement disponibles sur un spectromètre IR-TF seront brièvement dé-
crits : (i) le mode en transmission (Tr) ; (ii) le mode de réflexion totale atté-
nuée (plus communément dénommée « ATR ») ; et (iii) la spectroscopie de
réflectance diffuse (plus communément dénommée « DRIFTS »). Les avan-
tages et les limites de la spectroscopie IR-TF dans le cas de l’étude des ma-
tériaux cimentaires seront ensuite précisés. Dans une deuxième section, un
aperçu de la littérature scientifique sera présenté en parallèle de la présen-
tation de résultats liés à plusieurs types d’applications (phases anhydres de
clinker, phases cimentaires hydratées, mortier contenant des matériaux re-
cyclés, surface de béton brute ou recouverte par un revêtement de protec-
tion). Enfin, une troisième section décrira certaines techniques d’analyse
pouvant être utilisées en complément de la spectroscopie IR-TF pour analyser
ces matériaux cimentaires.
Parution : juillet 2020

8-2020 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 237 - 1

109
Référence Internet
IN237

INNOVATION

Points clés
Domaine : Techniques d’imagerie et d’analyse
Degré de diffusion de la technologie : Maturité
Technologies impliquées : Spectroscopie infrarouge
Domaines d’application : Matériaux de construction à base cimentaire
Principaux acteurs français :
— pôles de compétitivité : AXELERA, MATERALIA, MINALOGIC ;
— centres de compétence : C2RMF (Centre de recherche et de restauration des
musées de France) ; ENS-LYON ; INSA-Toulouse (laboratoire Matériaux et Durabilité
des Constructions de Toulouse) ; laboratoire interdisciplinaire Carnot de Bourgogne
(département Interfaces) ; université de Lorraine (laboratoire Matériaux optiques, Pho-
tonique et Systèmes) ; université Gustave Eiffel (Institut français des sciences et tech-
nologies des transports, de l’aménagement et des réseau, IFSTTAR) ;
— industriels : Bruker ; Thermofisher Scientific.
Autres acteurs dans le monde : Instituto de Ciencias de la Construcción Eduardo

4 Torroja (IETcc), Espagne ; Universidad de Burgos (Escuela Politécnica Superior),


Espagne ; Universität Weimar (Institute for Building Materials Science Bauhaus),
Allemagne ; Université de Namur (laboratoire interdisciplinaire de Spectroscopie
électronique), Belgique.

1. Présentation de la spectroscopie une résolution spectrale de 4 cm-1. Le spectre de référence


-

(« blanc ») a été recueilli à l’atmosphère ambiante avant d’analy-


IR-TF ser chaque échantillon. Dans ce mode d’utilisation ATR, l’acquisi-
tion du spectre de référence est très importante pour pouvoir
Cette section est destinée à présenter certaines caractéristi- soustraire les signatures potentiellement gênantes de la vapeur
ques principales de la spectroscopie infrarouge pour étudier des d’eau et du CO2 présents dans l’air ambiant. Les spectres des
matériaux cimentaires : les différents modes d’analyse propres à échantillons durcis ont été corrigés avec une ligne de base linéaire.
cette méthode de caractérisation, ses spécificités par rapport à
d’autres techniques d’analyse. & Enfin, le mode réflectance diffuse infrarouge à transfor-
mée de Fourier (spectroscopie DRIFTS) permet l’analyse sur
une plage de nombres d’onde comprise entre 400 et 4 000 cm-1.
1.1 Principaux modes d’analyse Le faisceau incident est réfléchi par l’échantillon vers un miroir
des matériaux cimentaires où les radiations infrarouges sont dispersées de façon diffuse
puis recueillies et mesurées dans le détecteur.
Cette technique de caractérisation a pour principe d’irradier
l’échantillon par un rayonnement électromagnétique situé dans
la zone de l’infrarouge (1 mm à 20 mm) [P 2 845], [P 2 850]. Détecteur
Source IR
Échantillon

Sous l’effet du faisceau incident, les groupements chimiques


constituant la matière absorbent une partie du rayonnement, Tr
les nombres d’onde associés à l’augmentation d’énergie sont
caractéristiques des liaisons et de la nature de leur environne-
ment. La figure 1 représente les différents modes d’utilisation
possible : en transmission (Tr), en réflexion totale atténuée
(ATR), en réflectance diffuse (DRIFTS). Notons que les résultats
Échantillon
IR-TF présentés dans ce travail ont été obtenus en utilisant un Détecteur
spectromètre Nicolet iS10 (Thermo Fisher Scientific Inc.), équipé Source IR
d’un détecteur de type sulfate de triglycine deutérié (DTGS) et
ATR
contrôlé par le logiciel OMNIC.
& Pour l’utilisation du mode transmission (Tr), les pastilles de
l’échantillon ont été fabriquées en mélangeant 250 mg de bro-
mure de potassium (KBr) à 3 mg de produit (poudre de clinker
ou de ciment, ou de la poudre directement prélevée dans la
masse des échantillons durcis). Seize balayages ont été enregis- Détecteur
Source IR
trés sur la plage 4 000-400 cm-1 avec une résolution spectrale
de 4 cm-1. Le spectre de référence (« blanc ») a été recueilli en DRIFTS
utilisant une pastille de KBr pur et les spectres des échantillons
ont été corrigés avec une ligne de base linéaire.
& Dans le mode de réflexion totale atténuée (ATR), les Échantillon
échantillons durcis ont été analysés directement sur une épaisseur
de quelques micromètres et avec une zone d’échantillonnage d’en-
viron 1 mm2. Le cristal utilisé est du diamant. 16 balayages ont Figure 1 – Schéma de fonctionnement des différents modes
été régulièrement enregistrés sur la plage 4 000-650 cm-1 avec de détection (Tr, ATR et DRIFTS) (d’après [1])

IN 237 - 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 8-2020

110
Référence Internet
IN237

INNOVATION

1.2 Particularités de la spectroscopie 2. Bibliographie et sélection


infrarouge de résultats applicatifs
1.2.1 Principaux avantages Dans cette section, seront présentées les principales voies
L’analyse en mode de transmission Tr a seulement besoin de d’application de la spectroscopie infrarouge pour étudier diffé-
quelques milligrammes de matériau pour obtenir sa composition rents types de matériaux cimentaires :
tandis que d’autres techniques de caractérisation ont besoin de — les phases anhydres composant le clinker Portland ;
plusieurs grammes. Cette très faible quantité de matière est par- — les phases cimentaires après hydratation du ciment Portland ;
ticulièrement intéressante lorsque seule une petite masse d’hy- — les compositions de surface de pâtes de ciment durcies,
drates peut être synthétisée ou prélevée. Il est également plus mortiers et de bétons.
facile d’analyser la pâte de ciment présente au sein du mortier/
béton en effectuant des microprélèvements et en évitant par
conséquent toute contamination par les grains de sable et les 2.1 Analyses de phases anhydres de clinker
granulats. De plus, les résultats sont obtenus quelques minutes
seulement après l’analyse, sans aucun traitement complexe,
(Portland)
tandis que d’autres méthodes [2] ont besoin d’au moins quel-
Les phases anhydres du clinker et du ciment Portland ont été

4
ques heures de travail pour étudier un échantillon. Enfin, l’ana-
étudiées par spectroscopie infrarouge à partir des années 1970,
lyse en mode de réflexion totale atténuée (ATR) permet d’étudier
afin de caractériser les bandes infrarouges de l’alite, de la bélite
la surface des matériaux à base de ciment sans aucune méthode
et de la célite. Bensted et Varma [3] ainsi que Ghosh et Chatter-
de préparation particulière (tels que le nettoyage au solvant ou
jee [4] [5] ont ainsi publié, en 1974, certaines des premières
le stockage sous vide) qui pourrait modifier la composition du
communications liées à des analyses par spectroscopie IR-TF et
matériau analysé ou compliquer le prélèvement.
pratiquées dans l’industrie du ciment. Ghosh et Handoo [6] ont
ensuite rédigé un des premiers articles de synthèse en 1980.
1.2.2 Principales limites Ces premiers documents ont été essentiellement consacrés aux
analyses effectuées en mode transmission (seule la référence [5]
La spectroscopie IR-TF ne peut être considérée comme une mentionnait des analyses effectuées en mode ATR).
méthode de quantification : il est très difficile (voire impossible
lorsque le « pic » infrarouge est en fait constitué de plusieurs Le tableau 1 et la figure 2 montrent les pics spécifiques (et
raies) de faire la relation entre l’intensité ou la surface d’un conformes à la littérature [3] à [6]) des phases synthétiques
bande IR et une quantité spécifique. Néanmoins, l’intensité de de clinker d’après des analyses effectuées en mode transmis-
certaines bandes IR bien spécifiques (telles que celle de la sion. Ces phases pures Ca3SiO5 et Ca2SiO4 avaient été prépa-
portlandite comme nous le verrons au chapitre 2.1) peut forte- rées par chauffages successifs d’un mélange de carbonate de
ment varier en fonction de leur contenu dans l’échantillon, on calcium et de silice finement divisé, avec des proportions stœ-
parlera alors de « semi-quantification » notamment lorsque chiométriques appropriées. Un double pic à 995-900 et 938-
l’on souhaite suivre dans le temps l’évolution d’une réaction 883 cm-1, caractérisant respectivement les phases de bélite
chimique via la création d’un autre composé (par exemple la (C2S) et d’alite (C3S), est assignable aux vibrations d’étire-
transformation de la portlandite en calcite). De plus, il faut gar- ment asymétriques de la liaison Si-O. La détection de la phase
der à l’esprit que la présence de composés chimiques peut être minérale ferrite (C4AF) est mal aisée en raison de l’absence de
sous-estimée, ou rendue non détectable, en raison de la forte pics particuliers alors que la célite (C3A) est beaucoup plus
intensité d’autres bandes infrarouges comme celles liées à la facile à détecter en raison d’un grand nombre de pics bien défi-
présence de silice ou de carbonate de calcium (qui ont la parti- nis, attribués à la liaison Al-O.
cularité d’avoir des bandes d’une largeur significative et de
forte intensité). Enfin, la présence d’une grande quantité
d’eau capillaire dans l’échantillon hydraté pourra aussi mas- Phases anhydres dans le clinker Portland
quer certains composés chimiques et perturber l’interprétation
des spectres. En définitive, la spectroscopie IR-TF, comme de Quatre phases minérales principales composent le clinker
très nombreuses autres techniques d’analyse, doit être utilisée Portland (qui, après broyage en présence d’une faible quan-
en connaissance de cause, c’est-à-dire en ayant une bonne tité de gypse deviendra le ciment Portland traditionnel) :
idée de ce que l’on cherche à démontrer, et reste donc peu — l’alite ou silicate tricalcique (Ca3SiO5), (C3S en notation
utile pour détecter des composés inattendus, surtout lorsqu’ils cimentière) ;
sont présents à l’état de traces. — la bélite ou silicate dicalcique (Ca2SiO4), (C2S en nota-
tion cimentaire) ;
— la célite ou aluminate tricalcique (Ca3Al2O6), (C3A en
À retenir notation cimentaire) ;
— la ferrite Ca4Al2Fe2O10, (C4AF en notation cimentaire).
– L’analyse IR-TF des matériaux cimentaires peut être
effectuée même si seuls quelques milligrammes de matière L’alite est la phase réactive (avec l’eau) la plus présente en
sont disponibles. proportion dans le clinker (généralement de 60 à 70 %), c’est
– Les résultats d’analyse peuvent être connus seulement elle qui va permettre d’obtenir les résistances mécaniques
quelques minutes après prélèvement des échantillons. dans un temps relativement court (de 1 jours à 28 jours après
– Il est très difficile d’utiliser cette méthode de caractérisa- le début de la prise par exemple). La bélite est une phase
tion comme un outil de quantification. moins réactive (avec l’eau) et participera plutôt aux résistan-
– La teneur des composés présents à l’état de traces peut ces mécaniques acquises sur le long terme. La célite et la fer-
être sous-estimée en raison de la forte intensité de certaines rite sont des phases dites « interstitielles », occupant l’espace
bandes infrarouges. autour des grains d’alite et de bélite au sein du clinker.

8-2020 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 237 - 3

111
4

112
Référence Internet
IN249

INNOVATION

Détection d’hydrates par activation


neutronique dans des pipelines
sous-marins
par Sophie BOUAT
CEO de Science-SAVED, Grenoble, France
Ludovic PINIER
Ingénieur, TechnipFMC, Paris La Défense, France
Xavier SÉBASTIAN
Ingénieur, TechnipFMC, Paris La Défense, France
Adrian LOSKO
Instrument Scientist, Heinz Maier-Leibnitz Zentrum, Garching, Germany
4
Rudolf SCHÜTZ
Instrument Engineer, Heinz Maier-Leibnitz Zentrum, Garching, Germany
Michael SCHULZ
Group Leader Neutron Imaging, Heinz Maier-Leibnitz Zentrum, Garching, Germany
Zsolt REVAY
PGAA Group Leader, Heinz Maier-Leibnitz Zentrum, Garching, Germany
Zeljko ILIC
PhD student, Heinz Maier-Leibnitz Zentrum, Garching, Germany
Eric MAUERHOFER
Instrument Scientist, Jülich Centre for Neutron Science (Jcns-2), Peter Grünberg
Institut (Pgi-4) Forschungszentrum Jülich GmbH, Jülich, Germany
Thomas BRÜCKEL
Institute Director JCNS-2 and PGI-4, Forschungszentrum Jülich GmbH, Jülich,
Germany
et Ralph GILLES
Senior Scientist, Heinz Maier-Leibnitz Zentrum, Garching, Germany

M algré le besoin, pour le bien de la planète, de se tourner vers les éner-


gies vertes, quelques générations vont encore avoir à dépendre des
énergies non renouvelables. Le pétrole et le gaz font partie de ces dernières
et pour les distribuer depuis les sites d’extraction jusqu’aux sites d’exploita-
tion et d’utilisation, le pipeline est la méthode de transport la plus commu-
nément utilisée. Parmi tous les gazoducs et oléoducs, les pipelines sous-ma-
rins sont indispensables car ils sont la ligne de vie de l’exploitation pétrolière
maritime. Ils sont donc largement étudiés pour prévenir des défauts et dom-
mages qu’ils subissent tout au long de leur cycle de vie. Parmi les incidents
recensés, la formation d’hydrates dans les pipelines sous-marins reste l’un
des phénomènes qui défie encore de nos jours l’industrie du pétrole. Localiser
ces bouchons d’hydrates est donc de première importance pour pouvoir agir
et s’en débarrasser. Cette localisation des hydrates qui obstruent les pipeli-
nes sous-marins doit se faire sans avoir à démonter les pipelines, c’est-à-dire
à travers leurs parois très épaisses par 1 000 ou 2 000 mètres de fond. Les
Parution : septembre 2022

techniques habituellement utilisées par l’industrie du pétrole pour détecter la


présence d’hydrate à l’intérieur de pipelines sont inefficaces en milieu sous-
marin. Pour effectuer la localisation de ces bouchons d’hydrates in situ et
sans contact direct avec les pipelines sous-marins, il est nécessaire d’utiliser
une technique non destructive à base de neutrons qui, eux, sont sensibles à

8-2022 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 249 - 1

113
Référence Internet
IN249

INNOVATION

la différence de composition qui existe entre les hydrocarbures et les hydra-


tes. L’efficacité de cette technique a été démontrée par cette étude et cela
permet d’ouvrir les portes au développement d’un équipement transportable
qui pourrait être embarqué à bord d’un véhicule sous-marin commandé à
distance pour « survoler » les pipelines sous-marins afin d’y localiser les
bouchons d’hydrates et permettre leur élimination.

Points clés
Domaine : Techniques d’analyse de la composition des matériaux, à base de neutrons
Degré de diffusion de la technologie : Croissance
Technologies impliquées : Radiographie de neutrons – NAA (Neutron Activation
Analysis)
Domaines d’application : Industrie du pétrole
Principaux acteurs français : Science-SAVED

4 – Industriels : TechnipFMC
Autres acteurs dans le monde : Research Neutron Source Heinz Maier-Leibnitz
Zentrum (MLZ) à Garching près de Munich en Allemagne
Contact : contact@science-saved.com & https://science-saved.com/en/

1. Contexte le flux dans le pipeline est alors bloqué. La formation d’hydrates


-

dans les pipelines sous-marins reste de nos jours un des phéno-


mènes qui défie encore l’industrie du pétrole [18] [19] [20] [21].
Le pétrole et le gaz sont encore indispensables à la production
d’énergie dans le monde [BE 8 520] et pour les distribuer depuis Localiser rapidement ces bouchons d’hydrates qui obstruent
les sites d’extraction jusqu’aux sites d’exploitation et d’utilisa- les pipelines sous-marins est donc de première importance pour
tion, plusieurs solutions ont été développées, à savoir : les pipe- pouvoir agir et s’en débarrasser (figure 2). Cette localisation des
lines, le rail, le bateau et la route. Étant la moins onéreuse de hydrates qui obstruent les pipelines sous-marins doit se faire
toutes, le pipeline est le moyen le plus communément utilisé sans avoir à démonter les pipelines (ce que l’on appelle in situ),
pour le transport du pétrole et du gaz, avec environ 70 % de c’est-à-dire à travers leurs parois très épaisses et sous la mer,
tous les produits pétroliers transportés par pipeline [2]. Avec
l’essor des développements pétroliers offshore en grande pro-
fondeur, les conduites sous-marines ont pris une importance
technologique considérable et représentent environ 33 % des
transports par pipeline [3]. 60 % de ces conduites sous-marines 40
se trouvent dans le golfe du Mexique pour les États-Unis et une
Hydrate de méthane
petite partie d’entre elles (0,6 %) est en mer du Nord [3], 35
stable
comme le pipeline Nord-Stream [4]. Les pipelines sous-marins
représentent le moyen de transport le plus rapide, le plus sécu- 30 8 heures
risé, le plus économique et le plus fiable [5]. Ils sont donc large- CH4.6H2O + CH4 (g)
ment étudiés [6] [7] [8] [9], ainsi que les défauts et dommages
qu’ils subissent tout au long de leur cycle de vie [10] [11] [12]. 25
Parmi les incidents recensés (comme la corrosion, le dépôt de
P CH4 (MPa)

Début
matériaux qui bouchent les tuyaux [13]), il est possible d’obser-
20
ver la formation de glace d’hydrocarbure ou hydrate à l’intérieur Fin H2O (I)
Trempe
des pipelines sous-marins due aux basses températures dans les + CH4 (g)
à 77 K
H2O (I)

grands fonds marins et à la pression à laquelle circulent les 15


H2O (is)

hydrocarbures dans les pipelines. La variation de ces deux para-


Pressurisation

mètres (T et P) est en effet susceptible de modifier la viscosité


des fluides circulant et provoquer la formation d’hydrates [14]. 10
Ce phénomène, connu depuis longtemps [15], finit par obstruer
le pipeline pour le rendre inutilisable. Ces conditions peuvent 5
être réunies, par exemple, après une longue période de ferme- H2O (s)
CH4 cp
ture de la ligne de production, pendant laquelle le fluide a atteint + CH4 (g)
la température ambiante (la température ambiante sous-marine 0
peut être de 3 ou 4  C seulement), et qu’un redémarrage est 175 200 225 250 275 300 325
effectué (pression forte pour le redémarrage et température Température (K)
basse, figure 1). Comme les fluides produits sont multiphasiques
par nature et sont composés de gaz, de pétrole et d’eau, le
mélange généré lors du redémarrage du pipeline peut engendrer
la formation d’une phase solide, résultat de la combinaison du Figure 1 – Conditions de température et de pression nécessaires
gaz (ou du pétrole) et de l’eau, que l’on appelle « hydrate » [17] ; pour la formation d’hydrate dans le cas du méthane [16]

IN 249 - 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 8-2022

114
Référence Internet
IN249

INNOVATION

densités respectives de l’hydrate et de l’hydrocarbure sont pro-


ches l’une de l’autre, notamment au début de la formation de
l’hydrate [27] [28] [29]. La technique par ultrasons a de plus
une sensibilité limitée puisque la détection à l’intérieur du pipe-
line n’est possible que sur une distance de 50 mm de la
paroi [30]. Cette limite est un frein à la détection, notamment
parce que la formation de l’hydrate se produit initialement au
centre du pipeline, soit à 100 ou 150 mm de la paroi dans le cas
d’un pipeline de 300 mm de diamètre, avant de se propager jus-
qu’à la paroi et obstruer de ce fait la canalisation (figure 3).
Enfin, les méthodes de détection ultrasoniques nécessitent un
contact étroit entre l’instrument de mesure et la surface du pipe-
line [30]. Cette condition d’analyse est une seconde limite pour
cette technique de détection, puisque les pipelines sous-marins
qui reposent par définition sur les fonds marins sont la plupart
du temps recouverts de limon et de sable, rendant leur surface
inaccessible à tout contact direct.

4
Pour localiser ces bouchons d’hydrates in situ et sans contact
avec les pipelines, les techniques non destructives à base de
neutrons, proposées au réacteur de neutrons du Heinz Maier-
Leibnitz Zentrum (MLZ) à Munich, sont tout indiquées, car les
neutrons sont sensibles à la différence de compositions des
matériaux. Il faut donc s’appuyer sur la différence de composi-
Figure 2 – Bouchon d’hydrate extrait d’un pipeline [22] tion qui existe entre les hydrocarbures et les hydrates : dans le
cas par exemple du méthane (CH4, constituant principal des gaz
par 1 000 ou 2 000 mètres de fond. Les techniques utilisées par naturels [14] [22]), l’hydrocarbure contient environ 40 % plus
l’industrie du pétrole pour détecter la présence d’hydrate à l’inté- d’atomes d’hydrogène et 85 % plus d’atomes de carbone que
rieur de pipelines reposent sur : l’hydrate (voir figure 4). Enfin, il faut également vérifier la capa-
cité des neutrons et du signal retour à traverser l’épaisse struc-
— l’imagerie thermique [23] et la détection gamma [24]. ture des pipelines sous-marins, ainsi que la possibilité d’extrac-
Ces deux méthodes de détection sont toutefois limitées à des tion du signal retour malgré la présence d’eau de mer. La voie
observations sur terre et ne peuvent pas être appliquées en sera ainsi tracée pour le développement d’un équipement trans-
milieu sous-marin [25] ; portable qui pourra être embarqué dans un véhicule sous-marin
— les techniques à base d’ultrasons. Elles sont largement uti- commandé à distance (ROV pour Remote Operated Vehicle),
lisées dans l’industrie du pétrole [26] et permettent de différen- comme cela a déjà été réalisé en eau peu profonde [31], afin
cier les deux phases, hydrate et hydrocarbure, grâce à la de « survoler » les pipelines sous-marins, par 1 000 ou
réflexion des ultrasons à l’interface entre ces deux phases. 2 000 mètres de fond, et localiser les hydrates, dès le début de
Cette interface n’est toutefois pas très bien caractérisée car les leur formation, pour qu’ils puissent être éliminés.

Entraînement Croissance
Agglomération Bouchon
de l’eau de la cage d’hydrate

Gaz
Hydrocarbure

Eau

Temps Cages d’hydrate

Attraction capillaire

Figure 3 – Illustration de la formation de l’hydrate qui commence au centre du pipeline, avant sa propagation jusqu’à la paroi [18]

8-2022 Copyright © - Techniques de l’Ingénieur - Tous droits réservés IN 249 - 3

115
Référence Internet
IN249

INNOVATION

Oxygène (O)

Hydrocarbure (CH4) vs hydrate


Carbone (C)

Hydrogène (H)

a Hydrocarbure = (CH4)n

40 % plus d’atomes H
85 % plus d’atomes C
b dans l’hydrocarbure

4
que dans l’hydrate

Hydrate = (CH4 + 6 H2O)n

Figure 4 – (a) Hydrocarbure (CH4) en phase liquide avec une présence d’eau en trace provenant de la condensation dans le pipeline,
(b) hydrate de méthane. Une cage de glace contenant 6 molécules H2O permet de piéger une molécule d’hydrocarbure [14]

À retenir

— La localisation des bouchons d’hydrates dans les pipeli-


nes sous-marins permettra d’agir et de s’en débarrasser.
— L’imagerie thermique et la détection gamma ne peuvent
pas être appliquées en milieu sous-marin. Les techniques uti-
lisant les ultrasons comme moyen de détection sont des tech-
niques de contact et ont une sensibilité limitée dans le cas des
pipelines sous-marins.
— Les techniques utilisant des neutrons pour détecter des
hydrates en formation sont sensibles à la différence de com-
position entre les hydrocarbures et les hydrates en formation.
Leur localisation in situ et sans contact peut être envisagée.

2. Matériels et techniques
expérimentales Acier

Colle Polypropylène syntactique

2.1 Description des pipelines sous-marins


Figure 5 – Constitution d’un pipeline sous-marin [34]
Les pipelines commerciaux actuels sont constitués de tuyaux
d’acier (acier X65) de diamètre extérieur compris entre 150 et
500 mm et avec une épaisseur pouvant varier entre 15,0 et conduit à une réduction de la conductivité thermique et donc une
40,0 mm. Ils sont recouverts d’une couche de polypropylène meilleure isolation thermique [33].
poreux, encore appelé « polypropylène syntactique », de typique- Deux demi-tuyaux, comme celui présenté sur la figure 5, sont
ment 90,0 mm d’épaisseur, qui sert d’isolant thermique (figure 5). préparés afin d’être envoyés au réacteur de neutrons MLZ à
Cet isolant est constitué de polypropylène classique ((C3H6)n de Munich, pour réaliser des expériences dans des conditions pro-
densité 0,9 g/cm3) dont les pores sont remplis de microbilles de ches des conditions réelles. Les dimensions du tuyau sélectionné
quartz (SiO2, figure 6). L’ajout de microbilles dans les polymères pour les essais sont les suivantes : un diamètre extérieur de
est souvent utilisé afin d’améliorer les propriétés thermiques de la 428,5 mm, une épaisseur d’acier de 20,65 mm (grade d’acier
couche d’isolant [32]. La densité des microbilles de quartz est de type X65) et une épaisseur de 90,2 mm de couche isolante
d’environ 0,38 g/cm3, ce qui abaisse la densité du polypropylène de type polypropylène poreux. Les demi-tuyaux ont chacun une
poreux à 0,685 g/cm3 (ce qui correspond à une charge massique longueur de 400 mm et pèsent environ 60 kg. À noter que cer-
de 23,9 % de microbilles de quartz). Cette diminution de densité tains pipelines sous-marins sont dits « doubles » car ils ont une

IN 249 - 4 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 8-2022

116
Référence Internet
P2145

Avancées technologiques
des sources et capteurs térahertz
Vers le transfert industriel

par Patrick MOUNAIX


Directeur de recherche, CNRS
IMS UMR CNRS 5218, Bât. A31, 351 cours de la Libération, Talence Cedex, France

1. Évolution dans le temps des nouvelles technologies ................ P 2 145 - 2


2.
2.1
Caméras THz ..........................................................................................
Imageurs électroniques non refroidis ....................................................


5
5
4
2.2 Imageurs thermiques............................................................................... — 5
2.3 Techniques d’imagerie térahertz ............................................................ — 7
3. Nouvelles sources commerciales .................................................... — 11
3.1 Couverture totale de la bande THz ......................................................... — 11
3.2 Émetteurs-récepteurs radar térahertz FMCW ........................................ — 12
3.3 Lasers à cascade quantique .................................................................... — 15
4. Nouveaux traitements numériques ................................................. — 16
4.1 Holographie .............................................................................................. — 16
4.2 Imagerie monopixel................................................................................. — 17
5. Applications industrielles .................................................................. — 19
5.1 Contrôle non destructif CND ................................................................... — 19
5.2 Mesure d’épaisseurs microniques dans des multicouches
de matériaux............................................................................................. — 20
5.3 Communication très haut débit courte distance ................................... — 23
6. Conclusion générale ............................................................................ — 25
7. Glossaire ................................................................................................. — 25
Pour en savoir plus ....................................................................................... Doc. P 2 145

e rayonnement térahertz (THz) est un candidat prometteur pour la radio-


L graphie industrielle et de nombreuses applications d’imagerie pour le
contrôle non destructif CND en raison de ses nombreuses applications
uniques et intéressantes propriétés. Dans le spectre électromagnétique, les
ondes térahertz (THz) ou ondes submillimétriques sont situées entre l’infra-
rouge et les micro-ondes. La bande (ou gap) térahertz (THz) s’étale de 100 GHz
à 10 THz, correspondant à une longueur d’onde d’environ 3 à 0,03 mm. Ce sont
des rayonnements de très faible énergie, quelque meV, qui interagissant avec
la matière principalement par des modes collectifs de vibration et de rotation
des molécules. Ces rayonnements ont la propriété d’être très pénétrants dans
les matériaux diélectriques ou peu conducteurs. Cette propriété permet
d’obtenir des informations qualitatives ou quantitatives sur les matériaux par
exemple la présence de défauts par des techniques d’imagerie, leur composi-
tion et le contrôle de leurs dimensions par spectroscopie. Les avantages de la
technologie térahertz sont nombreux : une analyse en profondeur dans les
matériaux diélectriques, une résolution submillimétrique, un rayonnement non
Parution : février 2022

ionisant donc sans danger pour l’opérateur, un diagnostic sans contact donc

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 145 – 1

117
Référence Internet
P2145

AVANCÉES TECHNOLOGIQUES DES SOURCES ET CAPTEURS TÉRAHERTZ ______________________________________________________________________

sans altération de la pièce ou de la surface de la pièce et une forte capacité à la


détection ou la mesure de l’humidité.
Cependant, la mise en œuvre de sources térahertz reste difficile en raison
des limitations actuelles de la technologie du silicium, et peu des recherches
ont été menées. Tous ces systèmes d’imagerie sont, par conséquent,
contraints à des améliorations progressives qui sont liées à la dynamique des
progrès technologiques.
Grâce à la recherche en laboratoire dans les domaines de l’électronique
ultra-haute fréquence et de l’optoélectronique, le développement de systèmes
CND térahertz est maintenant rendu possible, notamment par le perfectionne-
ment des briques technologiques et la baisse des coûts de fabrication de leurs
composants. La technologie térahertz est applicable à différents secteurs de
l’industrie tels que le bâtiment, les transports ou encore l’agroalimentaire.

Principaux sigles Principaux sigles

4 BWO Backward Wave Oscillator (oscillateur d’onde


descendante)
QCL Quantum Cascade Laser (laser à cascade
quantique)

CMOS Complementary Metal Oxide Semiconductor RFIC Radio Frequency Integrated Circuit
(technologie silicium complémentaire) (microprocesseurs numériques et des circuits
radiofréquences)
CS Compressive Sensing (compression d’images)
RTD Resonant tuneling diode (diode à tunnel résonant)
DR Dynamic Range (plage dynamique)
SBMIR Single-Beam Multiple-Intensity Reconstruction
FFT Fast Fourier Transform (transformée de Fourier) (reconstruction d’un hologramme)

FPA Focal Plane array (réseau plan focal) SiGe Silicium Germanium

FMCW Frequency Modulated Continuous Wave (radar SLM Spatial Light Modulator (modulateur spatial de
modulé en fréquence) lumière)

Hn Harmonique de rang n TCR Temperature Coefficient of Resistance (coefficient


thermique de résistance électrique)
HBT Herero Junction Bipolar Transistor (transistor
bipolaire à hétérojonction) UTC-PD Uni Traveller Carrier Photonic Diode (photo diode
ultrarapide avec un seul type de porteurs de
HDR High dynamic Range (imagerie large gamme) charge)

IL Injection locked (verrouillé par injection) VAR Varactor (SVAR si symétrique, ASVAR si
asymétrique)
IMPATT IMPact ionization Avalanche Transit-Time diode
(temps de transit à avalanche à ionisation par xn Multiplicateur par n
impact)

LIA Lock In Amplifier (détection et amplification


synchronisées) 1. Évolution dans le temps
MMIC Monolithic Microwave Integrated Circuit (circuit
intégré monolithique hyperfréquence)
des nouvelles technologies
MOSFET Metal Oxide Semiconductor Field Effect Depuis les années 1990 où les ondes térahertz sont devenues
Transistor (transistor à effet de champ en plus facilement exploitables, les attentes des scientifiques et des
technologie silicium) industriels autour de leur emploi ont suivi des phases d’engoue-
ment puis des phases de doutes et de déceptions. Cette évolution
PA Power Amplifier (amplificateur de puissance) suit le cycle de Gartner donné figure 1 qui décrit l’évolution dans
NEP Noise Equivalent Power (puissance minimale le temps des nouvelles technologies.
équivalente au bruit) (1) Une percée technologique potentielle donne le coup d’envoi et
suscite un fort intérêt pour les différentes communautés scienti-
PLL Phase-Locked Loop (boucle à phase asservie ou fiques, économiques et industrielles. Les premières validations de
boucle à verrouillage de phase BVP) principe et l’intérêt des médias déclenchent alors une publicité
importante. Souvent, aucun produit utilisable n’existe et la viabilité
PSF Point Spread Function (fonction d’étalement du
commerciale n’est pas prouvée. Puis s’ensuit un pic des attentes
point)
démesurées.

P 2 145 – 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés

118
Référence Internet
P2145

_______________________________________________________________________ AVANCÉES TECHNOLOGIQUES DES SOURCES ET CAPTEURS TÉRAHERTZ

de capteurs THz FPA (Focal Plane Array) ont été rapportés dans la
littérature [2] [3]. Cependant, une telle intégration est accomplie au
Attentes

2 Pic d’inflation détriment de la sensibilité. Seuls les détecteurs de puissance directe


peuvent être intégrés, car les détecteurs hétérodynes plus sensibles
nécessitent des structures plus complexes. L’intégration de matrices
FPA comprend en outre une chaîne de lecture du signal qui ajoute
plus de bruit. La pleine ouverture de l’éclairage est également diluée
ent sur plusieurs pixels résultant en une dégradation supplémentaire du
sem
ircis DR dans ces configurations d’imagerie. Plusieurs éléments sources,
cla 5 Plateau de tous verrouillés mutuellement et débloqués en phase, ont égale-
l’é
de productivité ment été implémentés en technologie silicium pour augmenter la
e
nt puissance THz rayonnée.
Pe
4 Récemment, de par le marché des microprocesseurs numé-
riques et des circuits radiofréquences (RFIC), la technologie CMOS
1 Déclencheur 3 Creux de (Complementary Metal Oxide Semiconductor) voit ses dimensions
d’innovation désillusion de la largeur de grille se réduire, ce qui augmente simultanément
vitesse intrinsèque des MOSFET (Metal Oxide Semiconductor Field
Temps Effect Transistor). Mais la détérioration liée à la mise à l’échelle de
la grille et des résistances a atténué les attentes. En 2008, une
Les quatre phases principales sont le déclencheur de l’innovation 1 ,
source THz CMOS à 410 GHz ouvre la voie à des développements
puis un sommet 2 dans les attentes suivi d’un creux de désillusion 3
et enfin une phase d’éclaircissement 4 qui mène au plateau de produc-
remarquables [4]. Des composants types HBT en SiGe atteignent
tivité 5 dorénavant des fréquences maximales d’oscillation vers 500 à

4
700 GHz [5] en laboratoire.
Figure 1 – Cycle de Gartner : évolution dans le temps des nouvelles Le tableau 1 [1] résume la multitude d’innovations développées
technologies dans les deux filières technologiques pour disposer des sources
capables de fonctionner au-delà des 500 GHz. Les circuits sont réfé-
rencés selon que l’oscillateur est déverrouillé ou verrouillé avec des
(2) La publicité précoce produit un certain nombre d’histoires de chaines de multiplication de fréquence (unlocked oscillator versus
réussite – souvent accompagnées de dizaines d’échecs. Puis locked oscillator and multipliers). Côté détecteur, on observe les
viennent la confrontation à la réalité industrielle et la désillusion. mêmes tendances. Toutefois, les détecteurs au silicium offrent une
(3) L’intérêt diminue à mesure que les expériences et les implé- capacité d’intégration nettement plus élevée comparée aux techno-
mentations faillissent. Les producteurs de la technologie sont logies de détection THz à température ambiante, telles que les
ébranlés ou vacillent. Les investissements ne se poursuivent que si diodes barrières Schottky sur InP, les amplificateurs à faible bruit
les fournisseurs survivants améliorent leurs produits à la satisfac- HEMT (High-Electron-Mobility Transistor), les cellules de Golay [6],
tion des premiers utilisateurs. Puis survient la croissance. les microbolomètres [7] et autres détecteurs pyroélectriques. En rai-
son du manque de pré-amplification à faible bruit dans la bande
(4) De plus en plus d’exemples illustrent comment la technologie THz, les détecteurs de puissance au silicium sont mis en œuvre sous
peut profiter à l’entreprise. Cette nouvelle technique va être mieux forme de système de détection directement couplé à une antenne.
comprise et diffusée. Les produits de deuxième et troisième généra- Par conséquent, les méthodes principalement exploitées pour la
tions proviennent de fournisseurs plus aguerris de technologie détection directe THz sont soit un auto-mélange non quasi-statique
robuste et déployée « à façon » pour des objectifs spécifiques. Plus dans les canaux MOSFET froids [8] ou la rectification dans la jonc-
d’entreprises financent des projets pilotes ; et les entreprises conser- tion base-émetteur d’un HBT ultrarapide [9].
vatrices restent prudentes. Puis un plateau de productivité survient.
En conclusion partielle, il a été constaté que les circuits intégrés
(5) L’adoption grand public commence à décoller critères d’éva- THz à base de silicium augmentent le potentiel en imagerie et
luation de la viabilité des prestataires sont plus clairement définis. détection THz en particulier avec la compacité des systèmes. La
La large applicabilité et la pertinence de la technologie sur le mar- conception est récemment devenue un domaine de recherche avec
ché sont clairement payantes. la réalisation de percées dans l’applicatif et avec de potentielle
C’est explicitement ce type de « succes story » que suivent les intégration des composants THz. Les frontières technologiques qui
systèmes et la technologie « térahertz ». Cette lente évolution a été constituent le goulot d’étranglement pour l’adoption et la commer-
décrite dans de nombreux articles scientifiques. cialisation de la technologie THz s’amenuisent de jour en jour. En
particulier, la recherche démontre que les circuits intégrés THz ont
Parmi toutes les techniques ayant démontré la capacité à générer
permis la réalisation d’applications THz, telles que l’imagerie,
ou détecter un tel rayonnement, l’intégration de circuits en tech-
l’imagerie multi-spectrale, l’imagerie radar haute résolution, l’ima-
nologie silicium a toujours été attrayante pour les systèmes d’ima-
gerie en champ proche [10]. Les réflexions identifient deux forces
gerie THz car elle offre des avantages indéniables, y compris les
motrices pressantes majeures : premièrement, la capacité à géné-
économies d’échelle, l’intégration de systèmes monolithiques, la
rer de la puissance avec des circuits intégrés THz est étroitement
portabilité et la faible consommation d’énergie pour un système
liée aux progrès de la technologie du silicium. La technologie SiGe
complet intégré. Dans [1], qui fait un état de l’art récent sur les
HBT de niveau fonderie est sur le point de s’approprier la partie
sources intégrées, une puissance typique de rayonnement de 0 dBm
inférieure du spectre THz, et elle continue de montrer un grand
(1 mW) a été signalée pour un réseau de sources d’éclairage SiGe
potentiel de développement avec des f max prédits au-delà de
HBT (Hetero Junction Bipolar Transistor) à environ 0,5 THz.
1 THz [11]. Par conséquent, la technologie SiGe BiCMOS peut
Aujourd’hui également, les composants en Silicium peuvent désor-
apparaître comme la plate-forme technologique unique pour les
mais offrir un maximum de 150 dB de plage dynamique DR (Dyna-
composants THz à faible coût. Deuxièmement, les progrès de la
mic Range) pour l’imagerie THz. Cependant, une telle performance
technologie THz sur la base de composants III-V sont dus à l’inven-
ne peut être réalisée que lorsque toute la puissance de la source est
tion de nouvelles architectures de circuits et de systèmes qui
concentrée en un seul point qui est déplacé mécaniquement à tra-
exploitent la conception de la technologie silicium.
vers la section transversale de l’objet pour former une image ; un
détecteur hétérodyne capture alors l’information de chaque pixel. Les concepteurs de circuits intégrés THz sont confrontés à un
Pour améliorer la vitesse d’imagerie, la détection peut être paralléli- ensemble de défis interdisciplinaires, comme la conception élec-
sée à l’aide de plusieurs capteurs et de nombreux réseaux matriciels tromagnétique, les niveaux de vieillissement, la gestion de l’éner-

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 145 – 3

119
Référence Internet
P2145

AVANCÉES TECHNOLOGIQUES DES SOURCES ET CAPTEURS TÉRAHERTZ ______________________________________________________________________

Tableau 1 – Quelques références de sources intégrées réalisées en technologie CMOS


Sources à base d’oscillateurs (osc)

Puissance
Puissance
Fréquence en régime
Technologie Architecture du circuit Antenne émise Référence
(GHz) continu
(dBm)
(mW)

4 osc  verrouillés
65 nm CMOS 247 à 272 antenne fentes + lentille Si 0,5 800 [54]
+ 8 × 4 osc push
45 nm CMOS 276 à 285 osc + x2 + H2 extraction 16 radiateurs actifs distribués – 7,2 820 [35]
2 osc verrouillés + 3 osc push
65 nm CMOS 283 à 288 anneau + lentille Si – 4,1 275 [55]
en anneau
65 nm CMOS 284 à 301 osc + H3 extraction anneau – 2,7 19,2 [56]
130 nm SiGe HBT 305 à 375 2 osc push + PA + x2 patch 0 1 700 [57]
65 nm CMOS 312 à 315 osc demi quadrature 4IL + x4 4 fentes + céramique 0,8 298 [58]
4 osc à ondes stationnaires

4
130 nm SiGe HBT 332 à 352 4 patchs (plaques) – 10,5 425 [38]
+ 4 osc push
65 nm CMOS 337 à 339 16 osc verrouillés + 4 osc push 16 patchs (plaques) – 0,9 1 540 [36]
antenne à fente
130 nm SiGe HBT 426 à 437 osc Colpitts + x2 – 6,3 165 [52]
circulaire + lentille Si
antenne à fente
130 nm SiGe HBT 490 3 osc push Colpitts – 14,2 45 [59]
circulaire + lentille Si
130 nm SiGe HBT 519 à 536 osc colpitts push verrouillés anneau + lentille Si – 12 156 [53]
28 nm CMOS 524 à 555 osc couplage transversal + x3 anneau + lentille diélectrique – 22 19 [60]
65 nm CMOS 609 à 624 osc + H5 extraction anneau – 23 17 [61]
1 010 à
130 nm SiGe HBT 42 osc couplés + H4 extraction 42 slots + lentille Si – 10,9 1 100 [39]
1 016

Sources à base d’oscillateur (osc) verrouillés et de chaînes de multiplication

fente à deux polarisations


130 nm SiGe HBT 210 à 270 ampli mode fondamental 5 – [42]
+ lentille Si
mélangeur IQ fondamental
130 nm SiGe HBT 220 à 260 anneau + lentille Si 8,5 960 [7]
+ ampli
16 osc verrouillés
130 nm SiGe HBT 317 16 fentes 5,2 630 [37]
+ 2 osc push, 160 GHz PLL
45 nm Si bulk
370 à 410 réseau 8 éléments ampli + x4 8 patchs –7 1 500 [62]
CMOS
45 nm Si bulk
395 à 435 8 éléments + x4 8 slots + quartz – 10 700 [63]
CMOS
65 nm Si bulk
540 à 550 3 osc push verrouillés Colpitts antenne circulaire + lentille Si – 27 174 [64]
CMOS
65 nm Si bulk x2 + PA + x3 + PA + x5
582 à 612 anneau – 15,1 378 [65]
CMOS
65 nm CMOS 650 à 730 x5 + SVAR patch –21,3 – [66]
250 nm SiGe HBT 820 à 845 x2 + PA + x3 + PA + x5 4 patchs différents – 29 3 700 [67]
130 nm SiGe HBT 920 à 944 x4 2 patchs – 17,3 5,7 [51]

1 300 à
65 nm CMOS x5 + SVAR + x2 + ASVAr 2 patchs – 22,7 – [68]
1 460

Pour les notations, cf. tableau des sigles

P 2 145 – 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés

120
Référence Internet
P2145

_______________________________________________________________________ AVANCÉES TECHNOLOGIQUES DES SOURCES ET CAPTEURS TÉRAHERTZ

gie et de la thermique. Par conséquent, les circuits intégrés THz ne tance thermique Rth par sa capacité thermique Cth. Pour favoriser
doivent pas seulement être considérés comme des composants une détection rapide, il faut donc privilégier des structures de
compacts, peu coûteux et alternatifs à l’équipement THz tradition- transducteurs présentant le produit RthCth le plus faible possible.
nel, mais en tant que sources de nouvelles modalités d’imagerie, Un compromis est à trouver avec la résistance thermique qui
ouvrant de nouvelles applications et des marchés à créer. Donc, la inversement doit être la plus élevée possible pour assurer la meil-
science autour de la génération et de la détection s’est également leure sensibilité.
améliorée en tirant profit des avancées technologiques (se référer Les détecteurs électroniques basés sur des recombinaisons
aux articles Sources et détecteurs aux fréquences térahertz [RE 73], électron-trou dans des bandes électroniques du semi-conducteur
Lasers à cascade quantique d’imagerie THz [E 6 470]). Outre l’inté- sont plus rapides que les capteurs thermiques où les phénomènes
gration de circuit en technologie silicium, une deuxième avancée de relaxation sont plus longs. En revanche ces derniers présentent
majeure pour les applications : le déploiement de systèmes de des spectres d’absorption sur une bande de fréquence beaucoup
capteurs intégrés fonctionnant à cadence vidéo, c’est-à-dire les plus large que les détecteurs électroniques. Un moyen possible de
systèmes caméras THz temps réel. réduire le NEP d’un détecteur est de le refroidir à des températures
cryogéniques pour limiter le bruit thermique. Cependant, le coût
élevé et les contraintes techniques relatives à la réfrigération sont
un frein au déploiement de cette approche pour des applications
2. Caméras THz hors des laboratoires même si des progrès significatifs ont été
démontrés récemment.

Un imageur composé d’un unique pixel est un capteur


Dans le cadre de cette synthèse, seuls des imageurs non
monopoint ; lorsqu’il est composé de plusieurs pixels associés
refroidis fonctionnant à température ambiante sont considé-
en une matrice sur un plan, c’est un capteur matriciel. De

4
rés.
manière similaire à un appareil photographique numérique, un
capteur matriciel permet d’imager une scène plus rapidement
qu’un détecteur monopoint.
Il existe deux types de détection térahertz, les détecteurs 2.1 Imageurs électroniques non refroidis
incohérents, pour lesquels seule une information d’amplitude
ou de puissance du rayonnement est mesurée, et les détec- Les technologies d’imageurs électroniques non refroidis dans la
teurs cohérents qui permettent d’acquérir à la fois l’ampli- gamme térahertz sont nombreuses ; ces technologies ne néces-
tude et la phase du champ. sitent pas de moyens cryogéniques lourds comme l’emploi de
l’azote liquide (77 K) et pour des températures plus basses. Aussi
Une des caractéristiques d’un détecteur est sa sensibilité. La nous décrirons essentiellement celles à base de diodes Schottky et
sensibilité correspond au rapport entre signal de sortie en de transistors à effet de champ FET (Field Effect Transistors). Ces
courant ou tension et la puissance optique incidente, et est détecteurs qui peuvent être réalisés sous forme matricielle sont
exprimée en V/W ou en A/W. réalisés à partir de composants qui redressent le signal électrique
Le bruit, issu des différents composants de la chaîne de induit dans une antenne par le rayonnement térahertz.
mesure d’un détecteur est caractérisé par la densité spectrale
La diode Schottky est composée d’une jonction métal semi-
de bruit, et est donné en .
conducteur type N qui grâce à un temps de commutation très
Pour pouvoir comparer les détecteurs térahertz, qu’ils soient court et une tension de seuil très basse permet d’obtenir un
incohérents ou cohérents, il est intéressant d’utiliser le terme redressement du courant avec un temps de réponse très court
de puissance minimale équivalente au bruit NEP (Noise (< 1 ns) [13]. Avec des dimensions de l’ordre du micromètre, il est
Equivalent Power). Le NEP exprimé en est la puissance possible de détecter des rayonnements jusqu’à plus de 2 THz [14]
pour laquelle le rapport signal sur bruit RSB (signal to noise [15]. Le NEP peut descendre jusqu’à à la fréquence de
ratio (SNR)) est égal à 1 lorsque l’on intègre le signal sur une 0,891 THz pour un capteur mono pixel [16]. Les capteurs matriciels
demi-seconde. Il correspond au rapport entre la densité spec- à base de diodes Schottky ne contiennent généralement que peu
trale de bruit et la sensibilité du détecteur. Plus le détecteur de détecteurs, jusqu’à 20 pixels [17].
sera sensible et plus son bruit est faible, plus le NEP est faible.
Des détecteurs à bases de transistor à effet de champ
Un autre critère de mérite d’un détecteur pouvant être retenu couplés à des antennes peuvent aussi être utilisés comme redres-
est la puissance minimale détectable MPD (Minimum seurs radiofréquences du rayonnement THz. Lorsque les dimen-
Power Detectable) en W lorsque la fréquence d’acquisition est sions du canal du transistor sont de l’ordre du micromètre voire
définie ; il permet de plus facilement confronter les imageurs submicronique, il est possible d’atteindre des fréquences de fonc-
matriciels en mode vidéo pour leur mise en œuvre dans des tionnement dans la gamme THz [18]. Les meilleures performances
conditions réelles. Un récapitulatif des quelques détecteurs non de NEP aux fréquences subterahertz sont de l’ordre de
refroidis avec leur NEP est donné dans [12]. . Les matrices de FET peuvent être réalisées en maté-
riaux III-V (AsGa par exemple) mais aussi à base de la technologie
Un autre critère de différenciation des détecteurs ou des camé- CMOS (Complementary Metal Oxyde Semiconductor) en silicium
ras est relatif au phénomène physique de conversion du rayonne- des filières de microélectroniques industrielles. Dans ce dernier
ment optique en une grandeur mesurable électriquement. La cas, les capteurs peuvent alors être réalisés sous la forme de
détection électronique fonctionne sur le principe de l’absorption matrice contenant plus de 100 pixels [19] avec des coûts de fabri-
directe d’un photon dans un matériau semi-conducteur qui va cation relativement peu élevée.
déclencher l’excitation d’un électron. Les électrons générés sont
alors lus comme un courant électrique par un circuit électronique
de proximité. Les détecteurs thermiques reposent sur l’absorp- 2.2 Imageurs thermiques
tion du rayonnement électromagnétique par un matériau qui voit
sa température augmenter. Par exemple, dans les capteurs ther- Une caméra thermique enregistre les différents rayonnements
morésistifs, cette augmentation de température se traduit par une infrarouges (ondes de chaleur) émis par les corps et qui varient en
évolution de la résistance électrique qui peut ensuite être déchif- fonction de leur température. Trois types principaux de détecteurs
frée comme une variation de courant ou de tension. La constante thermiques sont utilisés et adaptés dans la gamme THz : les cap-
de temps du capteur thermique est reliée au produit de sa résis- teurs pyroélectriques, les microbolomètres et les cellules de Golay.

Copyright © – Techniques de l’Ingénieur – Tous droits réservés P 2 145 – 5

121
Référence Internet
P2145

AVANCÉES TECHNOLOGIQUES DES SOURCES ET CAPTEURS TÉRAHERTZ ______________________________________________________________________

Rayonnement térahertz

Absorbeur
Coefficient d’absorption optique η(λ)
Température Tabs
V R – ∆R
Thermistance
I + ∆I Température Tth
Capacité thermique Cth
Coefficient thermique de résistance électrique (TCR) γ
Pertes thermiques dans le puits thermique Gth

Figure 2 – Schéma de principe d’un microbolomètre résistif

4
Dans les trois cas, l’échauffement d’un matériau absorbant le L’absorbeur et le thermomètre sont isolés thermiquement du
rayonnement térahertz est mesuré par des techniques optiques et/ substrat – ou puits thermique – sur lequel les pixels sont réalisés.
ou électroniques. Cette isolation est réalisée au moyen d’une structure micropont
qui maintient la membrane où sont situés l’absorbeur et le thermo-
■ La cellule de Golay fonctionne sur le principe de l’expansion mètre. Cette isolation se caractérise par une résistance thermique
d’un gaz placé dans une cavité, dont une des parois est une Rth exprimée K/W (ou une conductance thermique Gth). La capacité
membrane flexible ou un diaphragme. Lorsque le rayonnement thermique Cth et la résistance thermique Rth dépendent des maté-
térahertz est absorbé, le gaz est chauffé causant son expansion. riaux utilisés et de la géométrie. La montée en température du
Cette expansion provoque une pression qui déforme la membrane bolomètre peut être modélisée par un circuit de type filtre RC ;
et cette déformation est ensuite mesurée par un système optique. cette évolution a la forme d’une exponentielle qui tend vers une
Le phénomène pneumatique mis en œuvre dans une cellule de valeur maximale avec un temps caractéristique :
Golay fait qu’un tel capteur se distingue par une sensibilité élevée
et une réponse constante sur une large gamme fréquentielle. Cela
explique pourquoi ce détecteur est généralement utilisé pour
mesurer la puissance d’une source et comme moyen de calibration Le circuit de lecture est souvent établi sur la lecture de la varia-
des autres détecteurs térahertz. Le temps de réponse est d’environ tion de courant qui traverse la résistance électrique du pixel pola-
10 ms. Elle peut-être aussi utilisée comme détecteur ponctuel pour risé à une tension constante Vbias.
l’imagerie [20] [21]. En revanche, la taille du détecteur ne permet Historiquement, cette technologie de microbolomètres a été
pas son intégration en un capteur matriciel. développée pour l’imagerie infrarouge (IR) thermique [26] [27].
Pour adapter cette technologie à la gamme THz, il a fallu prioritai-
■ Un capteur pyroélectrique fonctionne sur le principe d’une rement optimiser l’absorption du rayonnement optique THz (avec
variation temporaire de la polarisation électrique induite par le des longueurs d’onde largement supérieures à celles de l’IR), ainsi
changement de température du matériau. Comme ce phénomène que des impédances différentes. Les équipes de recherche japo-
est transitoire, un tel détecteur requiert la modulation du signal naises (NEC) ont initialement optimisé les pixels bolométriques
optique soit par voie optique (par exemple avec un hacheur), soit sans changer leur architecture mais en modifiant l’impédance de la
par voie électronique. En appliquant par une modulation de la couche absorbante [7]. Au CEA-Leti, une approche plus en rupture
source à environ de 10 Hz, le NEP d’un capteur pyroélectrique peut a été adoptée, basée sur le principe de dissocier physiquement les
atteindre environ sur une large gamme de fréquence, deux éléments clés d’un pixel bolométrique, l’absorbeur et le ther-
du THz jusqu’à l’infrarouge (0,3 à 300 THz). Des images à 0,52 et momètre. Le couplage des ondes THz est assuré par des antennes
0,71 THz révélant l’intérieur d’objets opaques à la lumière ont été chargées. Les charges sont échauffées par les courants induits par
réalisées avec ce type de détecteur [22]. D’autres images d’objets le rayonnement optique capté. Cette chaleur est alors transmise à
centimétriques obtenues grâce à un capteur matriciel à base de la couche thermorésistive placée sur la membrane suspendue du
détecteurs pyroélectriques et un laser à gaz émettant 10 mW à pixel. La variation de température induite s’accompagne d’une
2,52 THz ont été obtenues en moins de 30 s [23]. modification de la résistance électrique de cette couche qui est
alors lue par un circuit électronique situé sous le micropont dans le
■ Les bolomètres résistifs, représentés sur la figure 2, sont basés substrat, ce substrat servant aussi de puits thermique [28] [29]. De
sur la mesure électrique de la variation d’un matériau thermo- plus, dans cette architecture, l’absorption du rayonnement par le
résistif lorsque celui-ci est chauffé par un autre matériau absorbant pixel est optimisée par l’introduction d’une cavité diélectrique
le rayonnement THz incident. Ces deux fonctions, absorption et optique quart d’onde λ/4 entre la membrane et un réflecteur placé
thermomètre, peuvent être assurées par un même dispositif, mais sous cette structure suspendue sur le substrat.
actuellement les matrices micro-bolométriques développées pour Pour optimiser la sensibilité des microbolomètres, les matériaux
des caméras infrarouges et THz [24] [25] intègrent toutes un dispo- thermo-résistifs doivent présenter de forts TCR, typiquement entre
sitif absorbant (couche de TiN, par exemple), différent de la couche – 2 et – 3 %/K à 300 K. Ils doivent aussi être conçus avec des
thermorésistive. Cette dernière est constituée d’un matériau semi- membranes suspendues par des bras de conductivité thermique
conducteur, comme l’oxyde de vanadium VOX ou le silicium Gth très faible et encapsulés sous vide – typiquement à une pres-
amorphe a-Si, qui présente la propriété d’avoir un coefficient ther- sion de 10–3 mbar – pour limiter les pertes par conduction dans
mique de résistance électrique TCR (Temperature Coefficient of l’atmosphère environnante [30]. Avec une capacité thermique de
Resistance) négatif. l’ordre de 1 × 10–10 J/K et une conductance thermique 1 × 10–8 W/K,

P 2 145 – 6 Copyright © – Techniques de l’Ingénieur – Tous droits réservés

122
Référence Internet
RE263

RECHERCHE

Apport de la caractérisation in situ


dans les procédés ALD
par Jean-Luc DESCHANVRES
Chargé de Recherche CNRS
Affiliation Laboratoire des Matériaux et du Génie Physique (LMGP)
Université Grenoble Alpes, LMGP, F-38000 Grenoble, France ;
CNRS, LMGP, F-38000 Grenoble, FRANCE.
et Carmen JIMENEZ

4
Ingénieur de Recherche CNRS
Affiliation Laboratoire des Matériaux et du Génie Physique (LMGP)
Université Grenoble Alpes, LMGP, F-38000 Grenoble, France ;
CNRS, LMGP, F-38000 Grenoble, FRANCE.

Points clés
Domaine : Innovation,
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Atomic Layer Deposition (ALD)
Domaines d’application : Microélectronique, énergie, OLED, santé,
Principaux acteurs français :
Pôles de compétitivité : Minalogic, Tenerrdis
Centres de compétence : OMNT (http://www.omnt.fr/index.php/fr)
Industriels : Équipementier (Encapsulix, Annealsys, Picosun, Beneq)
Autres acteurs dans le monde :
Contact : jean-luc.deschanvres@grenoble-inp.fr ; carmen.jimenez@grenoble-
inp.fr
Parution : octobre 2016

10-2016 © Editions T.I. RE 263 - 1

123
Référence Internet
RE263

RECHERCHE

1. Contexte résonance piézoélectrique d’un cristal de quartz lors d’un


dépôt. La sensibilité est de quelques nanogrammes/cm². Pour
Comme pour l’ensemble des méthodes d’élaboration, l’opti- une vision plus approfondie du modèle physique, il est pos-
misation des propriétés recherchées d’un matériau fonctionnel sible de consulter les ouvrages dédiés explicitement à cette
élaboré par ALD est nécessairement liée à la maîtrise du pro- technique [2].
cessus d’élaboration. Cette maîtrise peut être acquise suite à Lors des procédés de dépôt physique, les éléments déposés
de très nombreuses expériences de croissance analysées par réalisent une trajectoire depuis la source vers le substrat. La
des techniques ex situ et a posteriori. Une autre façon de balance de quartz se trouve quelque part dans cette trajec-
répondre à cette demande est d’analyser in situ les espèces toire, de façon à être soumise à des conditions proches de
créées dans la phase gazeuse et de les confronter à des calculs celles du dépôt. La correction pour calculer la masse déposée
thermodynamiques [RE252]. La capacité de réaliser des ana- sur le substrat par rapport à celle déposée sur la balance se
lyses in situ au cours de la croissance permet, d’une part, réalise à partir d’un facteur de forme (Tooling factor ou fac-
d’accéder à des informations nouvelles et, d’autre part, de
teur d’outillage). Dans le procédé ALD, le dépôt a lieu de façon
réduire les temps de mise au point. Dans cet esprit, le déve-
homogène dans le réacteur pour une même température de
loppement de l’ALD n’a pas échappé à cette tendance et
dépôt, donc cette correction de géométrie ou forme n’est pas
depuis ces 20 dernières années, différentes techniques de
nécessaire. Cette homogénéité génère par contre d’autres
caractérisation ont été intégrées sur des réacteurs de dépôt
ALD. problèmes :

4 Pour présenter ici ces différentes approches, nous les hiérar-


chiserons en fonction de l’information apportée vis-à-vis du
1/ Une des premières difficultés pour l’utilisation de la QCM
pendant le procédé ALD est d’éviter que le dépôt ait lieu dans
la partie arrière du dispositif, car il peut provoquer un court-
procédé de dépôt ALD. Il existe dans la littérature des articles
qui présentent l’état de l’art de la caractérisation in situ des circuit sur le système d’oscillation [3]. Ce problème peut être
procédés ALD depuis d’autres points de vue [1]. Comme évité par la mise en place d’un balayage par un gaz neutre qui
abordé dans les articles précédents, le processus ALD peut empêche l’absorption de molécules pendant le procédé ;
être décrit et compris selon différentes profondeurs d’analyse. 2/ La deuxième difficulté provient du besoin de chauffer la
Le premier stade est la détermination de la fenêtre ALD pro- microbalance à la même température que le substrat pour
prement dite. Elle est caractérisée par l’évolution du Growth
reproduire les conditions de dépôts, c’est-à-dire à des tempé-
Per Cycle (GPC), tout d’abord selon la température de dépôt,
ratures comprises entre 50 et 400 °C. Cette température doit
mais également selon les conditions d’injection des précur-
être très bien contrôlée pour que la mesure de variation de
seurs (dose, temps d’injection ou de purge). Le second niveau
masse soit fiable et équivalente à celle déposée sur le subs-
d’analyse porte sur la détermination des mécanismes réaction-
nels soit sur l’ensemble d’un cycle complet, soit même au trat. Malheureusement, la fréquence de résonance du quartz
niveau des réactions mises en jeu au sein d’un des demi- varie avec la température [4]. Par exemple, à 177 °C, le coef-
cycles en cherchant à identifier toutes les étapes intermé- ficient de température est de 50 Hz/°C, c’est-à-dire qu’une
diaires. Enfin, comme troisième niveau complémentaire, les variation de 1 °C provoque un changement de fréquence de
analyses in situ développées peuvent également porter sur 50 Hz, équivalent à 18 Å d’Al2O3. Ce coefficient augmente sui-
l’étude des propriétés physico-chimiques des couches élabo- vant une loi en T3, rendant plus difficiles les mesures à tem-
rées. pératures de dépôt supérieures, et pratiquement impossibles à
une température de 300 °C. Une façon d’éviter ce problème
est d’utiliser une microbalance à partir d’un autre piézo-
2. Détermination du GPC électrique comme l’orthophosphate de gallium (GaPO4), qui
présente une meilleure stabilité de la réponse en fréquence
Comme expliqué dans l’article Principes Généraux de l’ALD avec la température [4].
[RE253], le procédé d’ALD se caractérise par un paramètre
propre qui remplace la vitesse de croissance en nm/s ou μm/h La variation de température peut aussi être provoquée par
utilisée dans d’autres procédés. Il s’agit de la croissance par des fluctuations thermiques induites par les pulses de vapeurs
cycle ou Growth per cycle (GPC). Ce paramètre ne peut pas de réactants ou même par des réactions exothermiques lors
être considéré comme une unité, car le cycle n’a pas une défi- du dépôt.
nition unique ni une unité connue, mais il permet de mettre La masse déposée s’obtient à partir d’une formule qui relie
en évidence la fenêtre de dépôt ALD et le caractère autolimi-
le changement de masse avec la variation de la fré-
tant du procédé. Pour la détermination du GPC in situ, en plus
des techniques classiques déjà utilisées ex situ comme les quence de résonance, . Ce modèle se base sur l’hypothèse
mesures optiques que ce soit dans le domaine visible ou que l’impédance acoustique du film déposé est égale à l’impé-
proche visible avec l’ellipsométrie ou que ce soit dans le dance acoustique du cristal utilisé. La formule est :
domaine des RX avec la réflectométrie, il y a comme méthode
très classique l’utilisation des microbalances à quartz. La mise
en œuvre de chacune de ces techniques va être illustrée dans (1)
les paragraphes suivants.
f0,q étant la fréquence de résonance fondamentale, Aq la sur-
2.1 Analyse par microbalance à quartz face exposée, ρq la densité du cristal de quartz et μq est le
module de cisaillement [2].
La façon la plus directe de calculer le GPC d’un procédé ALD
est de mesurer la masse déposée à chaque étape du cycle. La Le principe de mesure du GPC [1] consiste à établir le chan-
technique qui répond à cette approche est la microbalance à gement de masse pendant le moment initial de l’exposition au
quartz (ou QCM pour Quartz Crystal Microbalance), largement premier précurseur jusqu’à l’exposition au deuxième précur-
utilisée dans les systèmes de dépôt physique comme la pulvé- seur (m1), et le changement de masse produit dans le cycle
risation cathodique ou l’évaporation par effet Joule ou canon complète (m0). La valeur de m0 correspond directement au
d’électron. Ce type de balance se base sur la variation de la GPC, et à partir du rapport m0/m1 il est possible d’évaluer le

RE 263 - 2 © Editions T.I. 10-2016

124
Référence Internet
RE263

RECHERCHE

chemin réactionnel, qui devra être validé par d’autres 2.1.2 Suivi par QCM des dépôts des matériaux
méthodes, comme la spectroscopie d’infrarouge ou la spec- composés
troscopie de masse, qui seront présentées plus tard. Nous allons voir maintenant un exemple des mesures par
On présente maintenant quelques résultats à titre d’exemple QCM effectuées sur des matériaux composés. Si les dépôts
sur des procédés ou matériaux. sont réalisés à partir des cycles de 2 précurseurs cationiques
alternés avec un gaz actif, le procédé d’ALD permet de
2.1.1 Détermination du GPC par QCM sur des oxydes déposer :
simples i) des matériaux nanolaminés, s’il n’y a pas d’interaction entre
les nanocouches ;
L’article de Elam [5] décrit l’installation d’un cristal de ii) des alliages s’il y a interaction entre des couches d’épais-
quartz avec un balayage d’azote. La résolution de l’appareil seur similaire ;
est de 0,375 ng/cm3, qui représente une résolution de
iii) des matériaux dopés si un des cations est déposé lors de
0,007 Å pour le dépôt de ZnO en considérant sa densité de
plusieurs cycles successifs, et donc avec une fréquence supé-
5,61 g/cm3. Ce travail consiste en l’étude du dépôt de ZnO à
rieure à l’autre cation.
partir de Diethylzinc (DEZ) et H2O. La variation de masse
observée sur le cristal de quartz est analysée en termes de
Un exemple intéressant est le dépôt à 200 °C d’un nano-
variation de masse pour les différentes étapes du cycle de
composite de W : Al2O3 [7] à partir de Trimethylaluminium

4
dépôt (Figure 1). L’exposition de la surface au précurseur de
(TMA) et H2O pour l’Al2O3, et à partir de WF6 et Si2H6 pour
zinc (DEZ) provoque une forte augmentation (~120 ng/cm3).
le W. Les auteurs ont étudié les signaux détectés par le cris-
Lors de la première étape de purge, le signal diminue légère-
tal de quartz pour trois dépôts avec des concentrations de W
ment, ce qui probablement reflète une légère désorption.
différentes. Les variations détectées sur le QCM sont présen-
L’exposition à l’eau provoque une toute petite augmentation,
tées en figure 2. Pour chaque expérience, le pourcentage de
qui est suivie encore par une diminution lors de l’étape de
W est défini comme suit
purge. À partir de ces mesures et en supposant la densité du
ZnO de 5,61 g/cm3, le GPC pour le ZnO est de 2,0 Å/cycle.

Cet exemple montre la méthode standard de mesure du avec NW and NAl2O3 les nombres de cycles TMA/H2O et
GPC, en particulier sur des procédés types comme pour le Si2H6/WF6 respectivement. Les lignes indiquent la valeur du
dépôt de ZnO pour lequel la variation de masse est facilement QCM standard obtenue pour le dépôt d’Al2O3 (figure 2a et b
interprétable. Une utilisation plus poussée de cette technique à 35 ng/cm2) et pour le dépôt de W (figure c à 920 ng/cm2).
peut être trouvée dans l’article de Holmqvist [6], qui intègre Dans la Figure 2a, on voit que le dépôt de W inhibe le dépôt
les résultats obtenus par QCM via un modèle sur la dynamique d’Al2O3, qui ne récupère la valeur standard de dépôt
de la phase gazeuse et des états de surface. qu’après quelques cycles. Dans l’ensemble des résultats, on
observe que le dépôt de W est aussi inhibé par la présence
d’Al2O3, et il n’arrive pas, non plus à la valeur standard dans
le cas de forts dopages de W (80 %).

2.2 Analyse par méthode optique


200 (a) ZnO ALD
Timing = 1-5-1-5 Du fait de leur caractère non destructif et sans contact, les
T = 177 °C méthodes optiques sont très largement utilisées pour les
caractérisations in situ pour déterminer l’épaisseur d’un film
Dose Dose mince et remonter ainsi au GPC. La technique la plus courante
160 DEZ est l’ellipsométrie spectroscopique, mais des techniques alter-
Purge H2O Purge
Masse déposée (ng/cm2)

natives faisant appel à l’analyse de l’absorption ou de la


réflectance sont également utilisables dans certains cas.

120 2.2.1 Analyse par l’ellipsométrie


L’ellipsométrie est, de par sa grande sensibilité et sa relative
facilité de mise en œuvre, tout à fait adaptée pour suivre in
situ l’augmentation de l’épaisseur déposée. Une revue assez
80 complète a été publiée par Langeries et Kessel en 2009 [8].
De manière à lever la limitation liée à l’éllipsométrie mono-
∆MA ∆MA + ∆MB longueur d’onde, les études font quasiment toujours appel à
l’ellipsométrie spectroscopique. La contrainte particulière ici
40 est de réaliser les mesures avec un temps de réponse suffi-
samment court si on veut effectuer un suivi dynamique au
cours de chaque demi-cycle de dépôt. Il y a aussi, comme de
manière générale avec cette technique, la difficulté associée
0 au choix du modèle utilisé pour effectuer le fit des données.
0 2 4 6 8 10 12
2.2.1.1 Mise en œuvre de la configuration
Temps (s) expérimentale
L’installation d’un ellipsomètre nécessite la présence sur la
Figure 1 – Variation de la masse déposée obtenue sur la QCM chambre de dépôt de ports optiques présentant le plus sou-
pour un pulse de ZnO (Reproduit à partir de [5], © 2003, vent un angle par rapport à la normale proche de 70°, et pou-
American Chemical Society) vant être balayés par un flux de gaz afin d’éviter le dépôt sur

10-2016 © Editions T.I. RE 263 - 3

125
Référence Internet
RE263

RECHERCHE

250 250 1 200

Al2O3 Al2O3 Al2O3


(a) 20 % W (b) 50 % W (c) 80 % W
W W 1 000 W
200 200
Variations QCM (ng/cm2)

Variations QCM (ng/cm2)

Variations QCM (ng/cm2)


800
150 150

600
100 100
400

50 50
200

0 0
0

4
0 5 10 15 20 0 5 10 15 20 0 5 10 15 20
Cycles ALD Cycles ALD Cycles ALD

Figure 2 – Variation de la mesure en masse détectée par la QCM en fonction de l’exposition alternée au précurseur d’aluminium ou
tungsten [7]. Les lignes solides correspondent à la valeur QCM obtenue lors du dépôt réalisé uniquement pour un des éléments

les fenêtres (figure 3). L’utilisation des longueurs d’onde dans de l’épaisseur déposée pendant chaque demi-cycle. Ainsi
le visible n’impose pas des contraintes particulières sur la Muneshwar [9] montre dans son étude sur la croissance de
nature des matériaux utilisés pour les fenêtres. ZrN, qu’à partir de telles mesures il est possible, en utilisant
un modèle de Bruggeman (effective-medium-approxima-
2.2.1.2 Quelques exemples d’études in situ tion, EMA), de mettre en évidence une croissance en mode
Avec un modèle adapté, les mesures permettent de remon- diffusif, intermédiaire entre le mode de croissance couche par
ter à l’épaisseur déposée à chaque cycle comme le montre la couche et celui aléatoire [R6490v1].
figure 4 mettant en évidence un comportement linéaire de la
croissance dans le cas de couches d’oxyde ou de nitrure [8]. 2.2.2 Analyses optiques alternatives
La technique permet également de mettre en évidence des Différentes techniques optiques basées sur l’analyse de
effets de retard à la nucléation comme montrée dans la l’intensité du faisceau réfléchi ont été également employées
figure 5 où le dépôt de TiN sur Si/SiO2 ne démarre qu’après pour caractériser la croissance in situ. On peut citer la spec-
un temps d’incubation de 20 cycles. troscopie de différence de réflectivité ou spectroscopie
La réalisation de la mesure dans un temps de réponse court d’anisotropie de réflectivité (RDS pour reflection difference
pour certains dispositifs permet aussi d’accéder à l’évolution spectroscopy ou RAS pour reflection anisotropy spectroscopy)
[10] où, sous incidence normale, la différence de réflectivité
est mesurée pour deux azimuths correspondant à deux direc-
tions cristallographiques différentes. Cette approche n’est
applicable que pour la croissance de couches épitaxiales d’un
matériau anisotrope. D’autres méthodes étudient l’intensité du
ICP (Dispositif à plasma faisceau réfléchi pour une incidence réglée exactement à
par couplage inductif) l’angle de Brewster. Quand les modifications sont liées à
l’absorption du matériau déposé, on parle de technique de
Source de lumière Détecteur
photoabsorption de surface (SPA – Surface PhotoAbsorp-
tion) [11] et dans le cas de matériau diélectrique transparent,
on parle de technique de réflectivité diélectrique incré-
mentale (IDR – Incremental dielectric refection) [12]

Substrat 2.3 Analyse avec le rayonnement X


Comme méthode optique spécifique, il faut mentionner les
travaux plus récents qui utilisent le rayonnement synchrotron
Vers le pompage

Port optique gauche Port optique droit


avec un balayage de gaz avec un balayage de gaz pour caractériser in situ la croissance des films. Dans ce cas,
la mise en œuvre est beaucoup plus lourde avec l’intégration
d’une chambre de dépôt sur un diffractomètre d’une ligne de
lumière. Cette approche, qui permet d’avoir accès à d’autres
informations (cf § 4.1.3), a été mise en œuvre seulement par
quelques équipes dans le monde [13], [14], [15], [16], [17].
Avec de tels dispositifs expérimentaux, la détermination de
Figure 3 – Exemple d’intégration d’un ellipsomètre l’épaisseur déposée peut être obtenue soit par l’analyse du
spectroscopique avec un balayage des ports optiques signal de fluorescence X, soit par la réalisation de mesure de
par un flux de gaz [9] réflectométrie en cours de croissance.

RE 263 - 4 © Editions T.I. 10-2016

126
Référence Internet
RE213

RECHERCHE

Le rayonnement térahertz
pour l’analyse des matériaux
du patrimoine culturel
par Julien LABAUNE
Docteur de l’École polytechnique (C2RMF),
Ingénieur ONERA (DMPH-FPA)
et Emmanuel ABRAHAM
Maître de conférences (HDR) au Laboratoire ondes et matière d’Aquitaine (LOMA),
CNRS UMR 5798, université Bordeaux 1 4
Résumé : Le rayonnement térahertz, grâce à son fort pouvoir de pénétration à
travers de nombreux matériaux opaques, présente sans conteste des atouts
considérables pour l’analyse des objets issus de notre héritage culturel. Pour s’en
convaincre, nous proposons à travers cet article de résumer les récents résultats que
nous avons pu obtenir dans ce domaine à l’aide de deux dispositifs d’imagerie térahertz
complémentaires, portables et mis à la disposition des musées nationaux et
internationaux.

Abstract : Terahertz radiation, owing to a high penetration through numerous


opaque materials, offers a great potential for the analysis of artifacts related to our
cultural heritage. In order to convince the reader, we propose in this article to resume
our recent results obtained in this domain with two complementary portable terahertz
imaging systems, directly installed in national and international museums.

Mots-clés : Imagerie, spectroscopie, térahertz, peintures, fresques, sculptures

Keywords : Imaging, spectroscopy, terahertz, paintings, frescoes, sculptures

Points clés
Domaine : techniques d’imagerie et d’analyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : optique, électronique, traitement du signal,
traitement d’image, algorithmes de reconstruction
Domaines d’application : patrimoine, archéologie, anthropologie, sécurité
Principaux acteurs français :
Pôles de compétitivité : route des Lasers (Aquitaine)
Centres de compétence :
– Centre de recherche et de restauration des Musées de France (C2RMF) ;
– Laboratoire ondes et matière d’Aquitaine (LOMA) ;
– ALPhANOV, Centre technologique optique et lasers (Bordeaux) ;
– CHARISMA : Cultural Heritage Advanced Research Infrastructure, projet euro-
péen de mise en commun des infrastructures scientifiques au profit de
conservateurs.
Industriels : CIRAM, Analyses scientifiques des objets d’art et du patrimoine
Autres acteurs dans le monde : National Institute of Information and
Communications Technology (NICT, Japon), Picometrix (USA), Teraview
Parution : février 2013

(Grande-Bretagne), GigaOptics
Contact : em.abraham@loma.u-bordeaux1.fr
http://www.loma.cnrs.fr/spip.php?auteur6

2– 2013 © Editions T.I. RE 213 - 1

127
Référence Internet
RE213

RECHERCHE

nement électromagnétique, compris entre le domaine infra-


Tableau des abréviations
rouge et celui des micro-ondes, présente en effet des
Acronyme Signification propriétés tout à fait remarquables, comme une faible absorp-
tion suite à la propagation à travers de nombreux matériaux
2D Deux dimensions (ou bidimensionnel) opaques au rayonnement visible comme les plastiques, tissus,
papier et cartons, bois, céramiques, etc. Une sorte de rayon-
3D Trois dimensions (ou tridimensionnel) nement « passe-muraille » que les conservateurs et scienti-
BFP Back-Filtered Projection fiques ne pouvaient ignorer bien longtemps pour tenter de
percer les secrets de leurs si précieuses œuvres.
CCD Charged Coupled Device Après un bref compte rendu des méthodes d’investigation
usuelles mises à la disposition des scientifiques, basées essen-
CT Computed Tomography
tiellement sur les rayonnements X, UV, visible, infrarouge ou
CW Continuous Wave sur des méthodes utilisant des particules élémentaires (élec-
trons, neutrons, etc.), nous rappellerons quelques propriétés
eV Électron-volt (1,6 × 10–19 J) essentielles du rayonnement THz. Nous présenterons ensuite
deux systèmes d’imagerie THz portables que nous avons utili-
fs Femtoseconde (10–15 s) sés afin d’examiner les objets directement sur leur lieu de
conservation. Le potentiel de ces dispositifs innovants sera

4
IR Infrarouge
illustré au travers de quelques exemples révélateurs.
MEB Microscope électronique à balayage
PIXE Particle Induced X-ray Emission
2. Méthodes d’analyse des œuvres
ps Picoseconde (10–12 s) d’art
QCL Quantum Cascade Laser
« Science » et « art » sont intriqués depuis longtemps car
RBS Rutherford Backscattering Spectroscopy l’homme a toujours été à la recherche de nouveaux matériaux
ou de nouvelles techniques pour améliorer et perfectionner
SNR Signal to Noise Ratio son travail artistique. Pour suivre les évolutions artistiques et
TDS Time-Domain Spectroscopy ou Time-Domain scientifiques successives et donc pour conserver et restaurer
Spectrometer les œuvres, comprendre les techniques de fabrication ou
simplement vérifier leur authenticité, de nombreuses
THz Térahertz (1012 Hz) techniques d’analyse scientifiques ont été adaptées et même
développées pour permettre l’analyse la plus pointue des
UV Ultraviolet matériaux issus de notre héritage culturel.
Un glossaire est présenté en fin d’article.
2.1 Rappel des méthodes usuelles
1. Contexte Il existe de nombreux ouvrages présentant les méthodes
d’investigation usuelles des œuvres d’arts. Dans cet article,
nous avons choisi de les présenter en mettant en avant la
Encore récemment, en mars 2012, la une des journaux nous finalité de l’étude menée par les scientifiques.
rappelait la quête du scientifique italien Maurizio Seracini
consistant à démontrer que La bataille d’Anghiari, fresque
murale peinte par Léonard de Vinci en 1505, est encore 2.1.1 Datation
aujourd’hui dissimulée derrière une autre fresque peinte par La datation, qui permet l’estimation de l’époque de fabri-
Giorgio Vasari en 1563 dans la salle du Grand Conseil du Pala- cation des œuvres, est sans doute la partie des sciences
zio Vecchio à Florence (NY Times du 21 avril 2002, Le Monde concernant le patrimoine la mieux connue du grand public, en
du 15 mars 2012). Comme un indice, ce dernier aurait indiqué grande partie grâce à la datation au carbone 14. Celle-ci
la voie à suivre en inscrivant directement sur son œuvre consiste à doser le rapport entre les isotopes 14 (radioactif) et
l’énigmatique message « Cerca, trova... » (« Cherche, 12 (stable) du carbone contenus dans les résidus organiques.
trouve... »). Cette quasi-exclusivité du carbone n’en fait pas l’unique tech-
Il existe aujourd’hui plusieurs techniques d’investigation nique de datation disponible. La datation par rapport isoto-
pour analyser de façon non destructive les objets d’arts. Ces pique est en fait possible avec tous les composés radioactifs à
méthodes, développées par les scientifiques (ingénieurs et condition d’avoir un renouvellement du stock disponible et des
chercheurs en physique, chimie, etc.), sont de plus en plus niveaux de concentration compatibles avec les seuils de détec-
perfectionnées afin de repousser toujours plus loin les limites tion, ce qui réduit les possibilités, mais le potassium ou
d’investigation. Il s’agit en outre, tout au moins partiellement, l’argon sont des exemples possibles.
de dévoiler l’origine historique et géographique des objets, Une autre technique de datation est la dendrochronologie
leurs méthodes de fabrication (matériaux, mise en œuvre), qui consiste à dater un objet en bois par l’analyse des cernes.
leur évolution jusqu’à nos jours (restauration, modifications) La croissance des cernes est influencée par le climat et les
et de démontrer comment aujourd’hui les restaurateurs séquences traduiront les empreintes digitales de l’époque et
peuvent au mieux procéder à leur conservation. Le sujet est du lieu. Ces deux techniques permettent de dater des objets
donc vaste et complexe... d’origine biologique.
L’objectif de cet article consiste à présenter les atouts et le Deux autres techniques peuvent être utilisées pour dater les
potentiel du rayonnement térahertz (THz) pour l’analyse des objets en argile. La première est le paléomagnétisme qui se
objets et matériaux issus de notre héritage culturel. Ce rayon- base sur la capture du champ magnétique terrestre lors de la

RE 213 - 2 © Editions T.I. 2– 2013

128
Référence Internet
RE213

RECHERCHE

cuisson. La mesure de celui-ci permet en effet de dater l’objet. L’analyse Raman se base, quant à elle, sur la diffusion iné-
La seconde est la thermoluminescence qui consiste à mesu- lastique des photons lors de l’interaction du rayonnement avec
rer la lumière émise lors du chauffage de l’objet. Lorsqu’un le milieu, ce qui entraîne une modification de la longueur
objet en argile est soumis à une irradiation (naturelle ou arti- d’onde, donnée caractéristique de la maille ou des modes de
ficielle), les électrons peuvent se retrouver piégés dans des vibration moléculaire. La spectrométrie infrarouge permet
états métastables au niveau des défauts cristallins. Lors du de détecter les fonctions chimiques présentes dans l’échan-
chauffage de l’objet, l’énergie thermique permet de les libérer, tillon par absorption vibrationnelle du rayonnement [4].
ce qui conduit à une émission radiative et, en collectant ce D’autres techniques venant de la chimie, comme la chroma-
rayonnement, il est finalement possible d’estimer le laps de tographie, peuvent aussi être utilisées pour déterminer les
temps qui s’est écoulé depuis la dernière cuisson de l’objet. composants d’un mélange en les séparant.
Enfin, certaines méthodes permettent de caractériser les
2.1.2 Analyse élémentaire propriétés mécaniques des matériaux en procédant à des tests
La seconde catégorie de techniques permet l’analyse élé- standards (tests de traction par exemple). D’autres techniques
mentaire conduisant à la connaissance qualitative ou quantita- d’analyse structurelle sont encore à l’étude aujourd’hui,
tive des atomes constituant l’objet. La technique la plus comme la nano-indentation [5].
classique pour ces mesures consiste à utiliser un microscope
à balayage électronique (MEB). Les électrons vont exciter le 2.1.4 Imagerie
nuage électronique des différents atomes qui vont rayonner à
des longueurs d’onde précises selon les principes de la méca-
nique quantique. Cette technique requiert une préparation des
échantillons (polissage et métallisation) qui implique des pré-
La dernière catégorie des méthodes usuelles d’analyse
concerne l’imagerie appliquée aux œuvres. Celle-ci peut être
utilisée soit pour conserver un enregistrement de l’état de
4
lèvements. Les cartographies au MEB permettent de distinguer l’œuvre à un moment donné, soit dans un cadre d’investigation.
la stratigraphie des coupes ou de différencier les pigments [1]. Quand on parle d’« enregistrement », la photographie est géné-
ralement l’idée immédiate qui vient à l’esprit. Cependant, des
Une autre technique est la fluorescence X où des rayons X techniques d’imagerie bidimensionnelle (2D) plein champ
sont utilisés à la place des électrons pour exciter la autres que la photographie existent. Pour rester dans un
matière [RE 200]. Cette méthode ne nécessite ni préparation domaine proche du rayonnement visible, les photographies
ni vide et peut être utilisée sur des œuvres entières. Une UV permettent d’imager les zones restaurées, alors que celles
autre technique basée sur ce principe physique est nommée en infrarouge donnent une distinction différente entre les pig-
« émission de rayons X induite par particules » ou PIXE [2]. ments de couleur proche. La réflectographie infrarouge va
Elle consiste à ioniser les éléments à l’aide de protons ou permettre de visualiser les dessins sous-jacents réalisés à base
autres particules. Pour cela, un accélérateur de particules est de carbone. En s’éloignant un peu plus en fréquence, les
encore nécessaire, mais des techniques innovantes basées sur rayons X permettent la radiographie de l’objet en transmission
des lasers plus compacts pourront peut-être le remplacer dans et rendent compte des différences de densité de celui-ci. Cette
les années à venir. technique d’imagerie sera en outre comparée à l’imagerie THz
La technique, basée sur l’accélération de particules élémen- dans la dernière partie de cet article.
taires, est la rétrodiffusion de Rutherford (RBS). Le prin- Ces techniques d’imagerie peuvent être modifiées pour res-
cipe physique correspond à un choc élastique entre l’atome tituer la structure tridimensionnelle (3D) de l’objet, comme
cible et un projectile. L’énergie de la particule rétrodiffusée va avec la tomographie par rayons X (plus connue sous le
dépendre de sa masse, de l’angle de collection ainsi que de nom de « scanner médical ») [P 950]. Dans le domaine opti-
celle de l’atome cible. C’est donc un autre moyen de connaître que, la structure 3D de l’extérieur de l’objet sera obtenue en
la nature chimique des éléments. utilisant des scanners laser 3D pour une échelle macroscopi-
Enfin, la dernière technique d’analyse élémentaire que nous que, ou la microtopographie pour une échelle mésoscopi-
mentionnons est la spectroscopie de masse. En réduisant que. Notons aussi qu’un certain nombre des techniques
les composés à l’état atomique, puis en les accélérant, il est présentées dans les sections précédentes peuvent aussi être
possible de les différencier (séparer) par calcul de la différence utilisées pour imager les objets, avec une réalisation de
de temps de vol ou l’évaluation de la déviation magnétique. l’image finale en mode « point par point » [6].
Cette méthode d’analyse permet de séparer les éléments mais
La complexité des matériaux du patrimoine est telle que le
aussi les isotopes d’un même élément.
recours simultané aux différentes techniques précitées est très
souvent nécessaire pour corréler les résultats et extraire les infor-
2.1.3 Analyse structurelle mations recherchées [7]. De même, le développement de camé-
L’analyse élémentaire est souvent insuffisante pour caractéri- ras multispectrales est encouragé afin d’analyser les œuvres
ser un objet macroscopique. L’exemple le plus connu est sans simultanément sur une grande partie du spectre des ondes élec-
doute le graphite et le diamant qui ont la même composition tromagnétiques (UV, visible et infrarouge notamment) [RE 140].
élémentaire, le carbone, mais des propriétés physiques bien dif- À l’heure actuelle, il est certain que la science liée à l’art est
férentes. Pour les différencier, il faut effectuer une analyse dite en perpétuelle évolution. Une importante contrainte est la dimi-
« structurelle » qui permet de retrouver la structure cristalline nution du nombre de prélèvements possibles et la préservation
(paramètre de maille, etc.) dans le cas des cristaux, ou la struc- nécessaire des œuvres qui impliquent l’utilisation de techniques
ture chimique (détermination des compositions moléculaires) non intrusives et non destructives. Encore aujourd’hui, il est
dans le cas des molécules [P 3 780] [P 3 781]. donc nécessaire de développer de nouvelles méthodes d’inves-
Une technique très répandue est la diffraction des rayons tigation innovantes issues de nouvelles technologies. C’est ce
X qui fonctionne comme la diffraction de la lumière – inter- que nous proposons ici de démontrer à travers l’utilisation du
action d’une onde électromagnétique avec un objet dont la rayonnement THz, avec une autre contrainte importante
dimension est de l’ordre de grandeur de sa longueur d’onde – concernant la nécessité de pouvoir déplacer le laboratoire vers
mais pour une gamme de longueurs d’onde beaucoup plus l’œuvre et non l’œuvre vers le laboratoire. Les dispositifs d’ima-
faibles [3]. Cette méthode permet de remonter aux para- gerie THz que nous aurons à développer devront donc être
mètres de maille de la structure cristalline étudiée. miniaturisés pour les rendre portables.

2– 2013 © Editions T.I. RE 213 - 3

129
Référence Internet
RE213

RECHERCHE

2.2 Rayonnement térahertz Le domaine THz a longtemps été labellisé « THz gap » (le
« fossé THz ») car la communauté scientifique l’a longtemps
2.2.1 Domaine THz ignoré. Ce désintérêt ne provenait pas de la physique
elle-même, qui permet dans le domaine THz d’étudier les
Comme nous l’avons déjà mentionné, le domaine THz se niveaux de rotation-vibration des molécules ou encore les
situe entre celui des micro-ondes et celui de l’infrarouge. À phonons dans les cristaux, mais plutôt de la pauvreté des
cause de cela, deux autres noms pourraient être attribués au sources et détecteurs THz disponibles. Depuis une quinzaine
rayonnement THz : l’infrarouge très lointain pour les opticiens d’années, l’évolution des technologies radiofréquences, avec
et les ondes submillimétriques pour les électroniciens. Son l’augmentation des fréquences des composants, et optiques,
étendue spectrale est sujette à discussion et il est généra- avec l’augmentation des longueurs d’onde et surtout la réduc-
lement admis que le domaine THz est compris entre tion des durées d’impulsions laser, a permis de développer un
0,1 THz (ou 100 GHz) et 10 THz. grand nombre de sources et détecteurs THz efficaces. Certains
d’entre eux, décrits dans la suite de cet article, permettent
aujourd’hui d’étudier les interactions matière-rayonnement
Pour les scientifiques travaillant dans le domaine THz, la dans la gamme des ondes THz ainsi que les applications pos-
fréquence est la grandeur de référence, mais les diffé- sibles du rayonnement THz dans notre vie actuelle.
rentes communautés utilisent chacune leur échelle. Les
opticiens, qui utilisent préférentiellement la longueur Les technologies THz restent souvent chères, ce qui explique
qu’elles se cantonnent encore dans les laboratoires et que le

4
d’onde, parleront du domaine compris entre 30 µm et
3 mm, alors que les chimistes familiers de la spectrosco- transfert vers les applications industrielles reste lent. Néan-
pie infrarouge parleront du domaine entre 3,33 et moins, certaines démonstrations ont déjà été réalisées avec
333 cm–1 en utilisant les nombres d’onde. Le tableau 1 succès, ce qui permet aux composants de devenir de plus en
permettra de mieux se retrouver entre les différentes plus robustes et de moins en moins coûteux. Même s’il semble
grandeurs pouvant caractériser le rayonnement THz. difficile de dresser une liste exhaustive des applications des
ondes THz, nous pouvons néanmoins citer quelques utilisations
reconnues dans les domaines de la sécurité des biens et des
Le spectre des ondes électromagnétiques, présenté sur la personnes (mise en place des scanners corporels dans les aéro-
figure 1, permet de situer les différents rayonnements et leurs ports en 2010, quelques tests avec la poste japonaise pour
applications quotidiennes. Les ondes THz sont situées aux scanner les enveloppes sans les ouvrir), du contrôle non des-
confins du domaine micro-ondes – dont les ondes peuvent tructif de matériaux (industrie de masse, industrie aérospatiale
pénétrer profondément la matière (on pensera au four à et aéronautique, etc.), de l’industrie agroalimentaire et phar-
micro-ondes de nos cuisines) – et du monde de l’optique dont maceutique, etc. Pour plus d’informations, le lecteur pourra
les longueurs d’onde sont compatibles avec le développement également se référer à l’article [RE 143], traitant des applica-
d’une imagerie de précision. Dans l’absolu, on s’attend donc à tions au sens large de la spectro-imagerie THz.
ce que les ondes THz puissent se comporter comme le trait
d’union entre ces deux domaines : nous offrir à la fois une 2.2.2 Rayonnement THz et patrimoine
pénétration efficace dans les matériaux tout en conservant
des images avec une résolution spatiale satisfaisante. Une autre manière de classer les techniques d’analyse des
œuvres d’art repose sur la base des aspects chimiques ou
physiques des mécanismes impliqués dans les mesures.
L’aspect physique peut se subdiviser en une interaction
Tableau 1 – Table de conversion THz matière-matière ou une interaction rayonnement-matière.
Lon- En se référant à la figure 1 précédente, il est possible de loca-
Fré- Nombre Tempé-
gueur Énergie liser les diverses techniques d’analyse en fonction de la fré-
quence d’onde rature
d’onde quence, avec notamment l’utilisation des radars géologiques ou
autres techniques à grande échelle pour les fréquences
1 THz 0,3 mm 33,3 cm–1 4,1 meV 47 K comprises entre les ondes radio et les micro-ondes, le

Ondes radio Micro-ondes « THz » Infrarouge Ultraviolet Rayons X

Fréquence
(Hz) 107 108 109 1010 1011 1012 1013 1014 1015 1016 1017

Figure 1 – Applications des ondes électromagnétiques en fonction de la fréquence

RE 213 - 4 © Editions T.I. 2– 2013

130
Référence Internet
RE213

RECHERCHE

« fossé THz », puis l’imagerie et la spectroscopie


UV-visible-IR [8], et enfin les rayons X pour la diffraction, la
fluorescence et les radiographies.
L’utilisation du spectre des ondes électromagnétiques pour
l’analyse des objets du patrimoine est très bien décrite dans
l’article de Janssens [9], même si l’on peut déplorer l’absence
du rayonnement THz. Néanmoins, il est apparu naturel aux
scientifiques et conservateurs d’étudier l’interaction entre le
rayonnement THz et les matériaux du patrimoine. Comme
pour les applications industrielles, brièvement énoncées précé-
demment, les avantages des ondes THz pour l’analyse des
matériaux du patrimoine culturel seront naturellement :
– l’aspect non intrusif et non destructif de l’interaction
onde-matière en raison de la faible énergie déposée par le
rayonnement (quelques meV, voir tableau 1) ;
– la bande spectrale du rayonnement correspondant au
domaine d’énergie de rotation-vibration des molécules (ce qui

4
permet donc, a priori, de les identifier) ;
– la relativement bonne profondeur de pénétration des
ondes à travers les matériaux isolants et non conducteurs
(voir les quelques exemples présentés au cours de cet Figure 2 – Image d’un papillon en graphite sous 5 mm
article) ; de plâtre [12]
– la possibilité de réaliser des images et de les confronter à
celles obtenues par les autres méthodes d’investigation.
publiée dans des revues d’optique ou de conservation. On
Le premier article concernant l’utilisation du rayonnement
observe actuellement une nette transition allant de l’analyse
THz pour l’étude du patrimoine est un acte de congrès publié
purement scientifique sur des éprouvettes (échantillons) pro-
en 2006 par l’équipe de Martin Koch (Technical University of
duites en laboratoire, vers celle d’œuvres réelles préservées
Braunschweig, Allemagne) [10]. Il s’agissait déjà d’analyser
dans les plus grands musées du monde, comme la récente
une peinture sur chevalet par imagerie THz en transmission.
étude d’une œuvre de Giotto à la Galerie des Offices à
Les auteurs ont en outre démontré que les pigments ont une
Florence [13].
réponse THz différente selon qu’ils sont à base de plomb, de
fer et de zinc, ce qui permet de les discerner. Une année plus Les supports analysés se sont multipliés avec, par exemple, la
tard, un deuxième article était publié par l’équipe de Kaori détection d’encre sur les manuscrits [14], l’analyse de pan-
Fukunaga (NICT, Japon) relatant la possibilité de discriminer neaux de bois servant de support aux peintures sur
les pigments et les liants par analyse des spectres THz dans le chevalet [15], ou encore l’étude des dessins sous-jacents pré-
domaine très étendu 0,1 à 20 THz [11]. Un article suivant sents sous les peintures [16] [17]. Les études spectroscopiques
revient sur l’aspect spectroscopique permettant de différencier se sont également poursuivies avec une diversification des
les pigments en cherchant à exploiter la profondeur de péné- techniques de génération des ondes THz [18] ou la prise en
tration pour visualiser des fresques recouvertes d’une couche compte de la taille des grains de pigments sur l’absorption [19].
de plâtre [12]. L’une des images obtenue est présentée sur la
Un schéma récapitulant l’intérêt d’utiliser les ondes THz pour
figure 2 où un papillon dessiné au graphite est visible sous
l’analyse des peintures sur chevalet est reproduit sur la
5 mm de plâtre (objet modèle réalisé en laboratoire).
figure 3. Ce schéma simplifié traduit la transparence des
Aujourd’hui, depuis environ cinq ans que s’est développée matériaux utilisés en peinture sur chevalet et n’apparaît pas
l’étude spécifique « rayonnement THz et objets du directement reliée à l’augmentation de la longueur d’onde. En
patrimoine », une trentaine d’articles scientifiques a été effet, il apparaît que les différentes plages de longueurs

THz RX IR Visible UV

Retouches
Vernis
Peinture

Sous-couche
Primaire
d’accrochage

Support
(toile, bois, etc.)

Figure 3 – Coupe stratigraphique d’une peinture sur chevalet et profondeur de pénétration des différentes ondes électromagnétiques

2– 2013 © Editions T.I. RE 213 - 5

131
4

132
Référence Internet
RE140

RECHERCHE

La Joconde analysée à l’aide


d’une caméra multispectrale

par Mady ELIAS


Professeur à l’Université d’Evry Val d’Essonne (UEVE)
Anime le groupe « Optique et Art » à l’Institut des nanosciences de Paris (INSP) –
Université Pierre et Marie Curie (UPMC) – UMR 7588 du CNRS
et Pascal COTTE
Directeur scientifique de Lumière Technology SA
Auteur de la caméra multispectrale présentée ici 4
Résumé : La Joconde de Léonard de Vinci a été scannée par une caméra multispec-
trale en octobre 2004. 240 000 000 spectres de réflexion diffuse répartis sur l’ensemble
du tableau ont ainsi été enregistrés numériquement. L’analyse de ces spectres a permis
dans un premier temps de chiffrer la couleur de chaque pixel et d’obtenir une image de
très haute qualité. L’absorption du vernis, très dégradé, a ensuite été prise en compte
pour obtenir un dévernissage virtuel du tableau et retrouver ses couleurs originelles. La
comparaison des spectres enregistrés avec des bases de données spectrales a conduit
à l’identification des pigments utilisés par l’artiste. Enfin l’étude théorique des spectres
a permis de décrire la composition du sfumato de Monna Lisa. Une terre d’ombre a été
identifiée dans la couche superficielle de son visage, ainsi qu’un mélange composé de
1 % de vermillon et de 99 % de blanc de plomb dans la sous-couche. La technique
artistique du glacis a également été mise en évidence, technique inventée par les pri-
mitifs flamands et qui était jusqu’alors inconnue en Italie.

Abstract : Monna Lisa painted by Leonardo da Vinci has been scanned with a multi-
spectral camera in october 2004. 240 000 000 diffuse reflectance spectra divided on
the whole painting have then been digitally recorded. In a first time, the analysis of
these spectra allows quantifying the color of each pixel and producing an image with
very high quality. The absorption of the aged varnish has then been taken into account.
A virtual removing of the varnish has been realized and allows finding again the original
colors. The comparison between the recorded spectra and spectral databases allows the
identification of the pigments used by the artist. Finally, the theoretical study of the
spectra allows depicting the composition of the Monna Lisa’s sfumato. An Umber is
identified in the upper layer of her face, and a mixture of 1 % vermilion and 99 % lead
white is identified in the under layer. An artistic technique of art glaze is also under-
lined, a technique invented by the flemish primitive painters and unknown in Italy at
this period.

Mots-clés : Monna Lisa, spectres de réflexion diffuse, caméra multispectrale, sfu-


mato, dévernissage virtuel, équation de transfert radiatif.

Keywords : Monna Lisa, diffuse reflectance spectra, multispectrale camera, sfumato,


virtual varnish removing, radiative transfer equation.
Parution : juin 2010

6 – 2010 © Editions T.I. RE 140 - 1

133
Référence Internet
RE140

RECHERCHE

1. Analyse d’une œuvre d’art


L’objet principal de l’étude scientifique d’une œuvre d’art
porte sur l’identification de ses constituants, leur agencement
au sein des couches picturales et l’aspect visuel final. Ces
informations sont alors au service du conservateur, du restau-
rateur et de l’historien d’art. Or les œuvres d’art sont uniques
et fragiles. Il faut donc faire appel à des techniques non des-
tructives, sans contact, portables et donnant si possible des
résultats en temps réel. Le domaine des ondes électromagné-
tiques est alors privilégié. Plusieurs techniques répondent
actuellement à ces besoins, qui sont résumées dans l’encadré
ci-dessous [1] [2]. La caméra multispectrale présentée ici en
regroupe plusieurs, à partir d’une seule acquisition, rapide et
réalisable sur le lieu d’exposition de l’œuvre. La richesse
d’information portée par chaque spectre enregistré ainsi que
le grand nombre de spectres recueillis par la caméra en font

4
un outil d’analyse exceptionnel. Nous détaillons ci-dessous ces
techniques non destructives, classées selon le besoin spéci-
fique des acteurs du monde artistique.
Figure 1 – Réseau de craquelures du vernis sur la Joconde.
Macrophotographie obtenue avec la caméra multispectrale
Techniques d’analyse non destructives in situ des à 1 500 dpi
œuvres d’art
• Techniques d’examen : 1.2 Restauration
– la photographie noir et blanc en lumière diffuse et
rasante, en couleur, en UV, en IR et fausses couleurs ; Lors d’une intervention de restauration, la localisation
– la radiographie et l’émissiographie de rayons X ; d’éventuels repeints à retirer, la connaissance de la nature du
– la réflectométrie IR. vernis et l’identification des couches picturales sont des infor-
mations nécessaires. Elles déterminent le choix du solvant
• Techniques d’analyse : adapté au vernis à alléger et qui n’attaquera pas la couche
– la spectrométrie de réflexion diffuse et la tomographie picturale sous-jacente. Elles permettent de choisir le pigment
optique cohérente (OCT) pour l’identification des pigments à utiliser lors du comblement d’une lacune. Elles aident à défi-
et des colorants ; nir le processus approprié en cas de changement de support
– la spectrométrie Raman, la microfluorescence de (ré-entoilage par exemple). Le suivi colorimétrique et spectral
rayons X et la diffraction X pour l’identification des en cours de restauration est également un outil de contrôle
pigments ; permettant de décider de la fin d’une intervention.
– la goniophotométrie et la microscopie confocale pour la Le restaurateur peut enfin avoir à tester certains produits de
quantification de l’état de surface ; restauration (consolidants, fixatifs, nouveaux vernis) sur des
– la spectrométrie d’émission de fluorescence UV pour échantillons qu’il a préparés avant son intervention sur
l’identification des vernis. l’œuvre. Outre l’efficacité de la protection du nouveau maté-
riau testé, il doit modifier le moins possible l’aspect visuel de
l’œuvre. Les spectres fournis par la caméra multispectrale per-
1.1 Conservation mettent d’identifier les matériaux de la couleur par
comparaison avec des bases de données de référence et de
Une première étape de la conservation des œuvres du patri- mettre en évidence toute modification de l’aspect visuel.
moine porte sur un constat d’état suivi d’un archivage. Le
constat d’état comprend tout d’abord des images, en noir et 1.3 Histoire de l’art
blanc et en couleur, avec des éclairages diffus et rasant en
lumière visible, en UV et en IR. Ces images doivent être stoc- L’historien de l’art a recours à des méthodes d’appréciation
kées sans dégradation au cours du temps. Elles doivent être visuelle comparatives : entre les œuvres d’un même artiste au
portables et comparables. L’imagerie numérique haute défini- cours de sa vie, entre les œuvres de différents artistes pour
tion d’une caméra multispectrale répond à ces critères. définir une école, lors d’une demande d’authentification...
L’imagerie haute définition de la caméra multispectrale, dont
La seconde étape porte sur un constat de l’état de dégrada- les couleurs ont été normalisées, fournit un outil numérique
tion éventuel de l’œuvre le jour de l’enregistrement (réseau portable permettant cette comparaison en évitant le problème
de craquelures, vieillissement du vernis, modification de l’état de la reproduction des couleurs (tant que l’écran utilisé pour la
du support...). Le grandissement au pixel près de l’image déli- visualisation des images possède toujours la même définition).
vrée par la caméra répond à cet objectif, comme l’illustre la Le calcul des coordonnées colorimétriques de chaque pixel et
figure 1. Enfin, l’analyse du spectre de chaque pixel permet donc de plus d’une centaine de millions de points permet, de
l’identification des matériaux de l’œuvre (pigments, colorants, plus, de chiffrer la palette du peintre et fournit ainsi les
vernis) et peut être adjointe au constat d’état. moyens d’une comparaison quantitative. L’identification pig-
Ces enregistrements et leur archivage peuvent alors per- mentaire obtenue à partir des spectres de la caméra est une
mettre au conservateur de juger des conditions de information supplémentaire lors de ces comparaisons.
conservation des œuvres du patrimoine et de leur suivi lors Certains détails des œuvres sont invisibles à l’œil nu ou sur
d’une exposition ou à l’occasion d’un transport lors d’un prêt une image en lumière visible. Il s’agit par exemple des
pour une exposition temporaire. repentirs du peintre ou de dessins sous-jacents. Si la réflecto-

RE 140 - 2 © Editions T.I. 6 – 2010

134
Référence Internet
RE140

RECHERCHE

4
Les sourcils de la Joconde apparaissent alors qu’ils sont
actuellement invisibles à l’œil

Figure 3 – Image IR à 1 000 nm retranchée à l’image en


Les repentirs sur deux doigts de la main de la Joconde niveaux de gris dans le visible et contraste accentué
apparaissent

Figure 2 – Image IR en fausses couleurs

métrie IR permet d’accéder à ces informations, la caméra


multispectrale le peut également. Elle permet de plus d’ajou-
ter un traitement du signal postérieur à la prise de vue. Ce
traitement consiste soit à présenter en fausses couleurs les
acquisitions dans l’IR (figure 2), soit à soustraire les spectres
IR aux spectres visibles comme le montre la figure 3. Ces
manipulations conduisent parfois à des découvertes étonnan-
tes, comme l’ancienne position des doigts ou la présence de
sourcils invisibles aujourd’hui.
Le traitement des spectres enregistrés permet également de
réaliser un dévernissage virtuel de l’ensemble de l’œuvre.
Dans le cas d’un vernis très dégradé, comme sur la Joconde,
les couleurs originelles sont ainsi retrouvées. Le calcul des
coordonnées trichromatiques fait intervenir les caractéris-
tiques spectrales de l’éclairage. Celui-ci peut donc être modifié
dans le calcul. Ce post-traitement permet de représenter une
œuvre éclairée par une bougie, par une lampe halogène, par
une lampe à sodium ou à mercure, par un super-continuum...
même si la prise de vue a été réalisée avec un d’éclairage
Figure 4 – Prise de vue de la Joconde par la caméra
donné. Ces résultats peuvent permettre de traquer les méta- multispectrale le 19 octobre 2004
mères d’un faussaire, mais aussi de reconstituer l’œuvre telle
que le peintre la voyait.
Enfin, l’empreinte spectro-colorimétrique d’une œuvre d’art Institute de Chicago, le musée d’art de Cleveland, le musée
obtenue pour plus de cents millions de pixels deviendra un Czartoryski de Cracovie ainsi que de nombreuses collections
outil important dans la lutte contre le trafic des œuvres d’art. publiques et privées ont fait appel à sa numérisation.
Ce fut l’objet du projet européen Fingartprint [3].
2.1 Caractéristiques de l’éclairage
2. Caméra multispectrale La principale difficulté technique porte sur l’éclairage des
œuvres. Un éclairage statique traditionnel nécessiterait une
L’idée de la caméra multispectrale développée en France par quantité de lumière incompatible avec la fragilité des œuvres
Lumière Technology date de 1996. Elle a donné lieu au dépôt de (une puissance de 130 kW de lumière blanche pour une toile
deux brevets en 1998 et 2001 [4] [5]. Sa validation sur les de 12 m2 avec la configuration décrite ci-dessous). Ce pro-
œuvres d’art a été réalisée dans le cadre du projet européen blème a été résolu en ne concentrant la lumière que là où elle
CRISATEL (Conservation Restauration Innovation Systems for est utile, grâce à un projecteur en rotation, générant un
image capture and Archiving to enhance Training Education and faisceau lumineux mobile. La puissance nécessaire a ainsi été
lifelong Learning) de septembre 2001 à septembre 2004. La réduite à 2,4 kW, sans préjudice pour l’œuvre.
numérisation de la Joconde a été effectuée en octobre 2004 Le système d’éclairage est composé deux projecteurs conte-
(figure 4). Depuis, le musée Van Gogh d’Amsterdam, le musée nant chacun huit lampes à décharge aux halogénures métalli-
Kröller-Müller d’Otterlo, le musée des Beaux-Arts de Lille, l’Art ques (béryllium, thallium) associées à un réflecteur elliptique et

6 – 2010 © Editions T.I. RE 140 - 3

135
4

136
Référence Internet
RE172

RECHERCHE

Tomographie à l’aide de rayons


térahertz
par Patrick MOUNAIX
Directeur de recherches CNRS au Laboratoire Ondes et Matières d’Aquitaine
(LOMA, ex CPMOH – UMR 5798) à Talence,
et Benoit RECUR
Ingénieur de recherches CNRS au Laboratoire Bordelais de Recherches
en Informatique (LaBRI – UMR 5800) à Talence

Résumé : La tomographie par rayonnement térahertz est une technique de contrôle


non destructif (CND) permettant d’analyser et de visualiser la structure interne d’un 4
objet en 3D. Son principe consiste à enregistrer sur un détecteur adapté à ce rayon-
nement des images 2D obtenues pour différents angles, puis à reconstruire les coupes
transversales de l’objet à l’aide d’algorithmes. Grâce à ses propriétés, cette technique
offre de nouvelles perspectives dans le CND notamment pour l’analyse des matériaux
industriels de faible densité, les objets d’art et les matériaux du patrimoine culturel.

Abstract : In the application field of 3D imaging, X-Ray Computed Tomography (CT)


is an omnipresent technique which provides cross-sectional images of an object by ana-
lyzing the radiation transmitted by the sample through different incidence angles.
These remarkable properties make THz radiation very efficient for direct applications in
non-destructive inspection and the security field. Especially, a particular interest will
concern, the optimization of reconstruction associated with the preservation of the
image quality.

Mots-clés : Imagerie hyperspectrale, térahertz, tomographie 3D, spectroscopie,


infrarouge lointain

Keywords : Hyperspectral imaging, terahertz, 3D tomography, spectroscopy, far


infrared

Points clés
Domaine : Techniques d’analyse et spectroscopie
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Parution : août 2012 - Dernière validation : mars 2022

Technologies impliquées : optique, électronique, optronique, traitement du


signal, reconstruction
Domaines d’application : biologie, environnement, sécurité, culture
Principaux acteurs français :
Pôles de compétitivité : Route des Lasers™ (Aquitaine)
Centres de compétence : LOMA Laboratoire Ondes et Matière d’Aquitaine (CNRS),
Centre technologique Alphanov, ARMIR, Association pour le Rayonnement, les
Mesures et l’Imagerie Rapide, qui comprend un club « Teranaute » formé par une
dizaine de laboratoires universitaires, grands organismes et industriels travaillant
dans le domaine des ondes térahertz. GDR international TERAHERTZ « Détecteurs
et Émetteurs de Radiations Térahertz à Semi-conducteurs » (GDR CNRS 2897). Ce
GDR fédère les collaborations entre une vingtaine de laboratoires européens et
internationaux travaillant dans le domaine des composants à semi-conducteurs
pour la technologie des ondes THz.
Industriels : Nikon, Picometrix, Toptica Photonics, GigaOptics, Menlow, Synview
Contact : p.mounaix@loma.u-bordeaux1.fr, brecur@labri.fr,
http://www.loma.cnrs.fr/SLAM/teraslam-terahertz-spectroscopy-and-imaging/

8 – 2012 © Editions T.I. RE 172 - 1

137
Référence Internet
RE172

RECHERCHE

1. Contexte Un certain nombre d’autres systèmes d’acquisition basés sur


la tomographie ont été développés, comme la tomographie à
émission de positon (PET-scan) [13] [14], la tomographie
L’intérêt grandissant des communautés scientifiques pour le
d’émission monophotonique (TEMP) ou la microscopie électro-
domaine des ondes millimétriques (de 30 à 300 GHz) et submil-
nique de transmission. Plus récemment, la tomographie THz,
limétriques (de 300 GHz à 10 THz) présage un développement
basée sur les ondes millimétriques ou submillimétriques
d’applications novatrices de l’électronique rapide et de l’opti-
(bande de fréquences de 0,1 THz à 10 THz) a été
que. Dans ce contexte, la spectro-imagerie térahertz offre une
investiguée [15] [16]. Même si le support physique, le type de
potentialité de contraste optique novateur, sensible aux
radiation, et les données révélées par les images diffèrent,
niveaux vibrationnels et rotationnels des matériaux. L’aspect
tous ces procédés sont basés sur le principe d’atténuation
spectroscopique dans ce domaine de fréquence peut, dès lors,
d’un rayonnement électromagnétique à travers la
mener à une caractérisation très large bande et à une identi-
matière [P 950] [IN 20].
fication unique des matériaux ou d’échantillons. De plus, le très
fort pouvoir pénétrant de ces ondes permet d’envisager une
visualisation d’objets invisibles en surface, en volume ou opa- Mathématiquement, le processus de tomographie est
ques dans le visible. Nous nous proposons de faire un état des composé de deux étapes distinctes :
lieux des différentes approches d’imagerie tomographique en – le modèle direct, qui décrit la phase d’acquisition,
bande térahertz. Les limitations physiques et technologiques c’est-à-dire comment calculer les projections ;
seront abordées. Enfin, des illustrations en contrôle non des-

4
– le modèle inverse, qui définit la manière de recons-
tructif seront montrées. Pour de plus amples informations sur truire le volume imageant l’objet acquis.
les sciences autour du « térahertz », le lecteur peut se référer à
de nombreuses publications accessibles pour présenter et ana-
lyser cette technologie récente ([1] à [9] [RE 143] [RE 144]). 2.1 Définitions et principes
Un rayonnement électromagnétique a une énergie et un pou-
2. Principes de la tomographie voir de pénétration qui lui permet de traverser la matière. Pen-
dant ce processus, le faisceau de rayons subit fatalement une
et applications actuelles atténuation. Avec les rayons X, cette atténuation est localement
proportionnelle à la densité et à la quantité de matière traver-
La tomographie consiste en une technique d’imagerie sée. Ainsi, en radiographie X, les rayons transmis au patient
utilisée pour reconstruire le volume d’un objet à partir subissent une perte d’intensité globale proportionnelle à la
d’une série de mesures (projections) acquises depuis nature physico-chimique et à l’épaisseur des tissus traversés.
l’extérieur de celui-ci. C’est cette mesure de perte d’intensité relative – traduite en
une image en niveaux de gris – qui permet ensuite d’établir un
diagnostic.
Ce concept est apparu au début du XXe siècle, avec les tra-
vaux de Johann Radon [10] [11]. Mais il n’a été mis en pra- Dans un scanner à rayons X médical ou industriel, une
tique que dans les années 1970 lorsque le premier scanner coupe 2D de l’objet est acquise en mesurant l’atténuation des
médical à rayons X a été développé par G.N. Hounsfield et A. rayons pour différents angles autour de l’objet. Pour chaque
Cormark [12]. Une barrette de détecteurs diamétralement angle, on obtient une projection 1D. Une méthode de rétro-
opposée à un émetteur mesure l’atténuation subie par les projection permet de reconstruire la coupe 2D modélisant
rayons X au travers du patient à différents angles de visuali- l’objet acquis à partir de l’ensemble des projections [17] [18].
sation. Cette atténuation est proportionnelle à la quantité et à Une acquisition coupe par coupe permet ensuite de recons-
la densité des tissus traversés. Le volume imagé à l’intérieur truire le volume 3D.
du corps du patient est ensuite obtenu par des algorithmes de Soit par exemple un domaine f (x, y), représentant une
reconstruction spécifiques. fonction d’atténuation (figure 1a). Chaque projection 1D est

y ᏾θ(ρ) ᏾θ y
᏾θ

ρ
f (x,y)
reconstruit
f (x,y)

θ θ

x x

a b

Figure 1 – (a) Une droite de projection est définie par un angle ␪ et une position radiale ␳ . Sa valeur correspond à la somme des
valeurs f (x, y) le long de la droite. Dans le cas où f (x, y) est la fonction d’atténuation, cette valeur correspond à l’atténuation globale
subie par le rayonnement, (b) Une seule projection ne suffit pas pour retrouver le domaine initial par « rétroprojection »

RE 172 - 2 © Editions T.I. 8 – 2012

138
Référence Internet
RE172

RECHERCHE

᏾θ2 ᏾θ2
᏾θ3 ᏾θ3
y y
᏾θ1
᏾θ1

᏾θ4 ᏾θ4
θ2
θ3 θ2

θ4 θ1 θ4

x x
f (x,y)
f (x,y) reconstruit

a b

Figure 2 – (a) Acquisition de plusieurs angles distincts ; (b) L’intersection des données disponibles sur les différentes projections
4
permet de reconstruire la fonction f de manière plus précise

définie selon un angle θ. Une droite de projection suivant θ est Le nombre d’échantillons par projection est noté Nρ . Il est
donnée par sa position radiale ρ et est notée (θ, ρ). La valeur commun à toutes les projections d’une acquisition donnée. Le
de projection ᏾θ (ρ) correspond à la somme des valeurs pas angulaire entre deux projections successives est noté
f (x, y) sur la droite, c’est-à-dire à l’atténuation globale subie π
par le rayonnement le long de cette droite. dθ = . De même, on note dρ le pas d’échantillonnage sur la

Pour un angle donné, l’ensemble des valeurs ᏾θ (ρi ) définit projection, c’est-à-dire la distance entre deux droites de pro-
la projection θ, notée ᏾θ . Communément, on note ᏿ et on jections successives.
appelle « sinogramme » l’ensemble des projections acquises
et utilisées dans les algorithmes de reconstruction. Comme le Une acquisition avec Nθ projections de Nρ échantillons four-
montre la figure 1b, une seule projection « rétroprojetée » nit le sinogramme ᏿*, qui est un sous-sinogramme du sino-
dans l’espace 2D ne permet de retrouver efficacement f (x, y). gramme idéal ᏿ . Il est représenté par une image 2D, de taille
En revanche, grâce à des acquisitions à angles distincts Nρ × Nθ , où chaque ligne correspond aux valeurs d’une projec-
(figure 2a), f (x, y) est reconstruit de manière plus significa- tion. Soient iθ et iρ les index de la projection et de l’échantillon
tive et plus précise (figure 2b).
tels que 0 ⭐ iθ < Nθ et 0 ⭐ iρ < Nρ . Le pixel (iθ , iρ) contient la
Ce processus d’acquisition/reconstruction correspond
mathématiquement à la transformée de Radon [10], définie valeur ᏾θ (ρ) . Par exemple, l’image de la figure 3b représente
par Johann Radon en 1919. La transformée directe décrit la l’acquisition avec 180 projections et 512 échantillons/projec-
valeur d’une droite de projection à un angle θ et une position tion du fantôme de Shepp-Logan [20] représenté figure 3a. La
ρ par la somme des atténuations locales sur la droite première ligne (512 pixels) contient les valeurs de la projec-
(θ, ρ) [10] [11] : tion d’angle θ = 0o, la seconde ligne contient les valeurs de la
projection d’angle θ = 1o, et ainsi de suite.
∞ ∞
᏾ θ (ρ) = ∫−∞ ∫−∞ f (x, y) δ (ρ − x cos θ − y sin θ)dx dyy (1) Un tel sinogramme est utilisé pour reconstruire une image I
modélisant l’espace acquis. Cette reconstruction s’effectue
où θ et ρ sont respectivement les coordonnées angulaire et avec une version discrète de la BFP, notée R–1 telle que :
radiale de la droite (θ, ρ), et δ (•) est l’impulsion de Dirac.
Nθ −1 Nρ −1
La transformée inverse retrouve le domaine à partir de ses
projections. Soit un sinogramme ᏿ contenant l’ensemble des R−1 (i , j) = I (i , j ) = ∑ ∑ ᏾BFP
θ
(ρ) pk (θ , ρ, i , j) (3)
acquisitions ᏾ θ (ρ) telles que θ ∈ [0, π[ et ρ ∈⺢ , alors : iθ = 0 iρ = 0

π ∞ où pk est un modèle de noyau de pixel qui détermine la


f ( x , y) = ∫0 ∫−∞ Ᏺ−1 ( ν ) ∗ ᏾ θ (ρ) δ (ρ − x cos θ − y sin θ)dρ dθ (2) manière avec laquelle une projection traverse un pixel et
᏾BFP
θ
(ρ) est la projection filtrée donnée par :
où Ᏺ est la transformée de Fourier. Dans un premier temps,
cette inversion emploie un filtre rampe sur chaque projection
pour augmenter les détails. Ensuite, f (x, y) est calculée à
᏾BFP
θ
(ρ) = ∑ ν (∑ ᏾ θ (ρs )e− i2πρ ν )ei2πρν s (4)
ρs ν
partir de la somme des projections filtrées ; d’où le nom usuel
de Backprojection of Filtered Projection (BFP) donné à cette
La valeur du noyau de pixel est comprise entre 0 (aucune
méthode.
interaction entre le pixel et la projection) et 1 (interaction
Contrairement à une acquisition idéale, une acquisition totale). Usuellement, sa valeur est proportionnelle à l’aire
réelle est composée d’un nombre fini de projections Nθ unifor- commune au pixel et à la droite épaisse centrée en ρ et
mément réparties entre 0 et π (les autres sont symétriques). d’épaisseur dρ.

8 – 2012 © Editions T.I. RE 172 - 3

139
Référence Internet
RE172

RECHERCHE

a b

Figure 3 – (a) Fantôme de Shepp-Logan analytique représenté dans une image 512 ⴛ 512 pixels ; (b) Sinogramme avec 180 projections
et 512 échantillons/projections

4 2.2 Méthodes de reconstruction itératives w −1 H −1


où Dθ (ρ) =
s
∑ i = 0 ∑ j = 0 pk (θ , ρ, i, j) est la norme du segment
La méthode directe BFP est rapide à mettre en œuvre et (θ, ρ) traversant l’image et λ est un paramètre de relaxation
disponible sur la majorité des plates-formes de reconstruction affectant la vitesse de convergence. Habituellement, λ = 1.
tomographique. En revanche, elle est sensible à la discrétisa- Cette méthode utilise une image initiale I0 uniforme [25].
tion (en particulier au nombre de projections) et est peu
robuste aux bruits d’acquisition. La conception de nouvelles
techniques répondant à ces problématiques fondamentales a 2.2.2 Méthodes stochastiques
donc fait partie des axes de recherches privilégiés en tomo- Les méthodes stochastiques sont basées sur l’interprétation
graphie depuis les années 1970. Des solutions mathématiques suivante du problème de reconstruction : quelle est l’image I
ont été apportées au travers des méthodes itératives, dont on la plus probable connaissant l’observation R [26]. Les algo-
distingue deux familles : les méthodes algébriques et les rithmes itératifs qui en résultent essayent donc de maximiser
méthodes stochastiques. la probabilité p (I|R), c’est-à-dire la probabilité d’avoir I
connaissant les projections R, en utilisant le théorème de
2.2.1 Méthodes algébriques Bayes :

Les méthodes algébriques ont été introduites par Gordon et p(I )


p(I R) = p(R I ) (6)
coll. [21] [22] dans les années 1970 avec l’ART (Algebraic p(R)
Reconstruction Technique). Cette méthode basée sur le
théorème de Karzmarz effectue une correction itérative de où p (I|R) est la valeur à optimiser, p (R|I) est la probabilité
l’image Ik à l’itération k en comparant ᏾θ (ρ) mesurée avec d’avoir les projections R connaissant l’image I (la vraisem-
blance des projections). p (I) est l’information a priori sur
Rθk (ρ) calculée depuis l’image Ik–1 (en utilisant la version l’image I et p (R) est l’acquisition a priori. p (R) = 1 car les
discrète de l’équation). Depuis, plusieurs variantes de ART ont projections sont connues. En revanche, il y a plusieurs
été proposées : la Multiplicative ART (MART), l’Adaptive ART manières de considérer p (I). Sans hypothèse sur l’image,
(AART) ou encore la Simultaneous Iterative Reconstruction p (I) = 1 et on obtient l’équation p (I|R) = p (R|I). Ainsi, pour
Technique (SIRT) [23]. Ces techniques diffèrent par leurs maximiser la probabilité d’avoir l’image I connaissant les pro-
sous-itérations en projections. Alors que ART effectue une mise jections R, il faut maximiser la vraisemblance des projections
à jour par droite de projection (c’est-à-dire Nθ × Nρ mises à jour connaissant I. Cette maximisation s’obtient par la minimi-
par k-itération), SIRT corrige l’image à partir de toutes les pro- sation de la distance entre les projections calculées et les pro-
jections (c’est-à-dire une seule fois par itération). La méthode jections observées. Ce processus est donc similaire aux
SART (Simultaneous ART) est un compromis entre ART et méthodes algébriques et s’effectue par une mise à jour
SIRT [24]. Elle utilise toutes les droites d’une seule projection itérative en k de I. La méthode MLEM (Maximum Likelihood
pour l’étape de mise à jour. SART est itérative en k ∈ [0...Niter[. Expectation Maximization) [26] modélise la vraisemblance
Chaque sous-itération s, 0 ⭐ s < Nθ met à jour chaque pixel de p (R|I) par une distribution de Poisson qui aboutit à l’équation
de mise à jour d’un pixel (i, j) suivante :
Ik,s en comparant la projection mesurée ᏾θ avec R k (calculée
s θs
depuis Ik,s–1). Une super-itération k est terminée quand toutes N −1 N −1 ᏾θ (ρ)
les projections ont été utilisées. La mise à jour d’un pixel par
∑ iθθ=0 ∑ iρρ=0 pk (θ , ρ, i , j)
Rθk (ρ)
SART est donnée par l’équation suivante : I (i , j)k +1 = I (i , j)k (7)
N −1 N −1
∑ iθθ=0 ∑ iρρ=0 pk (θ , ρ, i , j)
 ᏾ (ρ) − Rk (ρ) 
Nρ −1  θs θs
∑ iρ = 0 pk (θ s , ρ, i , j) 
D (ρ)
La convergence de MLEM est relativement lente car cette
 θs  méthode utilise globalement le sinogramme. Hudson et coll.
I k , s (i , j) = I k , s −1 (i , j) + λ (5) ont proposé en 1994 l’Ordered Subsets MLEM (notée
N ρ −1
∑ iρ = 0
pk (θ s , ρ, i , j) OSEM) [27]. Les projections sont séparées en sous-ensembles
de projection pour accélérer la vitesse de convergence.

RE 172 - 4 © Editions T.I. 8 – 2012

140
Référence Internet
RE200

RECHERCHE

Analyse de tableaux de Léonard


de Vinci par spectrométrie
de fluorescence des rayons X
par Laurence DE VIGUERIE
Docteur de l’université Pierre et Marie Curie, spécialité Physique et chimie des matériaux
Vincente Armando SOLÉ

4
Docteur en physique et chercheur à l’Installation européenne de rayonnement
synchrotron (ESRF)
et Philippe WALTER
Directeur de recherche au CNRS, Laboratoire du Centre de recherche et de restau-
ration des musées de France, UMR 171 du CNRS

Résumé : Les visages de sept œuvres de Léonard de Vinci, exposées au Louvre, ont
été analysés par fluorescence des rayons X. Les spectres de fluorescence X obtenus ont
été traités grâce au logiciel PyMca permettant une analyse multicouche. Par une modé-
lisation de la stratigraphie de la peinture, il est possible d’obtenir des informations sur
la composition et l’épaisseur des couches.
Dans les œuvres les plus tardives, Sainte Anne, la Vierge et l’Enfant, la Joconde et le
Saint Jean-Baptiste, l’utilisation de glacis plus épais dans les zones sombres est
nettement mise en évidence et s’accompagne d’une modulation de l’épaisseur des
couches de blanc de plomb. Au contraire, les œuvres plus anciennes (la Belle Ferron-
nière, par exemple) semblent ne pas présenter de glacis.

Abstract : Seven paintings from Leonardo da Vinci, exhibited in the Louvre museum,
have been analysed by X-ray fluorescence. PyMca software which permits a multilayer
analysis was used for the data treatment. It is possible to get information on the layers
thickness and their composition, based on hypotheses on the layer stacking.
In the latest paintings, the Virgin and the Child with Saint Anne, The Gioconda, Saint
John the Baptist, the use of thicker glazes in the shadows is clearly shown with
variations in the thickness of the lead white layers. In the earliest paintings (la Belle
Ferronnière, for example) on the contrary, the artist would not have used glazes.

Mots-clés : Glacis, Renaissance, peinture, analyse non destructive, analyse quantita-


tive multicouche
Keywords : Glaze, Renaissance, painting, non destructive analysis, quantitative mul-
tilayer analysis

Points clés
Domaine : Techniques d’analyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Spectrométrie de fluorescence X
Domaines d’application : Analyse des œuvres d’art
Principaux acteurs français :
Pôles de compétitivité :
Centres de compétence :
Parution : mars 2011

Industriels :
Autres acteurs dans le monde :

3 – 2011 © Editions T.I. RE 200 - 1

141
Référence Internet
RE200

RECHERCHE

1. Introduction un échantillon de l’œuvre (figure 1). On pourra se référer


à [1] et [P 3 780] [P 3 781] pour la description des principales
techniques utilisées pour l’examen et l’analyse non destructive
Après les premiers examens scientifiques menés sur la
des œuvres et objets d’art. Le problème principal posé par les
Joconde au début des années 1950, Madeleine Hours conclut
techniques non destructives in situ est l’accès aux couches en
devant la subtilité des effets obtenus : « Sa technique défie
profondeur, et donc la détermination de la stratigraphie de la
les formes d’analyse ».
peinture. La fluorescence X peut permettre d’accéder à cette
Léonard de Vinci estompe les contours, adoucit les tran- stratigraphie dans certains cas, avec la meilleure connaissance
sitions, fond les ombres « comme une fumée ». C’est possible des matériaux utilisés.
d’ailleurs de ce terme, fumo en italien, qu’est dérivé le mot
sfumato aujourd’hui associé à sa technique : effet vaporeux,
« sans lignes, ni contours, à la façon de la fumée ». Ces effets 2.1 Principe de la fluorescence X
ont pu être obtenus grâce au génie et à l’habileté de Léonard La technique d’analyse par fluorescence X ayant déjà été
de Vinci, mais aussi par des innovations techniques en une présentée dans l’article [P 2 695], nous nous bornons à
période d’effervescence artistique. De nombreux artistes quelques rappels nécessaires à la compréhension.
recherchent en effet à cette époque de nouvelles techniques
pour améliorer les propriétés visuelles et de conservation de La fluorescence X est l’émission de rayons X consécutive à
leurs œuvres. La technique des glacis est issue de cette une excitation des couches atomiques profondes. Le principe

4
recherche : la superposition de ces fines couches de peinture physique qui régit cette technique est un processus atomique
translucides permet de créer des effets de profondeur et de en trois étapes (indiquées sur la figure 2a) :
volume. 1) L’ionisation en couche profonde de l’atome cible par le
Depuis, Madeleine Hours et son laboratoire d’analyse dédié faisceau de rayons X incident.
au patrimoine, situé au Louvre, des grands pas ont été faits 2) Le remplissage de la lacune électronique ainsi créée par
pour percer les secrets de l’énigmatique Mona Lisa. À cause un électron d’une couche plus externe : le retour à l’état
de leur caractère précieux, l’étude des carnations chez d’équilibre se fait par transition d’un électron d’une couche
Léonard de Vinci nécessite la mise en place d’une approche « supérieure » vers la couche présentant la lacune, et se
non destructive. En octobre 2004, une grande campagne caractérise par une diminution de l’énergie potentielle de
d’analyse de la Joconde a été menée au Centre de recherche l’atome.
et de restauration des musées de France (C2RMF). À la suite 3) Le relâchement de l’excédent d’énergie par émission d’un
de cette campagne, d’autres expériences ont été réalisées en rayon X caractéristique. On parle alors de fluorescence X.
septembre 2005 lors de l’ouverture annuelle de la vitrine pro- 3 bis) Cette énergie peut aussi être transférée à un
tégeant Mona Lisa et ont posé le premier jalon de cette étude électron périphérique qui est alors éjecté. Il s’agit de l’effet
sur la réalisation du sfumato. Une série de points alignés a été Auger, processus non radiatif, qui entre en compétition avec
étudiée par fluorescence des rayons X le long de ce visage. Ils l’émission X.
décrivent la transition de la lumière à partir du milieu du
visage, en direction de l’ombre, proche des cheveux. L’inter- 2.2 Spectre de fluorescence X
prétation des résultats a nécessité la mise en place d’une pro-
cédure de traitement des spectres de fluorescence X
2.2.1 Position des raies et analyse qualitative
permettant d’en ressortir des informations quantitatives sur
les différentes couches de peinture. Cette procédure s’appuie L’énergie émise est caractéristique de l’élément considéré.
sur un logiciel développé à l’ESRF (European Synchrotron Dans un spectre de fluorescence X (figure 3), la position des
Radiation Facility) dont l’utilisation implique une grande raies est liée au numéro atomique de l’élément et aux couches
connaissance des matériaux et de la stratigraphie de la pein- considérées. Les transitions des éléments les plus légers
ture. Cette technique, utilisée sur l’ensemble des œuvres de correspondent aux plus faibles énergies, d’après la relation de
Léonard de Vinci présentes au Louvre, a permis de mieux Moseley :
comprendre la réalisation du sfumato, en particulier dans les
E = K (Z − σ )2
ombres des visages, par la détermination de la stratigraphie
des couches présentes. avec K constante dépendante de la couche atomique mise en
Nous présenterons tout d’abord le principe de la fluorescence jeu,
X, technique d’analyse non destructive, particulièrement σ constante d’écran (voisine de l’unité pour la série K).
appropriée à l’analyse de ces œuvres, et le développement
À partir d’un spectre de fluorescence X, il est donc possible
d’une procédure de traitement des spectres qui permet d’accé-
d’identifier les éléments présents dans l’échantillon (analyse
der à des informations en profondeur sur la nature, la composi-
qualitative). Cependant, des raies d’éléments différents
tion et l’épaisseur des couches. Enfin, nous montrerons
peuvent se superposer (les raies Kα du soufre et les Mα du
comment l’ensemble de ces données nous permet de suivre
plomb, par exemple) : il faut considérer l’ensemble des raies
l’évolution de la technique de Léonard de Vinci au travers de
caractéristiques de l’élément pour conclure sur sa présence.
ces œuvres, technique qu’il a cherché à perfectionner conti-
Ainsi, la position des pics mais aussi les rapports d’intensité
nuellement afin de mieux rendre compte de la réalité et qui lui
dans la série de pics doivent être utilisés.
a permis d’atteindre une perfection admirée depuis 500 ans.
Idéalement, la fluorescence X peut être utilisée pour tous
les éléments sauf l’hydrogène et l’hélium. Cependant, les
2. Spectroscopie de fluorescence tubes à rayons X utilisés couramment n’émettent que
faiblement à basse énergie. De plus, l’analyse des éléments de
des rayons X numéro atomique inférieur à celui du silicium doit être effec-
tuée sous vide ou sous flux d’hélium : l’air absorbe fortement
On distingue, parmi les techniques d’investigation des les rayonnements d’énergie inférieure à 3 keV. En atmosphère
peintures, celles qui peuvent être réalisées directement sur d’hélium, on peut alors détecter des rayons X de plus faible
l’œuvre, sans dommage, de celles qui nécessitent de prélever énergie, jusqu’à 1 keV environ.

RE 200 - 2 © Editions T.I. 3 – 2011

142
Référence Internet
RE200

RECHERCHE

1) Approche globale

Observation à l'œil nu
et sous microscope

Photographies
Réflectographie IR

Radiographie
Émissiographie

2) Approche locale 45
3
2

4
1
Analyse invasive :
Microprélèvement (coupe stratigraphique)

Observation sous microscopie optique

Préparation de l'échantillon

Analyse non invasive


Analyse destructive Analyse non destructive
Fluorescence X Tests microchimiques Microscopie électronique à balayage
Analyse par faisceau d'ions Chromatographies Microscopie infrarouge, Raman,
Diffraction X, Raman Spectrométrie de masse Diffraction X, Fluorescence X
Spectrophotocolorimétrie TOF-SIMS

Figure 1 – Schéma des différentes techniques les plus utilisées pour l'analyse des peintures

Absorption du rayonnement N7 4f7/2


Effet photoélectrique N ....
Création d’une lacune N1 4s
hν1
Mα1
1.

M
M1 3s
Lα1 Lα3
Lα2

3bis L3 2p3/2
L L2 2p1/2
hν2 L1 2s
2. Kα1 Kα2
3. Kβ1 Kγ
K K 1s
Fluorescence Effet Auger
Émission rayons X Processus non radiatif Kβ2

a schéma de principe b notation des raies

Dans la convention de Siegbahn, encore très couramment utilisée, la lettre romaine majuscule désigne la couche de
laquelle l'électron a été éjecté, niveau final mis en jeu par la transition. Elle est suivie d'une lettre grecque qui désigne
l'intensité relative de cette transition par rapport aux autres transitions vers la même couche. La notation recommandée
par l'IUPAC est plus descriptive. Elle utilise une lettre romaine majuscule et éventuellement un numéro pour designer la
couche de laquelle l'électron a été éjecté, et celle originaire de l'électron qui effectue la transition.

Figure 2 – Schéma de principe de la fluorescence X en compétition avec l’effet Auger (a). Notation des raies (b)

3 – 2011 © Editions T.I. RE 200 - 3

143
Référence Internet
RE200

RECHERCHE

Nombre de coups

104

103

102

4 10
2 4 6 8 10
Énergie (keV)
Position des raies → analyse qualitative/Intensité des raies → analyse quantitative
Données (noir), fond continu (rouge), fit des différents éléments (autres couleurs)

Figure 3 – Spectre de fluorescence X

2.2.2 Intensité des raies et analyse quantitative La méthode des paramètres fondamentaux utilise un algo-
rithme intensité-concentration. Cette méthode permet le calcul
L’intensité des raies de fluorescence dépend de la
des rapports relatifs entre intensité et concentration à partir
concentration de l’élément, mais aussi de la composition de
des équations fondamentales, connaissant la géométrie du
tout l’échantillon (correction due aux effets de matrice, princi-
système (angles d’incidence et de sortie) et les conditions
palement l’absorption). On ne détaille pas ici les étapes de
expérimentales (distance détecteur-échantillon, nature de
calcul qui amènent à l’expression générale de l’intensité de
l’anode, tension, épaisseur de la fenêtre de béryllium...). Le
fluorescence. Pour plus de précisions, on peut se référer à [2]
principe est de poser une hypothèse sur la composition de
ou à [3]. Le taux de comptage N mesuré du groupe de raies
l’échantillon, de calculer les intensités de fluorescence à partir
caractéristiques d’un élément peut s’exprimer comme :
des équations fondamentales et de comparer avec les intensi-
tés mesurées. Des ajustements successifs de la composition
Ω sont faits jusqu’à obtenir une adéquation entre les intensités
N = I0 C ∑ Rj
4π théoriques et celles mesurées. La validité de cette méthode
j
est désormais bien établie dans le cas d’un échantillon
(algorithme utilisé pour l’analyse quantitative par le logiciel épais [6]. Pratiquement, on utilise des algorithmes et on opti-
PyMca [4]). mise par itération l’écart quadratique χ2 entre le modèle choisi
et le spectre mesuré [7].
avec I0 intensité du faisceau incident,
Différents logiciels, développés en interne ou commerciaux,
C fraction massique de l’élément, ont été mis au point et permettent la calibration des systèmes
Ω/4π angle solide de détection, de fluorescence ainsi que les corrections des effets de matrice
par les paramètres fondamentaux. Ces logiciels, tels
Rj rapports d’intensités relatives des raies, corrigées qu’AXIL-QXAS [8] le plus répandu, nécessitent en général
par les effets de matrice et le durcissement du l’utilisation de standards. Les analyses quantitatives sont réa-
faisceau incident (c’est-à-dire l’augmentation de lisées comparativement en présupposant que les standards
l’énergie moyenne du faisceau du fait de ont des compositions similaires aux échantillons analysés [9].
l’absorption, plus importante à basse énergie). Ce Des efforts récents ont été menés afin de réaliser des ana-
terme correctif prend notamment en compte lyses sans utilisation systématique de références : lorsque
l’atténuation des rayons X à travers l’ensemble des l’instrumentation est parfaitement stable et bien caractérisée,
couches. tous les paramètres sont connus, ce qui permet une quantifi-
L’analyse quantitative est la mesure des concentrations de cation sans référence [10]. Ainsi, le logiciel PyMca, dont le
chaque élément présent dans l’échantillon. Il est nécessaire de principe sera expliqué par la suite, permet, après une
prendre en compte les effets interéléments pour le calcul des calibration complète du système, de s’affranchir de l’emploi
concentrations. Deux types d’approche sont utilisés pour des standards [4].
cela [2] [5] :
– les méthodes comparatives, qui reposent sur une 2.3 Analyse des peintures
compensation expérimentale des effets de matrice ;
– les méthodes mathématiques, qui passent par la réso- Dans le cas des peintures, les objets considérés sont inho-
lution d’un algorithme. mogènes et présentent une structure en couches ce qui rend

RE 200 - 4 © Editions T.I. 3 – 2011

144
Référence Internet
RE214

RECHERCHE

Méthodes de spectroscopie
d’absorption X pour l’analyse
des matériaux du patrimoine

par Marine COTTE


HDR en chimie, Docteur en chimie de l’université Pierre et Marie Curie, Agrégée de
chimie

4
Chargée de recherche détachée du CNRS, LAMS (laboratoire d’Archéologie Moléculaire
et Structurale) UMR-8220
Chef du groupe imagerie et responsable de la ligne de lumière ID21, au synchrotron
européen de Grenoble (European Synchrotron Radiation Facility)
Émeline POUYET
Étudiante en thèse à l’université Joseph Fourier, Grenoble, au synchrotron européen
de Grenoble (European Synchrotron Radiation Facility)
Marie RADEPONT
Étudiante en thèse à l’université d’Anvers et l’université Pierre et Marie Curie, Paris VI,
LAMS (laboratoire d'Archéologie Moléculaire et Structurale) UMR-8220
et Jean SUSINI
Docteur en chimie-physique de l’université Pierre et Marie Curie
Directeur de la Division Instrumentation au synchrotron européen de Grenoble
(European Synchrotron Radiation Facility)

Résumé : Les techniques de spectroscopie d’absorption X (XANES et EXAFS) sont de


plus en plus utilisées pour l’analyse des matériaux anciens et artistiques. Cet article fait une
présentation générale des différents objets et matériaux étudiés à l’aide de ces méthodes.
Les matériaux amorphes (verres et céramiques) ont été les premiers à bénéficier de ces
nouveaux outils. Ensuite, les exemples se sont diversifiés, allant des métaux aux bois, en
passant par les pigments. Les avantages de ces techniques sont illustrés, ainsi que des
développements instrumentaux récents offrant à ces outils de nouvelles capacités.

Abstract : X-ray absorption spectroscopy techniques (XANES and EXAFS) are


increasingly used for the analysis of ancient and artistic materials. This article gives a
wide view of the different objects and materials that can be analysed with these methods.
Amorphous materials (such as glass and ceramics) were the first to benefit from these
new tools. Then, various other materials, from metals to woods, through pigments, were
also analysed similarly. The advantages of these techniques are presented as well as
recent instrumental developments offering new capabilities to these methods.

Mots-clés : spectroscopie d’absorption X ; XANES ; EXAFS ; matériaux du patrimoine ;


synchrotron ; matériaux artistiques

Keywords : X-ray absorption spectroscopy, XANES ; EXAFS ; cultural heritage ;


synchrotron ; artistic material
Parution : novembre 2012

11 – 2012 © Editions T.I. RE 214 - 1

145
Référence Internet
RE214

RECHERCHE

Points clés
Domaine : Techniques d’analyses appliquées aux œuvres d’art
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Spectroscopie d’absorption X (XANES et EXAFS)
Domaines d’application : Matériaux du patrimoine
Principaux acteurs français : Synchrotron français SOLEIL et synchrotron
européen ESRF
Pôles de compétitivité :
Centres de compétence :
Industriels :
Autres acteurs dans le monde : tous les synchrotrons dans le monde, avec une
forte activité en Allemagne (BESSY, DESY) et aux États-Unis (SSRL, APS, ALS).
Contact : cotte@esrf.fr

1. Contexte
Au-delà de leur valeur esthétique, les objets et œuvres d’art
Nombre de publications

qui constituent notre patrimoine culturel renferment une myriade


d’informations historiques sur les sociétés qui nous ont précédés. 35
Elles nous informent sur les connaissances et pratiques techni-
30
ques quotidiennes, artistiques ou industrielles des sociétés pas-
sées, basées sur des procédés physico-chimiques divers et 25
souvent sophistiqués. Elles renseignent également sur les échan-
ges et les relations commerciales entre civilisations ou encore sur 20
les migrations de populations. En complément des approches
stylistiques et historiques, les méthodes d’analyse physico-chi- 15
mique participent de façon croissante à l’étude de ces matériaux. 10
Les deux articles [P 3 780] et [P 3 781] donnent une excellente
vue d’ensemble de ces études et présentent les différentes pro- 5
blématiques dans le domaine de la science des matériaux du
patrimoine, ainsi que les principales méthodes d’analyse chimi- 0
1995
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
que (élémentaire, isotopique, moléculaire ou structurale) per-
mettant de révéler les informations que renferment ces
matériaux. Parmi ces méthodes, celles utilisant le rayonnement Année
synchrotron offrent des possibilités particulièrement adaptées à autre métal verre
la complexité de ces matériaux [1] et [P 2 700]. Ainsi, les bois pigment céramique
méthodes basées sur la spectroscopie d’absorption X (XAS pour
X-ray Absorption Spectroscopy ) ont connu un engouement plus
marqué lors de la dernière décennie [2]. Cette évolution est clai-
rement observable sur la figure 1, qui présente les différentes Figure 1 – Chronologie du nombre de publications rapportant
études réalisées sur les matériaux du patrimoine par ces métho- l’analyse d’objets ou de matériaux du patrimoine par méthodes
des, c’est-à-dire le nombre de travaux publiés en fonction du XAS
type de matériaux analysés et de leur année de publication. Ini-
tialement appliqués à l’étude des céramiques et des verres
anciens, ces procédés ont élargi leur champ d’application qui 2. Principes et pratiques
s’étend maintenant aux métaux, aux pigments ou encore aux
encres ou aux bois archéologiques. des méthodes de spectroscopie
Après un rappel sur les principes des méthodes XAS, et d’absorption X
quelques informations sur leur mise en œuvre expérimentale,
nous présentons une vue générale de l’ensemble des maté- 2.1 Principes
riaux du patrimoine analysés par ces méthodes. Les avanta-
ges et les problématiques typiques de ces études sont Nous présentons ici les principes de base des méthodes XAS.
discutés. Certains des récents développements instrumentaux Cette section se limite à une introduction générale et le lecteur
motivés par leur application à l’analyse des matériaux anciens souhaitant approfondir ces notions, notamment sur le plan
sont également présentés. théorique, pourra se référer à l’article [P 2 698].

RE 214 - 2 © Editions T.I. 11 – 2012

146
Référence Internet
RE214

RECHERCHE

a b c

Phénomène de diffusion simple


Pics du pré-seuil :
transitions des électrons Phénomène de
vers des niveaux vacants diffusion multiple d e

b
Absorption

4
Interférences Interférences
1,0 a destructives constructives

e
d
Seuil K du Cr
dans K2CrO4

E0
0,0

5,9 6,0 6,5


Énergie (keV)
Région Région
XANES EXAFS

Figure 2 – Principe des méthodes XAS [2]

Par principe, la spectroscopie d’absorption X consiste à dans la matière (figure 2). Cette structure fine renseigne sur
mesurer la variation du coefficient d’absorption µ d’un élément l’environnement chimique de l’élément analysé.
cible dans une matrice, en fonction de l’énergie E des rayons Il est habituel de distinguer plusieurs régions dans un
X incidents, selon la loi de Beer-Lambert : spectre XAS en référence à E0 , l’énergie au seuil ; elle corres-
pond à l’énergie de liaison de l’électron éjecté (figure 2). La
I (E , x) partie dite XANES (pour X-ray Absorption Near Edge
µ x = − log Spectroscopy ) couvre environ 100 eV autour du seuil. La par-
I0 (E)
tie dite EXAFS (pour Extended X-ray Absorption Fine
où I0 intensité des rayons X incidents, Structure ) s’étend sur environ 1 000 eV après le seuil. Les
spectres XAS, en particulier la partie EXAFS, montrent des
I intensité des rayons X transmis, oscillations qui sont souvent expliquées par un modèle de
x longueur du trajet optique dans le matériau analysé, mécanique classique ondulatoire associant le photoélectron
émis à une onde (figure 2b et 2e).
µ coefficient linéique d’absorption.
Quand E, l’énergie des rayons X, est suffisante pour pro-
Comme l’a observé pour la première fois en 1913 Maurice mouvoir une transition d’un électron de cœur, mais reste infé-
de Broglie, ces spectres d’absorption se caractérisent par des rieure à E0 , ces transitions se dirigent vers des niveaux
variations abruptes dites « seuil d’absorption », dont la valeur vacants des orbitales moléculaires. C’est la région dite de
correspond à l’énergie nécessaire pour arracher un électron de pré-seuil (figure 2a). Quand E est égale à E0 , un accrois-
cœur de l’atome. Si le photoélectron provient du niveau 1s, on sement brutal du coefficient d’absorption est observé : c’est le
parlera de seuil K. S’il provient d’un niveau 2s ou 2p, on par- seuil. Quand E est supérieure à E0 , l’électron atteint les états
lera de seuil L, ainsi de suite pour n = 3, 4... avec les seuils du continuum avec une énergie cinétique égale à la différence
M, N... Ces énergies de seuil étant spécifiques d’un élément entre E et E0 . Juste après le seuil, l’énergie cinétique des pho-
donné, la mesure est par nature sélective. toélectrons émis est relativement faible. Les photoélectrons
En 1920, Hertz, puis plus tard en 1931 Krönig, montrèrent ont donc un libre parcours moyen relativement grand (de
que ces seuils d’absorption ont une structure fine due à des l’ordre de plusieurs dizaines d’angströms). Ils peuvent être
oscillations d’intensité liées à la diffusion du photoélectron alors diffusés plusieurs fois par les atomes voisins les plus

11 – 2012 © Editions T.I. RE 214 - 3

147
Référence Internet
RE214

RECHERCHE

proches, ou encore diffusés sur des atomes plus éloignés de


l’atome absorbant : c’est le régime de diffusion multiple
(figure 2b). Ces trois régions pré-seuil, seuil et zone de dif- Échantillon
fusion multiple constituent la partie XANES. Le spectre XANES Diaphragme
renseigne sur l’énergie des orbitales moléculaires, la Lentille de Photodiode
configuration électronique et la symétrie de l’atome. La focalisation
position précise de l’énergie du seuil donne souvent une infor- Monocchromateur
mation sur l’état d’oxydation. Dans le cas du soufre par à lames cristallines
exemple, énergie au seuil et état d’oxydation sont liés par une
relation quasi linéaire, avec une variation d’environ 1,7 eV par Détecteur de
degré d’oxydation du soufre. Cet aspect peut être exploité fluorescence X
pour l’acquisition de cartographies chimiques (voir plus loin, Source de rayons X
en particulier figure 9). constituée de N aimants
Si l’énergie cinétique de l’électron émis lors de l’absorption
des rayons X est supérieure à 50 eV mais inférieure approxi-
mativement à 800 eV, la durée de vie du photoélectron est Figure 3 – Schéma simplifié d’une ligne de micro-
faible et l’onde associée sera rétrodiffusée par les atomes voi- spectroscopie X [2]
sins de l’atome absorbant un nombre très limité de fois : c’est

4 le régime de diffusion simple (figure 2c). Les interférences


entre ondes émises et rétrodiffusées peuvent être, soit des-
tructives (figure 2d), soit constructives (figure 2e). Il en
un champ sinusoïdal. La trajectoire des électrons est alors
imposée par ce champ intense sinusoïdal et se traduit par une
résulte des oscillations dites EXAFS. Ces oscillations sont émission très intense de rayons X, proportionnelle à N2.
caractéristiques des atomes voisins (nature, distance,
nombre) et seraient absentes dans le cas d’un atome isolé. Le deuxième élément est un monochromateur, généra-
lement constitué de deux lames cristallines parallèles. Elles
L’analyse des spectres EXAFS se fait souvent en normalisant sélectionnent, par diffraction de Bragg sur une famille de plans
le spectre par la courbe monotone théorique d’un tel atome réticulaires, une longueur d’onde et ses harmoniques. La
isolé, afin d’extraire le signal des oscillations seules. Une ana- deuxième lame assure une sortie fixe du faisceau, indépendam-
lyse par transformée de Fourier de ces oscillations permet ment de l’angle de Bragg. Ces cristaux sont généralement en
d’émettre des hypothèses quant aux atomes voisins. Dans le germanium, silicium ou diamant. Les trois critères principaux
cas des matériaux du patrimoine, déterminer la nature des élé- pour le choix de ces cristaux sont la réflectivité, la gamme spec-
ments voisins et leur distance à l’atome d’intérêt peut offrir des trale accessible et surtout la résolution spectrale obtenue, indis-
indications quant aux procédés de fabrication des matériaux. pensable pour une bonne résolution des structures des spectres
L’EXAFS peut aussi servir à suivre des modifications chimiques XAS. À titre d’exemple, deux lames de silicium, sur les plans
(changement de la nature de voisins ou changement des distan- 111, offrent une résolution ∆E/E de l’ordre de 10–4.
ces interatomiques) lors de processus de dégradation.
Le traitement théorique des spectres XANES est Viennent ensuite, dans le cas spécifique des lignes de
comparativement beaucoup plus compliqué que celui des micro-spectroscopie, des éléments de focalisation qui
spectres EXAFS et reste généralement qualitatif. L’analyse des permettent de concentrer le faisceau sur des surfaces micro-
spectres XANES se fait souvent par comparaison et métriques, voire nanométriques. Il existe une grande variété
combinaison linéaire de spectres de produits de référence. de systèmes focalisants, tous basés sur les trois phénomènes
physiques réfraction, réflexion et diffraction. Là encore, plu-
En résumé, les spectroscopies XANES et EXAFS sondent sieurs critères vont guider le choix de l’optique comme l’effica-
l’environnement chimique à très courte distance autour de cité, la résolution latérale ultime, la gamme spectrale
l’atome absorbant, sans aucune contrainte quant à la nature accessible. Pour la spectroscopie X, des systèmes achroma-
du matériau : solide, liquide, gaz ; cristallisé ou amorphe. À tiques comme des miroirs courbes utilisés en réflexion spécu-
ce titre, ces techniques sont très complémentaires de la dif- laire offrent un avantage considérable, puisque la focale est
fraction des rayons X. indépendante de l’énergie. Sur la figure 3, le système repré-
senté est une lentille de Fresnel, dispositif similaire aux len-
2.2 Mise en œuvre des spectroscopies XAS tilles de diffraction dans le visible, mais adapté ici à la
longueur d’onde des rayons X. Produits de techniques de
Il existe différentes approches expérimentales pour mesurer microélectronique, ces réseaux de diffraction circulaire, d’un
des spectres XANES et EXAFS. Celle décrite ici est la plus cou- diamètre de quelques centaines de microns, permettent
ramment mise en œuvre pour l’étude des matériaux du patri- d’atteindre des résolutions latérales de quelques dizaines de
moine. Des variantes instrumentales plus spécifiques, offrant nanomètres. Ces performances sont contrebalancées par leur
des capacités expérimentales supplémentaires, notamment chromaticité et une efficacité limitée. Enfin, un diaphragme,
pour l’imagerie, sont décrites dans le chapitre 7. placé juste avant l’échantillon permet de nettoyer le faisceau
La figure 3 représente le schéma simplifié d’une ligne de d’éventuelles contributions non souhaitées (diffusion, autres
micro-spectroscopie X. ordres de diffraction).
Le premier élément sur un instrument de XAS est la source L’échantillon est monté verticalement. Sur les lignes de
de rayons X. La continuité spectrale est indispensable pour ces spectroscopie, il existe de plus en plus de systèmes pour
méthodes, et c’est là un avantage majeur des sources de rayon- moduler l’environnement de l’échantillon (hautes ou basses
nement synchrotron. Les rayons X sont créés en soumettant températures, hautes pressions, cellules pour échantillon
des électrons, dont la vitesse est proche de celle de la lumière, liquide ou gazeux...). Dans le cas des matériaux du patri-
à des accélérations centripètes au moyen de champs magnéti- moine, ces options sont rarement utilisées (à l’exception des
ques intenses. La source représentée sur la figure 3 est un cellules électrochimiques présentées plus loin). Les mesures
onduleur. Il s’agit d’un dispositif constitué de N aimants, dispo- sont principalement faites, soit sur les objets eux-mêmes, soit
sés périodiquement avec une polarité inversée et créant ainsi sur des prélèvements souvent enrobés puis polis pour révéler

RE 214 - 4 © Editions T.I. 11 – 2012

148
Référence Internet
RE214

RECHERCHE

Détecteur de
fluorescence X

Échantillon

Platines
piézoélectriques

100 µm
Support du
diaphragme 4

Figure 4 – Préparation et montage d’un échantillon de peinture dans le microscope X sur la ligne de lumière ID21 (ESRF)

leur stratigraphie. La figure 4 montre un exemple de prélè- 3. Verres et céramiques


vement de peinture, enrobé et poli. À l’inverse de la microsco-
pie électronique à balayage, le faisceau de rayons X reste fixe
et c’est l’échantillon qui est déplacé. Dans le contexte particu- 3.1 Composition et techniques de fabrication
lier des lignes de micro-spectroscopies, la qualité des des verres et céramiques
systèmes de translation (platine piézo-électrique sur la
figure 4) est essentielle. Verres et céramiques sont deux des plus anciens matériaux
fabriqués par l’homme. La céramique, qui vient du grec kera-
Enfin, le dernier élément nécessaire à l’acquisition de don- mon signifiant argile ou vaisselle, est un terme qui désigne
nées XAS est le détecteur. Si la mesure est faite en trans- aussi bien l’art que l’objet. Considérée comme l’un des princi-
mission, le détecteur est placé en aval de l’échantillon. Elle paux marqueurs de l’archéologie, depuis le paléolithique
impose alors de travailler sur des éléments concentrés et de jusqu’à nos jours, elle est un des mobiliers archéologiques les
préparer les échantillons correctement pour en optimiser plus complexes et les plus étudiés dans ce domaine. Ces pièces
l’épaisseur. Plus couramment, pour l’analyse des matériaux du se composent d’une matrice argileuse, d’inclusions non plasti-
patrimoine, la mesure est faite en fluorescence X, sur la sur- ques et d’un éventuel revêtement tel qu’un engobe, un vernis,
face de l’objet ou de la coupe polie. L’absorption des rayons X une glaçure, etc. Les études céramologiques s’y rapportant se
est donc mesurée indirectement en collectant des rayons X doivent donc d’être variées afin de comprendre leur histoire
émis par la fluorescence X excitée lors de l’éjection de l’élec- technique. Si de nombreuses études physico-chimiques sont
tron de cœur. réalisées sur les pâtes et dégraissants utilisés dans les cérami-
ques, les couvertes de ces dernières sont souvent un traceur clé
Cette méthode n’impose donc aucune contrainte ni sur la de leur histoire. Celles-ci, en plus de véhiculer les valeurs stylis-
préparation de l’échantillon, ni sur la concentration de tiques spécifiques de leur époque (coloration, brillance..), se
l’élément d’intérêt. Dans ce cas, différents détecteurs sont dis- devaient d’être pratiques en rendant la pièce étanche et en
ponibles qui, là encore offrent des capacités complémentaires facilitant son nettoyage.
en termes de limite de détection, angle solide de détection,
dynamique, résolution spectrale... Dans la majorité des cas,
les mesures sont faites avec un système dispersif. La disper- 3.2 Intérêt des analyses XAS des verres
sion peut se faire en énergie (détecteur solide : semi-conduc- et céramiques
teur de type silicium dopé au lithium ou détecteur au silicium
à diffusion) ou en longueur d’onde (système basé sur des cris- Si les verres et les couvertes de céramique sont ici regroupés
taux). Cela permet de sélectionner la fluorescence X émise dans un seul et même chapitre, c’est que la majorité des mesu-
uniquement par l’élément d’intérêt et de filtrer la contribution res XAS sur ces matériaux s’intéresse à des procédés de fabrica-
d’autres éléments présents dans l’échantillon et éventuelle- tion qui leur sont semblables. Toutefois, il faut garder à l’esprit
ment excités lors de l’analyse. que verres, glaçures et revêtements vitreux ou cristallins des
céramiques sont issus de divers procédés d’élaboration et englo-
Le succès d’une expérience XAS repose donc sur l’optimi- bent de nombreux types de pièces artistiquement et technique-
sation synergique de ces différents éléments. ment différents. Leur structure désordonnée et isotrope ne

11 – 2012 © Editions T.I. RE 214 - 5

149
4

150
Référence Internet
RE217

RECHERCHE

Analyse non destructive


des objets d’art par méthodes
spectroscopiques portables

par Philippe COLOMBAN


Directeur de recherche CNRS
Directeur adjoint du LADIR, UMR7075 CNRS-Université Pierre et Marie Curie

Résumé : Après une brève présentation de l’histoire de l’analyse des objets d’art,
l’accent est mis sur les deux révolutions, celle des années 1950 avec la floraison de
nombreuses techniques destructives, puis celle des années 2000 avec l’apparition
4
d’instruments portables (XRF, XRD, IR, Raman, LIBS). Les processus de coloration et
les technologies propres aux Arts du Feu (céramiques, verre, métaux) offrent à l’étude
des micro- et nanostructures des marqueurs chronologiques et technologiques. La
microspectromètrie Raman, technique sans contact, portable et non destructive,
apparaît comme la méthode la plus appropriée.

Abstract : After a concise historical presentation of the analysis techniques of (fine)


art objects (painting, drawing, pastel, metal, pottery, glass), emphasis is put on two
revolutions, the 1950’ one with the blooming new palette of (destructive) methods, and
the 2000’ one with apparition of many portable instruments : XRF, XRD, IR, Raman &
LIBS. The colouring and processing « Arts du Feu » techniques are addressed, showing
that many potential chronological and technological markers remains present in the
micro- and nano-structures and many information can be recovered by non-destruc-
tive, mobile Raman microspectrometry.

Mots-clés : analyses chimiques, histoire, art, couleur, identification, faux

Keywords : chemical analysis, history, art, colour, identification, forgery

Points clés
Domaine : Techniques d’imagerie et d’analyse
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : mesures non destructives et portables ; optique,
spectroscopies
Domaines d’application : objets et œuvres d’art ; verre, céramique, matière
picturale, pigments
Principaux acteurs français : LADIR, C2RMF
Pôles de compétitivité :
Centres de compétence :
Industriels : HORIBA Scientific, Bruker Optics, Renishaw, Kayser Optical, BWTec,
Deltanu, Thermo Fisher Scientific
Autres acteurs dans le monde : Bradford University, Art Institut Chicago,
Ghent University, University of the Basque Country, Victoria & Albert Museum,
Parution : novembre 2012

University of Modena, University of Padua


Contact : philippe.colomban@upmc.fr/ http://www.ladir.cnrs.fr/

11 – 2012 © Editions T.I. RE 217 - 1

151
Référence Internet
RE217

RECHERCHE

1. Contexte L.-B. Guyton de Morveau, C.-L. Berthollet, A.-T. Vandermonde,


G. Monge (1786) et N. Vauquelin (1797) initièrent les analyses
d’objets métalliques. G. Pearson (1796) puis P. Anossov
Nombre d’objets d’art ont été des objets de haute technolo- (1821), M. Faraday (1822), J.-R. Bréant s’intéressèrent active-
gie, particulièrement en ce qui concerne les Arts du Feu ment aux aciers damassés [16]. Les différences de
(objets en métal, céramiques, verres et émaux...). Les grands compositions étant plus subtiles que dans les verres et cérami-
maîtres, artistes et/ou artisans, ont toujours cherché à déve- ques, les résultats pertinents datent du milieu du siècle suivant
lopper une maîtrise technique exceptionnelle pour réaliser des (F. Le Play (1846), C. Engelhardt (1865)) et les véritables ana-
œuvres surpassant celles de leurs pairs. Ces « secrets » lyses chimiques du début du XXe siècle (H. Hanemann (1913),
n’étaient transmis au mieux que de maître à disciple. Aussi, B. Neumann (1927), W. Eilender (1933)) [16].
une partie de la formation consistait à copier, ou plutôt à
répliquer, les œuvres considérées comme des modèles. Cette Ces analyses étaient totalement destructives : par exemple,
démarche des « répliques » est attestée en Chine depuis des en 1815, H. Davy (1778-1829) demandait de larges frag-
millénaires. Elle est intimement liée à l’apparition de recueils ments de peintures murales trouvées à Pompéi et de pigment
de recettes. En Occident, la littérature technique est de bleu égyptien pour les analyser [22]. Plus de cent ans plus
longtemps restée limitée aux textes grecs (Hérodote, tard, en 1922, H.A. Eccles et B. Rackham réclamaient encore
Théophraste) ou romains (Dioscoride, Pline, Strabon) [1] [2] plusieurs pièces d’un service de porcelaine pour analyser sa
[3] [4] [5]. De la révolution technique médiévale, ne nous composition [23]. Les analyses étaient faites selon les
sont parvenus que de rares documents riches en information techniques chimiques de mise en solution par attaque acide

4 (textes du moine Théophile, de Jean d’Outremeuse, d’Antoine


de Pise et d’anonymes [6] [7] [8]). Quelques ouvrages
arabes/persans comme celui d’Abu al-Qâsem Kâshâni colla-
(HF + H2SO4 et/ou eau régale) et précipitation/pesage sélecti-
vement pour chaque élément. L’analyse des quelques dixiè-
mes de millimètre de couches d’émail nécessitait donc de très
tionnent des recettes toujours difficiles à interpréter [8] [9]. grande quantité d’objets !

1.1 Arts du feu 1.2 Techniques modernes d’analyses


Avec l’expansion de l’imprimerie se diffusent des ouvrages L’ère moderne de l’analyse des objets d’art débute
techniques couvrant l’essentiel des Arts du Feu et des Arts Chi- seulement vers 1950-1960 avec le développement de
miques, typiquement G. Rossetti pour la teinture (1548), méthodes d’analyses physico-chimiques [P 50] [P 4 150],
C. Picolpasso (1557) pour la céramique [10], V. Biringucio comme les spectroscopies d’absorption, ou mieux d’émission
(1540), G. Bauer alias Agricola (1556) [11] et B. Perez de atomique (dites aussi de flamme [P 2 895]). Ces procédés
Vargas (1568) pour la métallurgie, G.P. Lomazzo (1590) pour la nécessitent beaucoup moins de matière que les méthodes chi-
peinture, W. Davisson (1651) pour la chymie, etc. Les auteurs miques de précipitation, et permettaient de doser simultané-
sont des érudits plutôt que des praticiens ce qui limite la préci- ment plusieurs éléments, très efficacement pour les éléments
sion et la fiabilité des informations. Au siècle des Lumières, se alcalins et alcalino-terreux, les fondants des céramiques et
précise la séparation entre l’alchimie, en tant que recherche verres. En parallèle, des méthodes physiques comme l’activa-
personnelle, et la chimie pratique, entre les techniques et les tion neutronique [P 2 565], la spectroscopie de fluorescence X
sciences ; de nombreux ouvrages traitent des savoirs pratiques (XRF) [P 2 695] et la diffraction de rayons X [P 885] [P 1 080]
et théoriques sous des appellations diverses : Arts du Feu, Phy- [M 4 130], commencent à être largement utilisées. L’analyse
sique, Physique expérimentale, Histoire Naturelle, Éléments de par activation neutronique (NAA) est basée sur la mesure des
Chymie-Pratique, Philosophie Chimique, etc. (R.-A. Ferchault rayonnements (gamma & bêta) émis par les radionucléides
de Réaumur (édité en 1716), l’abbé Lambert (1758), les frères formés par l’irradiation neutronique. La méthode permet de
Rouelle (1759), l’abbé Nollet (1769), M. Macquer (1751, 1766, doser simultanément la plupart des éléments, majeurs,
1777), Foucroy (1782), Buffon (1787), etc.) [12] [13] [14] mineurs et à l’état de traces, sur des fragments ou même des
[15]. Les travaux de R.-A. Ferchault de Réaumur (1683-1757) objets sans préparation. Elle permet aussi la différentiation
sur l’analyse des porcelaines et la transformation du verre en des distributions isotopiques, qui jouent le rôle de bons mar-
porcelaine [12], comme ceux sur l’acier [16], peuvent être queurs. Dans les années 1970, le remplacement de la flamme
considérés comme les premières analyses scientifiques d’objets en spectroscopie d’émission atomique par un plasma d’argon
d’art. Quelques années auparavant à Dresde et Meissen (Saxe), créé par couplage inductif (ICP-AES) [P 4 150] réduisit
E. W. von Tschirnhaus (1651-1708) et J. F. Böttger conduisirent l’échantillon à une prise de quelques milligrammes pouvant
une recherche systématique des matières premières (kaolins, être obtenue par un micro-forage. La méthode des perles de
sables, fondants) et développèrent les technologies de cuisson verre, où l’échantillon à doser par XRF est fondu par l’action
à très haute température nécessaires à la réalisation des d’un borate, réduisant ainsi les perturbations de
premières porcelaines dures européennes [17], mais aucun matrice [P 3 810], donna une grande fiabilité aux mesures de
recueil ne nous est parvenu. La démarche de Réaumur s’épa- compositions. L’abondance de données de composition
nouit pour les céramiques et le verre avec des personnalités conduisit à la mise en place de stratégies globales de
marquantes comme avec A. Brongniart (1770-1847) [18] [19], traitement des données (méthodes d’agrégation de données
le duc H.-Th. d’Albert de Luynes (1802-1867), L. A. Salvétat et composantes principales) traçant les corrélations entre
(1820-1882) [20], T. Deck (1823-1891) [21] qui analysèrent éléments-trace pour identifier les productions faites avec les
les compositions d’une grande variété d’objets céramiques ou mêmes matières premières. Ces techniques – de masse – per-
en verre. mirent de passer d’une analyse de quelques objets à une ana-
lyse du « tout venant archéologique », en d’autres termes le
L’analyse des armes, en particulier des aciers damassés reçus
passage de l’étude des objets d’art exceptionnels à l’étude des
du consul de France à Damas, retint aussi l’attention de Réau-
objets communs, en accord avec les évolutions idéologiques
mur dans son traité fondateur L’art de convertir le fer forgé en
des questionnements historiques.
acier, et l’art d’adoucir le fer fondu, ou de faire des ouvrages de
fer fondu aussi finis que le fer forgé (1722). J.-J. Perret avec Au début des années 1960, le couplage de l’analyse EDS
l’Art du Coutelier (1771), J. Hellot (1752), M. Macquer, mais (Energy Dispersive (X-ray) Spectroscopy, appelée aussi EDXS
surtout P.-C. Grignon (1780), T.O. Bergman (1781), ou EELS [M 4 136]), avec le microscope électronique à

RE 217 - 2 © Editions T.I. 11 – 2012

152
Référence Internet
RE217

RECHERCHE

balayage permettant une analyse en fluorescence locale des on-line (mesure sur place par intermittence) ou même in-line
échantillons (quelques mm2 puis quelques µm2), refocalisa le (mesure en continu, sans perturbation). Ces instruments per-
travail sur l’analyse de fragments ou prélèvement d’objets de mettent ainsi de contrôler un dispositif nouvellement installé ou
qualité pour une étude précise de leurs décors, de leur état de la constance d’une production. Ces avancées, innovations des
conservation/corrosion, etc. À partir de 1970, les méthodes années 2000, ont conduit à des dispositifs transportables,
d’analyse par (micro)faisceaux nucléaires [P 2 545] comme le mobiles puis portables, de fluorescence X (figure 1a, 1c, 1d),
RBS (Rutherford backscattering) [P 2 563], le PIXE (Particle de diffraction des rayons X, de spectrométrie IR (figure 1e), de
Induced X-ray Emission) et le PIGE (Proton Induced Gamma spectroscopie Raman (figure 1b) et très récemment de LIBS,
Emission), développées initialement pour l’analyse des maté- l’analyse des objets d’art étant aussi souvent un des acteurs du
riaux de la microélectronique [P 2 557] [P 2 564], furent développement de cette instrumentation et de ses procédures.
utilisées pour l’étude de quelques objets d’art, en particulier Les dispositifs portables non destructifs révolutionnent la
avec le faisceau extrait de l’accélérateur AGLAE du CR2MF connaissance des objets d’art exceptionnels en permettant
(Palais du Louvre, Paris) [P 3 780] [P 3 781], le premier et leur étude in situ (composantes d’ouvrages) ou dans leur lieu
longtemps seul dispositif de cette nature consacré à l’analyse de conservation sécurisé (musées, collections particulières).
des objets d’art. Le faisceau extrait évite d’avoir à mettre le Les méthodes optiques sans contact sont privilégiées.
fragment ou l’objet à analyser sous vide. Les coûts d’installa-
tion et de fonctionnement des accélérateurs produisant des
faisceaux de particules sont cependant tels que le nombre 2.1 Fluorescence X (XRF)

4
d’installation en fonctionnement se limite à quelques
instruments par pays et leur impact sur la progression de la De très nombreux fournisseurs offrent des dispositifs
connaissance des objets d’art reste encore marginal. portables, permettant une mesure à la volée (temps de
comptage typique 1 à 10 min par point), développés pour des
applications industrielles (soudage, dépôt, corrosion,
1.3 Miniaturisation et révolution de l’analyse recherche géologique et minière, etc.). Un exemple d’appareil
de fluorescence X est présenté figure 1a. La source de rayon
Le développement de la microélectronique et la miniaturisa-
X est une anti-cathode d’argent, de rhodium, voire de molyb-
tion de l’instrumentation optique (sources, filtres et détec-
dène (0 à ~ 40-50 keV) et le détecteur au silicium (Silicon
teurs) induisent depuis les années 2000 une véritable
Drift Detector) permet l’analyse des éléments légers (magné-
révolution dans les techniques d’analyse. Les instruments ana-
sium) aux plus lourds (uranium). L’absorption des rayons X
lysent simultanément plusieurs éléments (ICP-MS, Inductively
par l’air nécessite un quasi-contact avec l’objet à analyser. Un
Coupled Plasma-Mass Spectrometry [P 2 720]). Ils deviennent
pompage sous vide primaire du volume de parcours des
compacts, portables ((micro)spectromètres infrarouge
rayons X (dans le dispositif), et/ou une injection d’hélium, y
[P 2 845] et Raman [P 2 865] [RE 5], « pistolets » de fluores-
compris entre l’objet et l’instrument améliore la mesure des
cence X ou transportables (spectroscopie d’émission LIBS :
éléments légers. Des mesures à différents voltages augmen-
Laser Induced Breakdown Spectroscopy [P 2 685]), fonction-
tent la précision. Néanmoins, la peau de nombreux objets
nant soit avec des micro-prélèvements ou même de façon
(métaux patinés, objets émaillés, etc.) étant différente du
totalement non destructive, sans contact avec l’objet à
volume, il est impossible de connaître précisément la pénétra-
analyser (figure 1).
tion des rayons X - et donc le volume analysé - et ainsi d’accé-
Nous présenterons d’abord les différentes techniques der à une mesure quantitative, en utilisant même des étalons
d’analyse portables puis montrerons en considérant les diffé- et des logiciels de correction des effets de matrice. Les infor-
rentes méthodes de coloration de la matière et les techno- mations (semi)quantitatives obtenues sont par contre très utiles
logies des Arts du Feu (céramiques [AF 6 620] [AF 6 621], pour conforter les conclusions des autres méthodes portables.
verre [AF 3 600] [J 2 296], vitraux, émaux [C 940] et patines
métalliques [M 1 570]) que l’évolution de ces technologies
offre des marqueurs technologiques et chronologiques qui 2.2 Diffraction RX
restent inscrit dans les micro- et nanostructures. Difficilement
Quelques fournisseurs proposent des dispositifs portables de
décelables à l’aide des cinq sens traditionnellement utilisés par
diffraction de RX, parfois combinés avec la mesure XRF par
les historiens des arts et des techniques, les archéologues et
des applications industrielles ou par la géologie/volcanologie
les acteurs du marché de l’art, ces marqueurs deviennent
de terrain. Des laboratoires académiques ont aussi assemblés
alors accessibles aux méthodes mobiles traitées ci-après.
divers composants commerciaux (sources, détecteurs).
Nous aborderons brièvement les autres arts décoratifs pour
L’étendue et la qualité de la base de données JCPDS
lesquels l’apport des techniques spectrométriques est bien
[P 1 080], collectant depuis plus de cinquante ans les diffrac-
établi, y compris avec des instruments mobiles (peintures,
togrammes propres à chaque phase cristalline, permettent
fresques, pastels, dessins...), mais à l’opposé nous ne traite-
une identification simple et rapide des phases cristallines
rons pas les objets dont les procédures d’analyse avec des
présentes, sans contact avec l’objet d’analyse. La pénétration
dispositifs mobiles sont encore en début de développement
des rayons X étant variable selon la composition, de quelques
(meubles et instruments musicaux en bois, laques, tissus...).
à plusieurs dizaines de microns, l’analyse reste assez super-
ficielle et la question du volume effectivement analysé doit
être considérée pour de nombreux objets (métaux
2. Spectrométries portables patinés/corrodés, céramiques et verres émaillés).
(XRF, XRD, IR, Raman, LIBS)
2.3 Spectroscopie IR
La combinaison des nécessités opérationnelles industrielles
(comme la réduction de la durée de la chaîne mesure-diagnostic Des dispositifs portables de spectroscopie IR, opérant dans le
-action), des possibilités de miniaturisation de l’instrumentation domaine des modes harmoniques et de combinaisons (proche
scientifique et des progrès en traitements des données (chimio- infrarouge, NIR, > 4 000 cm–1 [P 3 820], domaine où l’interac-
métrie) ont conduit au passage des analyses off-line (hors de, tion étant faible l’obtention d’un spectre d’absorption ou de
prélèvement et transport) à at-line (mesure près de) puis réflexion est facilitée), ont été les premiers à être développés

11 – 2012 © Editions T.I. RE 217 - 3

153
Référence Internet
RE217

RECHERCHE

tête tête

fibres
optiques

spectromètre & CCD objectif


de microscope

4
PC spot
laser spectromètre laser
& CCD
laser

a fluorescence X : l’instrument b microspectromètre Raman : la tête déportée est couplée par 2 fibres
doit être au contact de l’objet optiques, l’une à la source laser, l’autre au spectromètre ; détails du
montage de la tête pour les mesures en extérieur (peintures rupestres) ou
en intérieur, un tissu noir recouvre la tête et l’objet pour
protéger l’opérateur et éviter les perturbations par la
lumière ambiante [24]

c noter la grande distance (environ 15 mm) entre la lentille


frontale d’un objectif x 200 (grossissement x 2 000) et
l’objet analysé ; la mise au point est obtenue par
déplacement micrométrique YXZ de la tête déportée

objectif
de microscope
spot
laser

d utilisation sur
un instrument
de laboratoire
d’un soufflet
pour régler la
focalisation du
spot laser sans
déplacement de e mesure de
la pièce réflexion IR

Figure 1 – Exemples de dispositifs portables

RE 217 - 4 © Editions T.I. 11 – 2012

154
Référence Internet
RE217

RECHERCHE

pour des mesures at-line, on-line et in-line. Des systèmes opti- de travail pouvant être de plusieurs centimètres. Des disposi-
ques fonctionnant dans l’UV-visible étaient déjà disponibles. La tifs plus complexes sont plus performants. La résolution verti-
complexité des signatures nécessite l’utilisation d’outils mathé- cale est toujours moins bonne, typiquement le double. Pour
matiques performants (chimiométrie). Aussi, cette approche un matériau transparent pour la longueur d’onde du laser
est surtout pratiquée pour des problématiques industrielles où d’excitation, l’analyse peut être réalisée en profondeur sur
les questions sont formulées précisément et de façon récur- plusieurs millimètres. Il est ainsi facile de traverser une vitre
rente, mais peu utilisée pour l’analyse des objets d’art. Depuis et d’analyser des pastels, des dessins, ou des miniatures à
2010, des dispositifs travaillant en MIR (moyen infrarouge, travers leur verre de protection, sans démontage [25]. Le
~ 400-4 000 cm–1), c’est-à-dire dans le domaine des modes choix de la couleur du laser est donc fondamental. Les courtes
fondamentaux d’élongation et de déformation des unités vibra- longueurs d’onde excitent le phénomène de fluorescence, mais
tionnelles, sont disponibles. Ils peuvent fonctionner en absorp- nettoient en quelques secondes ou minutes l’extrême surface
tion (micro-échantillonnage), en réflexion (sans contact, des éventuelles couches biologiques/organiques, première des
l’exploitation pouvant se faire en considérant le spectre de causes de la fluorescence. L’analyse de composés organiques
réflexion ou sa conversion par calcul en absorbance, figure 1e), nécessite souvent une excitation IR pour éviter une dégrada-
en réflexion ATR (Attenuated Total Reflectance avec tion, ainsi par exemple pour la différentiation entre les diffé-
contact [AM 3 271]), en diffusion diffuse DRIFT (Diffuse Reflec- rents types d’ivoires (éléphants d’Afrique ou d’Asie, narval,
tance Infrared Fourier Transform avec micro-échantillonnage) mammouth) [25] et les imitations (dents, os, produits synthé-
ou en transflection (mesure de la composante d’absorption en tiques). La figure 1b montre ainsi divers systèmes de mesure,

4
réflexion, sans contact [P 2 845]). La pénétration de la lumière en extérieur ou en intérieur. L’exploration de surfaces signifi-
varie selon les échantillons et, en ATR, dépend du nombre catives vis-à-vis de l’hétérogénéité des matériaux permet une
d’onde dans une gamme de l’ordre de quelques microns à dizai- efficacité souvent supérieure aux autres méthodes pour la
nes de microns, ce qui complique l’analyse de matériau dont la détection des phases secondaires présentes, cristallines ou
surface/peau peut être différente du volume. amorphes. Par contre, la grande variabilité de la section effi-
cace Raman avec la nature de la liaison chimique (quasi-nulle
Comme la diffraction RX, la spectroscopie IR dispose de bases pour les liaisons ioniques) et le nombre d’électrons mis en jeu
de données bien documentées et efficaces car, quel que soit la rendent difficiles les mesures quantitatives, même avec une
phase analysée, un spectre IR est obtenu et les intensités des calibration. En outre, pour des échantillons colorés, l’interac-
spectres de chaque phase sont à peu près proportionnelles à tion entre les niveaux électroniques et la lumière laser n’est
leur teneur, permettant une analyse (semi)quantitative et l’uti- plus virtuelle et la ou les liaisons chimiques peuvent être exci-
lisation de procédures et de bases de données informatisées. tées, donnant lieu au phénomène de résonance Raman. La
Cependant, la largeur des bandes IR, intrinsèque à la nature de pénétration du faisceau de lumière cohérent peut alors être
la sonde – les dipôles instantanés résultant des vibrations ato- fortement réduite, à quelques dizaines de nm ou moins, l’ana-
miques/moléculaires – rend difficile la détection de phases lyse devenant alors uniquement surfacique. L’analyse est alors
secondaires. très sélective, par exemple seul le réseau vitreux entourant un
chromophore contribuera au spectre et non l’ensemble du
2.4 Spectroscopie Raman réseau silicaté [26] [27]. L’intensité diffusée est aussi fonction
de la qualité optique de la surface de l’objet analysé. Cela per-
met des études spécifiques des mécanismes de corrosion (ver-
Depuis les années 1990, avec la disponibilité de filtres
res lixiviés et/ou microcraquelés) et par ce biais une possibilité
performants pour rejeter la diffusion élastique Rayleigh du
de datations relatives [25] [28].
laser d’excitation (des ordres de grandeur plus intense que la
diffusion inélastique Raman [RE 5]), des sondes déportées
sont utilisées pour suivre des processus industriels. Ces son- 2.5 LIBS
des sont reliées par plusieurs mètres à dizaines de mètres de
Le LIBS (Laser Induced Breakdown Spectroscopy) utilise un
fibres optiques à la source laser et au spectromètre Raman
laser pour volatiliser une petite partie de la surface d’un objet,
équipé de détecteurs CCD refroidi par air (et non par de
le plasma formé étant analysé par spectroscopie d’émission. Il
l’azote liquide comme dans la génération antérieure). Les pre-
est ainsi possible de forer l’objet sur plusieurs dizaines de
mières campagnes de mesure sur site d’objets d’art
microns et ainsi de différentier composition de volume et de
(figure 1b) ont été effectuées avec ces premiers dispositifs,
surface. Depuis 2005, quelques fournisseurs proposent des
volumineux mais transportables, car exempts de pièces mobi-
dispositifs mobiles, beaucoup plus onéreux que les dispositifs
les, ou avec un dispositif de blocage de celles-ci pendant le
IR et Raman. Un tel dispositif a été installé sur le robot
transport. L’évolution combinée de la puissance de calcul des
envoyé sur la planète Mars en août 2012.
ordinateurs portables et de la miniaturisation des dispositifs
(contrôle électronique du détecteur, sources lasers solides) a
permis l’apparition de véritables systèmes Raman mobiles à 2.6 Concurrents : mesures
partir des années 2000 [24]. La miniaturisation a conduit à par micro-faisceaux
des dispositifs de quelques kilos, au prix d’une perte en réso- (accélérateurs, synchrotrons)
lution importante (> 5 cm–1 contre 0,5 cm–1 au laboratoire)
et/ou en gamme spectrale (150 à 3 000 cm–1 ou moins) Ces instruments ne sont pas portables mais sont en
contre – 4 000 (anti-Stokes) à + 4 000 cm–1 (Stokes) avec les compétition avec les méthodes portables pour l’étude des
instruments fixes. En outre, la ligne de base est complexe objets d’art, car leurs avantages spécifiques, réels ou
(ondulations, rupture de pente). Le diamètre latéral du spot supposés [P 2 700], justifient le déplacement exceptionnel
d’analyse varie entre ~ 0,5 µm pour les objectifs à très fort d’objets de qualité. Les faisceaux de particules générés par
grossissement (× 200, soit 2 000 fois en tenant compte de la des accélérateurs (10 à 100 MeV) pénètrent bien la matière et
chaîne optique instrumentale, équivalente à l’oculaire d’un permettent des mesures précises de nombreux éléments,
microscope classique) et une très longue distance de travail légers ou lourds, avec dans certains cas des profils de
(~ 15 mm), entre le point de focalisation/mesure et la lentille concentration depuis la surface sur une profondeur de plu-
frontale de l’optique, et plusieurs centaines de microns pour sieurs dizaines de microns. Cela permet par exemple l’étude
les faibles grossissements (× 5 soit 50 fois) avec des distances des technologies de dorures, des lustres métalliques, de la

11 – 2012 © Editions T.I. RE 217 - 5

155
4

156
Référence Internet
RE211

RECHERCHE

Analyse de la perte de couleur


des peintures au smalt
par spectroscopie d’absorption X

par Laurianne ROBINET


Ingénieure de recherche sur la plateforme IPANEMA du synchroton SOLEIL
(actuellement Ingénieure de recherche du ministère de la culture au Centre

4
de Recherche sur la conservation des Collections (CRCC), USR 3224 du CNRS,
Museum national d’histoire naturelle)
Nicolas TRCERA
Scientifique sur la ligne LUCIA du synchrotron SOLEIL
Sandrine PAGÈS-CAMAGNA
Ingénieure de recherche du ministère de la culture au Centre de Recherche
et de Restauration des Musées de France (C2RMF)
Marika SPRING
Scientifique à la National Gallery à Londres
et Solenn REGUER
Scientifique sur la ligne DiffAbs du synchrotron SOLEIL

Résumé : Les modifications chimiques liées à la perte de couleur du pigment smalt


dans les peintures historiques ont été analysées par la spectroscopie d’absorption des
rayons X utilisant le rayonnement synchrotron. La taille micronique du faisceau de
rayons X et la gamme d’énergie étendue offertes par les lignes de lumière LUCIA et
DiffAbs du synchrotron SOLEIL ont été déterminantes pour sonder individuellement les
grains de smalt dans des microprélèvements de peintures provenant des collections de
la National Gallery (Londres) et du musée du Louvre (Paris). Les spectres XANES et
EXAFS enregistrés au seuil K de l’ion colorant cobalt ont révélé que ce changement de
couleur était associé au changement de coordinance du cation.

Abstract : The chemical modifications associated with the colour loss of smalt
pigment in historic paintings were analysed by synchrotron X-ray absorption spectros-
copy. The micron-sized X-ray beam and the broad energy range offered by the LUCIA
and DiffAbs beamlines at SOLEIL synchrotron have been crucial in allowing individual
smalt particles to be probed in paint samples coming from the National Gallery
(London) and the Louvre museum (Paris) collections. XANES and EXAFS spectra
collected at the K edge of the colouring ion cobalt revealed the colour change to be
linked to a coordination change of the cation.

Mots-clés : smalt, peinture, XANES, EXAFS, cobalt, environnement chimique

Keywords : smalt, paintings, XANES, EXAFS, cobalt, chemical speciation


Parution : décembre 2012

10 – 2012 © Editions T.I. RE 211 - 1

157
Référence Internet
RE211

RECHERCHE

Points clés
Domaine : Technique d’analyse synchrotron
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Spectroscopie d’absorption X
Domaines d’application : Analyse chimique d’œuvres patrimoniales
Principaux acteurs français :
Pôles de compétitivité :
Centres de compétence :
Industriels :
Autres acteurs dans le monde :
Contact : http://www.synchrotron-soleil.fr/ipanema

4
1. Contexte c’est-à-dire la peinture dans le cas d’un pigment. Une peinture
est un matériau composite, mêlant matériaux organiques
comme le liant, et matériaux minéraux parfois de différentes
La réalisation (conception) d’une œuvre d’art passe par le
natures notamment dans le cas des mélanges. Par ailleurs, la
choix des matériaux de base (support, construction), puis des
constitution d’une peinture est multicouche, avec des épais-
matières servant à créer le jeu de couleurs et de lumières en
seurs de strates variables selon la nature et la fonction de cha-
surface. Le choix de ces dernières peut être le fait de pouvoir
cune d’elles. Pour cette raison, il est indispensable pour réaliser
symbolique rattaché aux matières premières, à leurs stabili-
des analyses, d’effectuer un micro-prélèvement de peinture
tés, aux facilités d’approvisionnement, aux moindres coûts de
(moins d’un millimètre carré), à inclure dans une résine polyes-
revient, ou enfin aux propriétés physiques réelles de ces
ter translucide, afin de préparer une coupe transversale qui
matériaux. Parmi elles, se retrouve la couleur. Ainsi les miné-
sera polie en surface. Les techniques analytiques sont choisies
raux naturels ont servi dans un premier temps de base à la
en fonction des questions posées, mais aussi de la nature et de
création colorée des tableaux et objets peints avant d’être
la taille du matériau d’intérêt. Une approche multi techniques
rapidement complétés par des matériaux manufacturés : colo-
étant généralement nécessaire, il est important que ces techni-
rants extraits des végétaux, pigments de synthèse comme la
ques soient peu, voire pas destructives.
cérusite ou le bleu égyptien, etc.
Cette intervention humaine visait à se substituer à la nature
pour obtenir un matériau coloré pouvant avoir les qualités
requises à la réalisation d’une peinture : compatibilité avec les 2. Spectroscopie d’absorption
liants et autres pigments, inertie, pouvoir colorant, etc. Ainsi des rayons X utilisant
dès l’Antiquité, le problème du bleu se révèle crucial, la nature
ne permettant pas d’obtenir aisément un pigment utilisable :
le rayonnement synchrotron
fragilité de l’azurite à l’humidité, coût trop lourd du lapis-lazuli.
La fabrication de pigment à partir d’ion métallique se révèle 2.1 Caractéristiques du rayonnement
donc une solution : le cuivre et le cobalt entrent dans la syn- synchrotron
thèse de pigments qui dérivent bien souvent de l’industrie ver-
rière avec des traitements thermiques parfaitement maîtrisés. Il est aujourd’hui très fréquent d’utiliser le rayonnement syn-
La compréhension des processus de dégradation des chrotron (RS) pour étudier la matière dans tous ses états
matériaux de la couleur permet d’envisager une meilleure (solide, liquide ou gazeux). L’augmentation croissante du nom-
conservation des œuvres patrimoniales. Estimer les para- bre de centres de RS dans le monde a généralisé l’utilisation des
mètres (thermiques, lumineux, humidité ou autres), qui ont techniques spectroscopiques à tous types de matériaux.
conduit à l’altération physique des matériaux, permet à la fois Le RS est l’émission de lumière produite par des particules
de réduire le contexte d’altération lorsqu’il est extérieur, et chargées (électrons ou positrons) relativistes circulant dans un
d’éviter de le reproduire dans le cadre de la conservation- anneau de stockage (succession de sections courbes et droites)
préservation du patrimoine, voire même d’envisager une solu- et soumises à des accélérations centripètes. Au cours de leur
tion visant à rétablir un retour à l’équilibre. Toutefois, certai- circulation, ces particules sont déviées de leur trajectoire par
nes altérations des matériaux dues à des paramètres des champs magnétiques produits avec des aimants de cour-
intrinsèques à l’œuvre sont irréversibles ; la compréhension bure (sections courbes), des onduleurs ou des wigglers (sec-
du phénomène n’est utile alors qu’à redéfinir une nouvelle lec- tions droites). À chaque modification de trajectoire, les
ture de l’œuvre. En effet, quand la dégradation modifie non particules perdent de l’énergie, produisant ainsi la lumière du
seulement certaines qualités physiques comme l’adhérence, RS. Le but de cet article n’est pas de faire une présentation du
mais également la couleur, cette dernière entraîne une RS (l’article [P 2 700] en a déjà effectué une revue), nous ne
atteinte telle que les spécialistes ne voient plus l’expression rappellerons ici que les caractéristiques principales qui différen-
réelle de l’artiste : il faut alors redéfinir l’iconographie. cient la lumière obtenue par RS des autres sources de lumière
La compréhension de l’altération et des mécanismes mis en classiquement utilisées au sein des laboratoires de recherche
jeu nécessite d’étudier le matériau dans son environnement, d’étude des matériaux du patrimoine.

RE 211 - 2 © Editions T.I. 10 – 2012

158
Référence Internet
RE211

RECHERCHE

2.2 Apports du rayonnement synchrotron s’étend de l’infrarouge lointain (environ 0,4 meV) jusqu’aux
pour l’étude des matériaux rayons X durs (environ 100 keV) et offre ainsi aux expérimen-
tateurs un large choix de techniques. La figure 1 présente les
du patrimoine lignes de lumière du synchrotron SOLEIL couvrant la totalité
des domaines énergétiques disponibles.
■ Brillance :
La première caractéristique du RS par rapport aux sources ■ Constance du flux de photons :
conventionnelles est l’intensité du rayonnement (ou flux de Les anciennes générations de synchrotrons souffraient d’un
photons par unité de surface). Ce flux de photon est de inconvénient de taille : la décroissance en fonction du temps de
plusieurs ordres de grandeur supérieur aux sources classique- l’intensité moyenne du rayonnement. En effet, les paquets de
ment exploitées telles que celle des tubes à rayons X. particules circulant dans l’anneau de stockage des synchrotrons
se dégradent progressivement au cours du temps entraînant la
■ Continuité spectrale : nécessité de réinjecter plusieurs fois par jour des particules
L’obtention de lumière par RS permet d’obtenir un spectre dans la machine. Les synchrotrons les plus récents, tels que
continu (grâce aux aimants de courbure) ou continûment SOLEIL en France, SLS en Suisse ou DIAMOND en Angleterre,
accordable (dans le cas des onduleurs). La gamme spectrale ne possèdent plus cette contrainte. Il est fréquent aujourd’hui

Terahertz IR lointain IR proche UV procheVacuum UV


(VUV)
Extrême UV
(EUV)
X-mous X-tendres X-durs
Énergie (eV)
4
0,0004 0,004 0,25 6 40 100 1.500 7.000 100.000
Micro-ondes Infra-rouge 1,8 3 Ultraviolet Rayons X Rayons Gamma
visible SEXTANTS MARS
AILES DISCO 50 1.500 3.500 36.000
0,0004 0,4 1 20 HERMES PSICH…
D…SIRS 100 2.500 SIRIUS 15.000 100.000
SMIS
0,025 0,8 5 40 2.000 10.000
MÉTROLOGIE
5 PLÉADES 28.000
GALAXIES
7 ANTARES 1.000
2.000 12.000
10 CASSIOPÉE 1.000 DIFFABS
10 TEMPO 1.500 3.000 23.000
ODE
45 1.500
DEIMOS 3.500 23.000
350 2.500
LUCIA
800 8.000
NANOSCOPIUM
5.000 20.000
CRISTAL
4.000 30.000
SAMBA
4.000 40.000
PROXIMA 1
5.000 15.000
PROXIMA 2
5.000 15.000
SWING
5.000 17.000
SIXS
5.000 20.000
PUMA
4.000 60.000
NANOTOMOGRAPHIE
700 nm 400 nm
5.000 25.000
Longueur d’onde ROCK
4.000 40.000

3 mm 0,3 mm 5 mm 200 nm 30 nm 12 nm 0,8 nm 0,2 nm 0,012 nm

Figure 1 – Domaines énergétiques de travail des lignes de lumière du synchrotron SOLEIL (Crédit Synchrotron SOLEIL)

10 – 2012 © Editions T.I. RE 211 - 3

159
Référence Internet
RE211

RECHERCHE

de trouver le mode de fonctionnement dit « Top-Up » corri- samment d’énergie (E1) arrache un électron d’une couche de
geant la dégradation des paquets de particules. Ce mode per- cœur de l’atome étudié, créant ainsi une lacune dans cette
met de réinjecter quasiment en continu de nouvelles particules couche. Très rapidement, de l’ordre de 10–15 seconde, cette
afin de conserver un nombre de paquets de particules et un lacune est comblée par un électron d’une couche supérieure.
courant constants dans l’anneau de stockage. Il se produit alors l’un des deux phénomènes suivants : (i)
émission d’un photon X d’énergie E2 (processus radiatif) ou
(ii) émission d’un électron Auger (processus non radiatif). La
2.3 Utilisation de la spectroscopie compétition entre ces deux phénomènes dépendra du numéro
d’absorption des rayons X atomique Z des éléments chimiques. Dans le cas des éléments
chimiques avec un faible Z, le processus non radiatif est
Dans le cadre de l’étude de la décoloration des peintures au
majoritaire ; pour les éléments chimiques à haut Z, le proces-
smalt, l’utilisation du rayonnement synchrotron a permis
sus radiatif devient majoritaire (figure 5 de [1]).
d’étudier des fragments de peintures grâce à deux
techniques : La principale propriété de la fluorescence des rayons X à
– la micro spectrométrie de fluorescence X (µ-XRF pour retenir dans notre cas est la valeur de l’énergie des photons
micro X-Ray Fluorescence) ; de fluorescence en fonction de l’atome excité. Comme illustrée
– la micro spectroscopie d’absorption des rayons X (µ-XAS dans la figure 2, la différence d’énergie entre les deux niveaux
pour micro X-ray Absorption Spectroscopy). énergétiques mis en jeu (niveau de cœur et niveau supérieur)

4
est propre à chaque atome, ce qui entraîne une spécificité de
2.3.1 Fluorescence X l’énergie des photons émis. En collectant ces photons de
fluorescence à l’aide d’un détecteur adapté [P 2 695], et
La fluorescence X a été présentée dans des articles puisque l’intensité de fluorescence est proportionnelle à la
précédents [P 2 695] [RE 200]. Dans celui-ci, nous ne ferons concentration en élément présent dans l’échantillon, il est pos-
que des rappels nécessaires à la compréhension des expérien- sible d’utiliser la fluorescence des rayons X comme une sonde
ces réalisées sur les échantillons de smalt. élémentaire. Le couplage de la fluorescence des rayons X avec
Le principe de la fluorescence X est la réémission d’un un système de platines de translation de l’échantillon permet
photon X suite à la désexcitation d’un atome préalablement notamment d’effectuer des cartographies élémentaires. La
excité. La figure 2 présente les différentes étapes de ce figure 3 présente un spectre de fluorescence des rayons X
processus. Dans un premier temps, un photon X avec suffi- enregistré sur une coupe transversale de peinture contenant

Niveau d’énergie

E1

Processus Processus
Non radiatif radiatif

Niveau d’énergie Niveau d’énergie

L L

E2
K K

Émission d’un électron secondaire Émission d’un photon X


Effet Auger Fluorescence

Figure 2 – Présentation du principe de l’effet Auger et de la fluorescence des rayons X

RE 211 - 4 © Editions T.I. 10 – 2012

160
Référence Internet
RE224

RECHERCHE

Restauration des peintures


au plomb par irradiation laser

par Sébastien AZE


Consultant scientifique, Marseille, France
Jean-Marc VALLET
Ingénieur de recherche, Centre interdisciplinaire de conservation
et restauration du patrimoine, Marseille, France
Olivier GRAUBY
Maître de conférences, Aix-Marseille université et Centre interdisciplinaire
de nanoscience de Marseille, France
4
Vincent DETALLE
Ingénieur de recherche, Laboratoire de recherche des monuments historiques,
Champs-sur-Marne, France
et Philippe DELAPORTE
Directeur de recherche, Laboratoire lasers, plasmas et procédés photoniques,
Marseille, France

Résumé : Les pigments à base de plomb, largement employés en peinture et poly-


chromie depuis l’Antiquité, présentent une instabilité qui conduit fréquemment à un
noircissement de la couche picturale. Face à ce phénomène spécifique d’altération,
particulièrement dommageable à l’esthétique et à la lisibilité des œuvres affectées,
aucune technique de restauration ne permet de restituer l’apparence originale de la
peinture. Les propriétés thermiques des composés du plomb permettent d’envisager
une méthode de traitement basée sur l’irradiation de la couche noircie par un faisceau
laser continu. Une série d’essais expérimentaux a permis d’optimiser les paramètres
opérationnels, et de valider le procédé dans les conditions réelles d’un chantier de
restauration.

Abstract : Lead-containing pigments, which have been widely used in paintings and
polychrome sculptures since antiquity, show a specific instability. The pigments
alteration often leads to a darkening of the pictorial layer, which is harmful to the aes-
thetic and understanding of the artworks. No specific restoration technique is available
to recover the original color of the discolored paint areas. The thermal properties of
lead compounds, however, allow to conceive a method based on continuous-wave laser
irradiation of the blackened layer. A set of experimental tests was achieved to optimize
the process, and validate the technique in a real situation of a restoration workshop.

Mots-clés : laser continu, restauration, peinture, pigment au plomb, minium,


plattnérite

Keywords : continuous-wave laser, restoration, painting, lead pigments, red lead,


plattnerite
Parution : janvier 2013

5 – 2013 © Editions T.I. RE 224 - 1

161
Référence Internet
RE224

RECHERCHE

Points clés
Domaine : Technique de traitement
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Irradiation par laser continu
Domaines d’application : Restauration des œuvres d’art
Principaux acteurs français :
Pôles de compétitivité :
Centres de compétence :
Industriels :
Autres acteurs dans le monde :
Contact : sebastien-aze@laposte.net

4
1. Contexte accompagnées par un blanchissement superficiel de la
couche picturale.

L’investigation scientifique des matériaux du patrimoine Ce phénomène spécifique de vieillissement est particulière-
historique et culturel a connu un essor au cours de la ment dommageable aux œuvres, l’aspect visuel pouvant être
deuxième partie du XXe siècle. Face à la nécessité de totalement dénaturé. En effet, dans les cas les plus extrêmes,
conserver les objets classés au titre des monuments la totalité de la couche picturale, d’une épaisseur de plusieurs
historiques et les œuvres des collections publiques et privées, dizaines de micromètres, est altérée. Les mécanismes
les outils et méthodes de caractérisation ont investi un champ régissant ces transformations ont fait l’objet de nombreuses
auparavant réservé aux matériaux de synthèse ou aux problé- publications, basées sur des essais de vieillissement artificiel
matiques géologiques. Ainsi, des méthodes complémentaires et sur les résultats d’analyse de micro-échantillons de peinture
d’observation et d’analyse sont employées pour affiner la prélevés dans des zones noircies. D’après ces analyses, le
connaissance des matériaux et des techniques de mise en noircissement est le plus souvent lié à la transformation du
œuvre ou, dans certains cas, pour des besoins de datation ou minium en plattnérite, la forme orthorhombique du dioxyde
d’authentification. Par ailleurs, des programmes de recherche de plomb (β-PbO2). Les conditions d’apparition de ces altéra-
sont mis en place pour comprendre les causes et les tions sont encore imparfaitement connues, notamment du fait
mécanismes des altérations observées sur les objets du patri- de la complexité des matériaux et des contraintes auxquels ils
moine, aidant à définir les meilleures conditions de sont soumis. En effet, les peintures murales présentent une
conservation des œuvres. structure et une composition complexes et subissent des
interactions multiples avec leur environnement : variations de
Une problématique récurrente concerne les phénomènes
la température, de l’humidité atmosphérique relative,
d’altération chromatique des pigments à base de plomb.
condensation superficielle, flux hydriques internes, éclaire-
Le minium – de couleur rouge – et le blanc de plomb, en
ment, pollutions, contaminations microbiennes, etc.
particulier, sont connus pour noircir après leur mise en œuvre.
Dans le cas du minium, ce phénomène est connu depuis le De fait, la rapidité et l’intensité du noircissement des
Moyen-Âge, avec notamment l’avertissement émis par pigments au plomb sont influencées par ces différents
Cennino Cennini dans le Livre de l’Art, un traité de référence facteurs. Un travail récent a notamment mis en évidence le
sur les matériaux et techniques artistiques : rôle majeur de polluants gazeux (SO2 , CO2), conjointement à
« Le rouge que l’on nomme minium est un produit de la la présence d’humidité, dans les processus de transformation
chimie. Cette couleur est bonne seulement employée sur du minium en plattnérite. Pour autant, il n’existe à ce jour
panneau. Si tu t’en servais sur mur, aussitôt qu’il verrait l’air aucune méthode spécifique de restauration susceptible d’être
il perdrait toute sa couleur et deviendrait noir ». mise en œuvre pour restituer aux zones altérées leur couleur
originelle.
De fait, ce phénomène est fréquemment observé en peinture
murale, où le minium a été largement employé depuis l’Anti- La recherche d’une technique permettant de restituer
quité. Ce pigment a été identifié – seul ou mélangé avec l’aspect original de la couche picturale, tout en rétablissant les
d’autres pigments – dans de nombreuses œuvres, en particulier propriétés physico-chimiques du pigment utilisé par l’artiste,
en peinture murale, sur des sculptures polychromes ou pour la est une démarche atypique, que justifient l’ampleur et la
réalisation d’enluminures de manuscrits. L’usage du minium valeur du patrimoine susceptible d’en bénéficier. Il s’agit
concerne des cultures variées, puisqu’on le retrouve aussi bien d’éviter les interventions destructives consistant à éliminer les
en Europe (Ier siècle av. J.-C.) qu’au Moyen-Orient (Égypte, IIe produits issus de l’altération du pigment. Nous présentons
siècle ap. J.-C.) ou en Asie (Chine, Ve siècle ap. J.-C.). Dans de dans cet article la démarche expérimentale et les résultats des
nombreux cas, on observe dans les zones peintes avec du essais qui ont conduit à mettre au point une technique opéra-
minium l’apparition de tâches brunes à noires, parfois tionnelle basée sur l’utilisation d’une source laser continue.

RE 224 - 2 © Editions T.I. 5 – 2013

162
Référence Internet
RE224

RECHERCHE

2. Vers une méthode de restauration


Production et gamme chromatique des pigments du minium noirci
au plomb
2.1 Décomposition thermique
de la plattnérite : une voie possible
Dans l’histoire des matériaux et techniques de l’art
pictural, les pigments à base de plomb sont considérés Pour restituer l’aspect initial des zones noircies (figure 2), le
comme les premiers pigments artificiels utilisés pour la réa- principe d’une méthode de restauration doit permettre la
lisation de décors peints [1]. Plusieurs traités datant de conversion en minium de la plattnérite produite lors de la
l’Antiquité ou du Moyen-Âge décrivent la production de ces transformation du pigment, selon le bilan réactionnel suivant :
pigments selon un procédé utilisant le plomb métallique
comme produit de départ [2] : des feuilles ou lingots de 3β-PbO2 → Pb3O4 + O2
plomb sont enfermés dans des récipients étanches, Ce processus correspond à une réduction partielle des ions
contenant une réserve d’acide acétique produit par la fer- du plomb tétravalent présents dans la plattnérite, le minium
mentation de l’alcool, et placés dans une ambiance chaude. étant un oxyde de plomb à la valence multiple, constitué de
L’attaque acide du plomb métallique produit de l’acétate de sous-réseaux de plomb de valences + II et + IV [3].
plomb, qui est récolté jusqu’à disparition totale du plomb
La complexité du système binaire formé par le plomb et l’oxy-

4
métallique.
Après broyage et homogénéisation, l’acétate de plomb gène (figure 3), de même que la fragilité de la couche picturale,
est placé dans un four chauffé à température modérée, interdit a priori l’usage de traitements chimiques. Cependant, les
pour produire un mélange de cérusite (PbCO3) et propriétés physiques de la plattnérite permettent d’envisager un
d’hydrocérusite [2PbCO3 · Pb(OH)2]. Ce mélange, de procédé basé sur le traitement thermique de la couche altérée.
couleur blanche, est utilisé tel quel comme pigment, le En effet, la dégradation thermique de la plattnérite se produit par
blanc de plomb (ou céruse), ou sert de produit de départ le biais de pertes successives d’oxygène, menant à une réorgani-
pour produire d’autres oxydes de plomb de couleurs sation du réseau cristallin et à la formation d’oxydes inférieurs
différentes : une nouvelle cuisson entraîne la déshydrata- PbOn (1 艋 n < 2) . L’évolution de l’indice n en fonction de la tem-
tion et la décarbonatation de la céruse, et mène à la for- pérature a été étudiée par Otto en 1966 [4]. Ces transformations
mation de litharge, la forme quadratique du monoxyde de successives étant exothermiques, l’apparition des différents oxy-
plomb (α-PbO), de couleur jaune orangé. En augmentant des inférieurs en fonction de la température a pu être mise en
la température, et en assurant une bonne oxygénation du évidence par DSC (calorimétrie différentielle à balayage) par
matériau par brassage et renouvellement de l’air dans le Gravichev et al. en 2008 [5]. Lors d’un chauffage progressif de la
four, la litharge est transformée en minium (Pb3O4) de plattnérite, la dégradation suit la séquence suivante, chaque
couleur rouge vif. Ce dernier est parfois chauffé à plus étape se produisant dans un intervalle de température donné :
haute température pour produire du massicot, la forme – perte de molécules d’eau présentes dans le réseau
orthorhombique du monoxyde de plomb (β-PbO) de cou- cristallin de β-PbO2 (I) ;
leur jaune citron (figure 1). – dégagement d’oxygène gazeux et formation des différents
oxydes inférieurs : PbO1,89 (II), PbO1,43 (III), PbO1,29 (IV) et
PbO (V).

Figure 1 – Composés du plomb traditionnellement utilisés Figure 2 – Exemple de noircissement du minium utilisé comme
comme pigments : (a) blanc de plomb (hydrocérusite pigment dans les peintures murales de l’abbaye de Saint-Savin
2PbCO3.Pb(OH)2), (b) litharge (α
α-PbO), (c) minium (Pb3O4), (XIIe siècle) (crédit photo : D. Bouchardon, Laboratoire de recherche
(d) massicot (β
β-PbO). des monuments historiques, 2008)

5 – 2013 © Editions T.I. RE 224 - 3

163
4

164
Référence Internet
RE274

RECHERCHE

Imagerie par spectrométrie


de masse TOF-SIMS pour l’analyse
de tableaux anciens
par Alain BRUNELLE
Directeur de recherche au CNRS
Laboratoire d’Archéologie moléculaire et structurale, LAMS UMR8220, CNRS,
Sorbonne Université, 4 place Jussieu, 75005 Paris, France

L ’imagerie par spectrométrie de masse consiste à enregistrer sur une


surface une carte en deux dimensions, pour laquelle chacun des points
contient un spectre de masse. Ces spectres de masse, qui représentent l’in- 4
tensité des ions détectés en fonction de leur rapport masse sur charge, sont
générés eux-mêmes par une technique d’analyse qui peut produire des ions
caractéristiques de la surface avec une très grande précision spatiale, infé-
rieure au micromètre. Dans le cas présent l’analyse est effectuée par la mé-
thode de spectrométrie de masse d’ions secondaires, appelée en anglais
SIMS (Secondary Ion Mass Spectrometry), où un faisceau d’ions dits
« primaires », constitué d’ions agrégats de bismuth accélérés à une énergie
cinétique de 25 keV, focalisé et haché en impulsions courtes de moins d’une
nanoseconde de durée, vient heurter point après point la surface de l’échan-
tillon. Des ions dits « secondaires », caractéristiques de la surface analysée,
sont alors émis. Ces ions secondaires sont ensuite eux-mêmes accélérés à
une énergie cinétique de 2 keV, pour être analysés en masse au moyen d’une
analyseur par temps de vol, en anglais Time-of-Flight (TOF). Avec ce type
d’analyseur en masse, la mesure précise du temps de vol des ions secondai-
res dans un tube libre de champ, entre l’instant de leur production et leur
détection, donne accès à leur rapport masse sur charge, dont la racine car-
rée de cette quantité est proportionnelle au temps de vol. Cette méthode
d’analyse de surface, qui est alors appelée « TOF-SIMS », donne accès,
pourvu que la dose d’ions irradiant la surface soit limitée, à la composition
moléculaire organique ainsi qu’à la composition minérale. Dans certains cas,
un second faisceau d’ions, constitué d’agrégats massifs d’argon accélérés à
10-20 keV, peut être utilisé pour pulvériser la surface monocouche après
monocouche, et ainsi effectuer une analyse de l’échantillon sur une profon-
deur de plusieurs microns. On parle alors « d’analyse en profondeur par
double faisceau », en anglais dual beam depth profiling. L’imagerie par spec-
trométrie de masse TOF-SIMS, qui sera décrite dans cet article, est une
méthode particulièrement bien adaptée à l’analyse d’échantillons du patri-
moine culturel, comme en particulier des prélèvements de tableaux anciens
qui sont généralement d’une taille de seulement quelques dixièmes de mil-
limètre. La résolution spatiale pouvant atteindre 400 nm, avec la possibilité
de faire une analyse de surface ou une analyse de volume, est très bien
adaptée à de très petits échantillons. La technique donne accès en une
même analyse à la fois à la composition minérale et à la composition molé-
culaire, ce qui permet d’obtenir des renseignements très précieux à la fois
sur les pigments et les huiles et les liants. La description de l’instrument
et de la méthode d’analyse sera ensuite suivie de trois exemples d’analyses
Parution : janvier 2019

de prélèvements effectués sur des tableaux anciens, à savoir des tableaux


de Rembrandt van Rijn (1606-1669), Matthias Grünewald (1470-1528) et
Nicolas Poussin (1594-1665).

1 - 2019 Copyright © - Techniques de l’Ingénieur - Tous droits réservés RE 274 - 1

165
Référence Internet
RE274

RECHERCHE

Points clés
Degré de diffusion de la technologie : Croissance
Technologies impliquées : Spectrométrie de masse par temps de vol à ions
secondaires
Domaines d’application : Patrimoine, archéologie
Principaux acteurs français :
— Centres de compétence : Laboratoire d’Archéologie moléculaire et structurale
(LAMS)
Contact : Alain Brunelle

1. Techniques
-

Nota bene : noms en français et acronymes en anglais : cet article est écrit en
français, mais la plupart des termes usuels et des acronymes sont en langue
anglaise. Ils seront donc définis en français et en anglais, puis l’acronyme anglais
1.1 TOF-SIMS

4
sera utilisé.
Il existe de nombreuses techniques d’analyse élémentaire qui
peuvent être utilisées pour étudier et caractériser la composition
chimique d’échantillons du patrimoine. Parmi celles-ci, la fluo- 1.1.1 Principe
rescence de rayons X, la spectroscopie infrarouge à transformée
de Fourier, la spectroscopie Raman, l’émission de rayons X Lorsqu’un ion accéléré avec une énergie cinétique de quelques
induite par particules sont des méthodes établies et largement dizaines de keV heurte une surface, il pénètre dans le matériau
utilisées (voir [RE 200], [RE 214], [P 2 557], [P 2 558], [P 2 865] en se ralentissant par une série de collisions élastiques, sur une
pour ces méthodes). Plusieurs techniques de spectrométrie de profondeur de plusieurs dizaines de nanomètres. Ces collisions
masse sont aussi utilisées pour accéder à des compositions induisent un endommagement du solide, les molécules organi-
moléculaires, comme la spectrométrie de masse couplée à la ques, éventuellement présentes selon la nature du matériau,
chromatographie en phase gazeuse, la désorption-ionisation sont détruites le long du trajet de l’ion primaire. L’énergie dépo-
laser assistée par matrice (MALDI), la spectrométrie de masse à sée près de la surface engendre l’émission d’ions, appelés « ions
source électrospray (voir [P 2 645] et [P 2 647] pour des articles secondaires », positifs et négatifs, d’atomes, de molécules neu-
plus généraux sur la spectrométrie de masse). Néanmoins, tres, d’électrons, et de photons (figure 1) [1]. Les ions secondai-
celles-ci nécessitent souvent une extraction préalable à l’ana- res ne sont émis que des premiers nanomètres (moins de 10)
lyse, et sont donc des méthodes qui sont considérées comme
près de la surface, c’est la raison pour laquelle la spectrométrie
étant destructives. La spectrométrie de masse d’ions secondai-
de masse d’ions secondaires est une méthode d’analyse de la
res, a contrario, lorsqu’elle est pratiquée dans les conditions qui
surface. Les ions secondaires peuvent être des fragments carac-
seront décrites par la suite, est une technique d’analyse de sur-
face, donnant accès à la composition minérale ainsi qu’aux molé- téristiques des molécules composant l’échantillon, ou des molé-
cules organiques, sur l’ultra-surface de l’échantillon, c’est-à-dire cules (M) intactes ionisées, sous la forme d’ion radical M+•, de
au maximum quelques nanomètres, ou éventuellement sur plu- molécules protonées [M+H]+, cationisées, généralement par le
sieurs microns. La préparation d’échantillon est généralement sodium ou le potassium (qui sont deux cations très présents sur
très simple, et ne nécessite aucune application de métal, de toutes les surfaces et les milieux biologiques), [M+Na]+ ou
matrice, ni aucune dérivatisation chimique. L’échantillon reste [M+K]+, en mode positif, ou de molécules déprotonées [M-H]-,
alors utilisable pour des analyses ultérieures par d’autres métho- en mode négatif, pour les types les plus courants. Ces ions ne
des comme celles citées plus haut dans ce paragraphe. représentent généralement qu’un dix-millième de l’ensemble

Spectrométrie de masse : technique d’analyse chimique


par laquelle les espèces (molécules ou éléments) sont
mises en phase gazeuse sous vide et ionisées, puis les Ion primaire
ions sont analysés selon leur rapport masse sur charge Bi3+ 25 keV
(m/z) au moyen d’un champ électrique ou magnétique Ions secondaires, atomes,
avant d’être détectés. molécules, électrons, photons
Analyseur par temps de vol : élément constituant
d’un spectromètre de masse par temps de vol, dans
lequel les ions sont séparés selon leur rapport masse Profondeur
sur charge m/z par leur temps de vol dans un espace d’analyse
libre de champ après avoir tous été accélérés avec la (5-10 nm)
même énergie cinétique après une impulsion d’ions
primaires. Le temps de vol entre l’impulsion des ions
Profondeur
primaires et la détection des ions secondaires est endommagée
proportionnel à la racine carrée de m/z, selon la formule (10-50 nm)
m
t =a + b , a et b étant des constantes.
z
TOF-SIMS : spectrométrie de masse par temps de vol
d’ions secondaires (Time-of-Flight Secondary Ion Mass
Figure 1 – Schéma de principe de l’émission ionique sous impact
Spectrometry). d’ions polyatomiques Bi3+ de 25 keV d’énergie

RE 274 - 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 1 - 2019

166
Référence Internet
RE274

RECHERCHE

1.1.2.1 Source d’ions à pointe liquide LMIG


Miroir électrostatique Dans une source d’ions à pointe liquide (Liquid Metal Ion Gun,
LMIG), un filament chauffe un réservoir contenant un métal pur,
ou un alliage, lequel est rendu liquide et mouille une pointe très
fine, devant laquelle est appliqué un champ électrique d’environ
10 000 V. Des ions sont alors produits par effet de champ au
niveau de cette pointe, avec une faible divergence et une grande
Spectre de masse
intensité, pouvant aller jusqu’à plusieurs dizaines de nano-
Source d’ions Analyseur par ampères (figure 3a). Dans le passé, ces sources LMIG étaient
Bin +
temps de vol toujours utilisées pour produire des faisceaux de gallium, ce qui
est encore le cas pour la méthode dite « FIB » (Focused Ion
Détecteur Beam), qui est une méthode de microscopie ionique où le fais-
ceau d’ions remplace le faisceau d’électrons. Les faisceaux
de gallium sont encore très utilisés en microfabrication, ou
pour la préparation d’échantillon en microscopie électronique.

4
Support
Traversées isolant
électriques
Canon à Pointe
Filament
électrons de Courant Extracteur
neutralisation de chauffage

Échantillon
i

Figure 2 – Schéma d’un spectromètre de masse par temps de vol


à ions secondaires « TOF-SIMS » +U
Réservoir de métal
des espèces qui sont pulvérisées et dont la grande majorité est
composée d’espèces neutres.
Un spectromètre de masse TOF-SIMS est constitué d’une
source d’ions, laquelle produit un faisceau pulsé d’ions, d’un ana-
lyseur en masse par temps de vol, généralement constitué d’un Pointe Métal liquide Cône de Taylor Émission ionique
tube libre de champ et d’un miroir électrostatique (figure 2), ou a émetteur d’une source d’ions à pointe liquide
d’un ensemble de trois secteurs électrostatiques, puis d’un
détecteur [1] [2] [3] [4]. Un canon à électrons est en outre uti- Générateur
HV d’impulsions Retard HV
lisé pour irradier la surface d’échantillons isolants, après chaque
impulsion d’ions primaires, pour neutraliser celle-ci. Ces élec- Temps de vol
trons ont une faible énergie cinétique, d’environ 20 eV, et l’en-
dommagement de la surface de l’échantillon est ainsi négligeable
ou au moins limité.

1.1.2 Sources d’ions


Une source d’ions primaires est destinée à irradier la surface
Faisceau
de l’échantillon pour en produire des ions secondaires, ou pour Faisceau
pulsé ne
Faisceau continu pulsé
pulvériser la surface afin d’effectuer une analyse en profondeur. contenant contenant
Ces deux types de sources d’ions vont être décrits dans les deux toutes les qu’une
espèces seule
paragraphes suivants. La première, source d’ions d’analyse, espèce
doit pouvoir être focalisée et pulsée. La taille de son faisceau
b système de double pulsation pour sélectionner
sur l’échantillon sera la dimension qui définira, et limitera, une seule espèce parmi les différents agrégats émis
la résolution spatiale de l’analyse (moins d’un micromètre). par la source d’ions à pointe liquide
La durée des impulsions doit être la plus courte possible (moins
d’une nanoseconde) car elle conditionne par la suite la résolution Électrodes d’accélération
Écrémeur Ioniseur et de focalisation
en masse dans le spectre des ions secondaires. La source d’ions
d’analyse doit aussi être la plus efficace possible, c’est-à-dire Anode
qu’elle doit engendrer le plus d’ions secondaires possible, avec Gaz + +
le minimum d’endommagement de l’échantillon. La seconde
source d’ions, source d’ions de pulvérisation, ne nécessite
Filament
pas d’être aussi bien focalisée que la source d’ions d’analyse, et
ses impulsions peuvent être plus longues en temps. En revan-
che, elle doit permettre la pulvérisation de la surface de l’échan- c source d’agrégats massifs d’argon
tillon avec la plus grande efficacité possible, sans toutefois
endommager les couches atomiques sous-jacentes. Voici défi-
nies les caractéristiques nécessaires des deux types de sources Figure 3 – Schémas des sources d’ions à pointe liquide
d’ions qui vont maintenant être détaillées. et de la sélection des ions primaires

1 - 2019 Copyright © - Techniques de l’Ingénieur - Tous droits réservés RE 274 - 3

167
Gagnez du temps et sécurisez vos projets
en utilisant une source actualisée et fiable

   
RÉDIGÉE ET VALIDÉE MISE À JOUR 100 % COMPATIBLE SERVICES INCLUS
PAR DES EXPERTS PERMANENTE SUR TOUS SUPPORTS DANS CHAQUE OFFRE
NUMÉRIQUES

 + de 340 000 utilisateurs chaque mois


 + de 10 000 articles de référence et fiches pratiques
 Des Quiz interactifs pour valider la compréhension

SERVICES ET OUTILS PRATIQUES

  
Questions aux experts* Articles Découverte Dictionnaire technique multilingue Archives Info parution
Les meilleurs experts techniques La possibilité de consulter 45 000 termes en français, anglais, Technologies anciennes et versions Recevez par email toutes les nouveautés
et scientifiques vous répondent des articles en dehors de votre offre espagnol et allemand antérieures des articles de vos ressources documentaires

*Questions aux experts est un service réservé aux entreprises, non proposé dans les offres écoles, universités ou pour tout autre organisme de formation.

Les offres Techniques de l’Ingénieur


INNOVATION ENVIRONNEMENT – SÉCURITÉ ÉLECTRONIQUE – PHOTONIQUE PROCÉDÉS CHIMIE – BIO – AGRO
• Éco-conception et innovation responsable • Sécurité et gestion des risques • Électronique • Formulation
• Nanosciences et nanotechnologies • Environnement • Technologies radars et applications • Bioprocédés et bioproductions
• Innovations technologiques • Génie écologique • Optique – Photonique • Chimie verte
• Management et ingénierie de l’innovation • Technologies de l’eau • Opérations unitaires. Génie de la réaction
• Smart city  Ville intelligente • Bruit et vibrations TECHNOLOGIES DE L’INFORMATION chimique
• Métier : Responsable risque chimique • Sécurité des systèmes d’information • Agroalimentaire
MATÉRIAUX • Métier : Responsable environnement • Réseaux Télécommunications
• Bois et papiers • Le traitement du signal et ses applications SCIENCES FONDAMENTALES
• Verres et céramiques ÉNERGIES • Technologies logicielles – Architectures des • Mathématiques
• Textiles • Hydrogène systèmes • Physique Chimie
• Corrosion – Vieillissement • Ressources énergétiques et stockage • Sécurité des systèmes d’information • Constantes physico-chimiques
• Études et propriétés des métaux • Froid industriel • Caractérisation et propriétés de la matière
• Mise en forme des métaux et fonderie • Physique énergétique AUTOMATIQUE – ROBOTIQUE
• Matériaux fonctionnels. Matériaux biosourcés • Thermique industrielle • Automatique et ingénierie système BIOMÉDICAL – PHARMA
• Traitements des métaux • Génie nucléaire • Robotique • Technologies biomédicales
• Élaboration et recyclage des métaux • Conversion de l’énergie électrique • Médicaments et produits pharmaceutiques
• Plastiques et composites • Réseaux électriques et applications INGÉNIERIE DES TRANSPORTS
• Véhicule et mobilité du futur CONSTRUCTION ET TRAVAUX PUBLICS
MÉCANIQUE GÉNIE INDUSTRIEL • Systèmes aéronautiques et spatiaux • Droit et organisation générale de la construction
• Frottement, usure et lubrification • Industrie du futur • Systèmes ferroviaires • La construction responsable
• Fonctions et composants mécaniques • Management industriel • Transport fluvial et maritime • Les superstructures du bâtiment
• Travail des matériaux – Assemblage • Conception et production • Le second œuvre et l’équipement du bâtiment
• Machines hydrauliques, aérodynamiques et • Logistique MESURES – ANALYSES • Vieillissement, pathologies et réhabilitation du
thermiques • Métier : Responsable qualité • Instrumentation et méthodes de mesure bâtiment
• Fabrication additive – Impression 3D • Emballages • Mesures et tests électroniques • Travaux publics et infrastructures
• Maintenance • Mesures mécaniques et dimensionnelles • Mécanique des sols et géotechnique
• Traçabilité • Qualité et sécurité au laboratoire • Préparer la construction
• Métier : Responsable bureau d’étude / conception • Mesures physiques • L’enveloppe du bâtiment
• Techniques d’analyse • Le second œuvre et les lots techniques
• Contrôle non destructif

www.techniques-ingenieur.fr
 CONTACT : Tél. : + 33 (0)1 53 35 20 20 - Fax : +33 (0)1 53 26 79 18 - E-mail : infos.clients@teching.com
Powered by TCPDF (www.tcpdf.org)

Vous aimerez peut-être aussi