Vous êtes sur la page 1sur 53

Microscopie électronique à balayage

Microanalyse X par sonde électronique

J. Faerber
2004

1
2
SOMMAIRE

Microscopie à balayage.

Le microscope à balayage: principe et performances en grandes lignes.


Du principe aux limites.
Protocole d'observation en MEB. Préparation des échantillons.
Corrélation entre les différents paramètres instrumentaux.

Microanalyse X

La microanalyse X : principe, fonctionnement, performances et limites.


Protocole d'une microanalyse X.
Identification des éléments.
Calcul des concentrations.
Cartographie X, Cartographie spectrale, Profil de concentration.

Annexes

Différentes caractéristiques des diodes SiLi.


Profondeur de l'émission X
Pièges et artefacts
Abréviations et acronymes

Bibliographie (Ouvrages et web).

Image de couverture : Figures d'érosion sur les bords d'un cratère de SIMS. Echantillon de Si avec dépot d'Al et Si.

Sauf indication contraire, les images en MEB de ce documents ont été faites à l'IPCMS (J. Faerber).

3
Schémas de principe du Microscope électronique à balayage (Doc Jeol)

4
Le MEB - en grandes lignes
Principe et performances
(MEB- Microscope électronique à balayage)
(SEM- Scanning electron microscope)
(REM- Raster Elektronen Mikroskop)
Le microscope électronique à balayage permet d'obtenir des images de surfaces de pratiquement tous les
matériaux solides, à des échelles allant de celle de la loupe (x10) à celle du microscope électronique en transmission
(x500.000 ou plus). Ces images frappent en premier par le rendu très parlant du relief et la grande profondeur de champ.
Le MEB conventionnel fonctionne dans un vide ordinaire (10-5 à 10-6 mbar); les échantillons peuvent être
massifs, de dimension allant de quelques 1µm (particules) à une dizaine de cm de diamètre, voire plus (prélèvements
industriels). Ils doivent supporter le vide sans le polluer et être conducteurs. La préparation est en général simple.
Le MEB à pression contrôlée (dit environnemental ou low vacuum) permet l'observation dans un vide allant
jusqu'à 30 mbar, rendant ainsi possible l'examen d'échantillons humides ou gras (ech. biologiques), d'isolants sans
métallisation préalable (céramiques, métaux corrodés), voire en présence de liquide.
Equipé de détecteurs appropriés, le MEB permet de faire entre autres de la microanalyse X, analyse élémentaire
locale.

Fonctionnement simplifié.
L'image MEB est une image reconstituée : une sonde, le faisceau d'électrons, balaye la surface de l'échantillon,
un détecteur récupère de manière synchrone un signal induit par cette sonde pour en former une image, cartographie de
l'intensité de ce signal.
Le MEB est constitué d'une source d'électrons qu'un jeu de lentilles ''condenseur'' focalise sur un diaphragme.
Une deuxième lentille ''objectif'' refocalise ce faisceau sur l'échantillon en un spot très fin (<15 à 200 Å). Un jeu de
bobines de déflexion permet de déplacer le faisceau et donc de balayer l'échantillon. Ceci forme la sonde.
Sous l'impact du faisceau d'électrons, il y a essentiellement :
- rétrodiffusion d'électrons du faisceau incident avec plus ou moins de perte d'énergie;
- émission d'électrons secondaires de faible énergie, provenant des couches externes des atomes de
l'échantillon ;
- émission de rayons X, concurrentiellement avec les électrons Auger;
- émission de photons UV-visible,
- écoulement d'un courant vers la masse.

Tout ces signaux peuvent servir à former une image. Le détecteur de base du MEB (E.T. : Everhart-Thornley) récupère
un mélange en proportion variable d'électrons secondaires et d'électrons rétrodiffusés, proportion dépendant de l'énergie
primaire, de la distance échantillon-obectif, de l'angle d'incidence du faisceau primaire, du matériau observé. D'autres
détecteurs permettent de discriminer les électrons secondaires des électrons rétrodiffusés.

Le contraste (i.e. la variation locale de l'émission électronique) de l'image provient d'effets topographiques, chimiques
et structuraux, régissant la retrodiffusion et l'emission secondaire. Les aspects topographiques sont en général l'élément
pris en compte en premier :

-effet d'inclinaison de la surface par rapport au faisceau incident (a): l'intensité d'émission secondaire
est minimale à la normale du faisceau, maximale en incidence rasante;
-effet d'arête et de pointe (b,c): l'émission secondaire est plus intense sur des pointes et des arêtes fines
et il apparaît une surbrillance de celles-ci;

5
-effet d'ombrage : le détecteur étant monté latéralement sur le microscope, toutes les parties de
l'échantillon ne le "voient" pas sous le même angle, et la probabilité pour les électrons rétrodiffusés d'atteindre le
collecteur est plus faible pour les parties "à l'ombre";
-effet de composition de l'échantillon : un élément de numéro atomique élevé rétrodiffuse davantage
les électrons primaires, et ceux-ci excitent sur leur trajet de sortie un surplus d'émission secondaire. Ce contraste est
visible si le contraste de relief est suffisamment doux ou si la différence de numéro atomique est suffisamment grande.

Le grandissement est déterminé par le rapport entre la surface balayée sur l'échantillon (un rectangle de dimension
variant entre quelques mm et une fraction de micromètres de côté), et la dimension du document final sur l'écran
d'observation. Plutôt que de parler de grandissement, il peut être judicieux de parler de la taille du champs observé.

L'image en électrons secondaires se caractérise par une très bonne définition, jusqu'à des grandissements
compris entre x 20.000 et x 50.000 en conventionnel, jusqu'à >500.000 en haute résolution, avec des résolutions
latérales limites de 10 à 200 Å, suivant l'échantillon, l'appareil et les paramètres d'observation. Un montage du détecteur
dans la lentille objectif (dit "In Lens" ou "TTL") permet d'éliminer la plus grande part des rétrodiffusés, et d'obtenir une
image mieux définie de la surface, particulièrement à basse énergie primaire.

Patte de mouche (à gauche) et surface d'un copeau d'alliage cuivre-bérilium à droite)

L'image en électrons rétrodiffusés a une résolution latérale au mieux de l'ordre de 0.1 µm. L'utilisation d'un
détecteur spécialisé (à semi-conducteur ou à scintillateur) permet de faire ressortir un contraste qui est fonction du
numéro atomique des éléments présents. Un élément lourd donnera un signal intense et donc une zone claire; un élément
léger donnera un signal faible et donc une zone sombre, en quelque sorte une cartographie de numéro atomique. Ce
mode de fonctionnement nécessite une surface plane pour minimiser le contraste dû au relief. Il est alors riche de
possibilités, en particulier comme base pour une analyse d'image d'un échantillon de composition hétérogène. En
revanche, l'identification des éléments présents nécessite l'utilisation d'une autre méthode, typiquement la microanalyse
X.

Le MEB est un appareil de compromis. Il est de première importance de ne pas confondre grandissement et
résolution ultime, et grandissement et résolution pratique. Ces grandeurs sont fonction de la tension d'accélération, du
courant primaire, etc. Les tableaux en annexe donnent des indications sur l'interdépendance de ces paramètres et
montrent que certains évoluent de manière contradictoire. Il sera donc nécessaire de déterminer la série de réglages
adaptés à chaque échantillon. Une donnée indispensable que les constructeurs rechignent à communiquer, est une
"courbe de variation de la taille de sonde" en fonction de ces paramètres. Un exemple de ce genre de courbe est donné
en annexe.

On trouve actuellement 3 types d'utilisation du MEB, et les instruments spécialisés en conséquence :


- l'imagerie "de base", prolongement naturel de la microscopie optique, couvrant des grandissements de x25 à
x10.000, avec un maximum occasionnel de x30.000 à x50.000. (géologie, métallographie, polymère, granulométrie,
etc.).
- l'imagerie en mode "low vacuum", pour des échantillons aqueux, gras, à fort dégazage ou isolants (biologie,
agroalimentaire, papier, géologie, etc.). Les grandissements sont du même ordre que pour l'imagerie "de base".
- l'imagerie dite "haute résolution", où tout l'instrument est optimisé pour atteindre la résolution ultime et faire
facilement des observations dans des grandissements de x50.000 à x400.000, voire plus (nano-technologies, nano-
poudres, semi-conducteurs). Ce type d'instrument permet des observations à très faible énergie primaire, ce qui donne
une grande richesse de détails, déjà à des grandissements faibles (x2000 à x10.000).

6
A ces orientations de base, s'ajoute l'aspect analytique (EPMA, CL) et structural (EBSD), qui peuvent se greffer sur
chacun de ces types d'appareils. S'y ajoute aussi en biologie le mode "cryo", où l'échantillon est congelé, puis fracturé et
observé à froid (azote liquide). Malgré un large domaine de recouvrement, ces appareils sont très différents, tant dans les
performances qu'en matière de prix.

Les méthodes de caractérisation complémentaires aux MEB (tableau page suivante) sont, en amont, les microscopies
optiques, essentiellement en réflexion (champs clairs et lumière polarisée, occasionnellement DIC) et, en aval, l'AFM,
qui permet une quantification des hauteurs, le MEB ne quantifiant facilement que X et Y, et enfin le Microscope
Electronique en Transmission, qui nécessite une préparation d'échantillon plus complexe.

De haut en bas :
- Figures d'érosion ionique sur un échantillon de silicium, en cour de croissance de diamants par HF-CVD

- Fissures dans une couche d'or de métallisation sur un adhésif et figures de charge (surbrillances) induites par la perte de continuité
de la couche métallique.

- Composé organo-métallique de Co et Ru (grains blancs) déposé sur une couche d'or (zone gris claire avec figures hexagonales),
elle-même en épitaxie sur du mica (noir)

7
8
Le MEB - Du principe aux limites

Partant du principe de fonctionnement générale du microscope à balayage, il est utile de passer en revue les différents
paramètres qui déterminent l'image obtenue, en particulier ceux sur lesquels l'utilisateur peut (doit savoir) jouer.

Les "microscopies électroniques"


Le terme général de "microscopie électronique" peut prêter à confusion, pouvant être appliqué au microscope
électronique en transmission (MET, en anglais TEM), et au microscope électronique à balayage (MEB, en anglais
SEM). Dans la pratique, l'expression "microscope électronique" (en anglais EM) concerne presque toujours le MET. Et
bien qu'il y ait de l'optique électronique sur un MEB, le principe de formation de l'image est radicalement différent sur
ces deux appareils.
Une analogie peut être faite très directement entre le microscope optique (ou mieux, le projecteur de
diapositives) et le MET, le premier travaillant avec une source de photons, des lentilles photoniques en verre et la rétine
comme écran, le second travaillant avec une source d'électrons, des lentilles électromagnétiques et un écran fluorescent.
L'échantillon est dans les deux cas traversé par les "particules" et doit donc être transparent, soit aux photons, soit aux
électrons. Sommairement, une source fournit un faisceau approprié. Une lentille condenseur forme un faisceau parallèle
qui "éclaire" l'échantillon. Une deuxième lentille objectif forme dans son plan focal une image agrandie de l'échantillon.
Une troisième lentille , de projection en MET, oculaire en photonique, agrandit une partie de cette image et la projette
sur l'écran ou la rétine. Le résultat est une image optique. Le contraste traduit à la fois l'absorption des électrons liée à
l'épaisseur massique du matériau et la diffusion cohérente ou incohérente des électrons, liée à sa structure
cristallographique.
Le microscope à balayage fourni une image reconstituée : une sonde « ponctuelle » excite l'échantillon et
l'explore en le balayant ligne après ligne, et une panoplie de détecteurs permet de faire une cartographie des différents
signaux émis lors de la désexcitation. Le contraste traduit l'intensité d'un signal. Seule la sonde, en l'occurrence la source
d'électrons associée aux lentilles électromagnétiques, a une parenté avec le MET. Le principe de formation de l'image
est en revanche aparenté à l'AFM et au STM. C'est une image reconstituée.

(doc JEOL)

Aberrations optiques
La qualité de la sonde est déterminée par les aberrations optiques du couple source-colonne. Ce sont les mêmes
aberrations qu'en optique photonique.
L'aberration sphérique (Cs): les trajectoires proches de l'axe optique ne focalisent pas dans le même plan que les
trajectoires éloignées de l'axe optique. L'image d'une source ponctuelle devient dans le plan focale image un disque, au
lieu d'être un point. On sélectionne donc les trajectoires proches de l'axe optique et on élimine les autres à l'aide de
diaphragmes.
L'aberration chromatique (Cc): les électrons d'énergie cinétique différente ne sont pas focalisés dans le même plan. Il

9
faut donc veiller à avoir une faible dispersion en énergie des électrons, ce qui dépend de la température de la source,
donc de son type, ainsi que de la stabilité de la haute tension d'accélération. Une autre source d'abération chromatique
est dans les « cross-over », les points du trajet optique ou les trajectoires des électrons se croisent. L'interaction
Coulombienne entre électrons perturbe leurs énergies cinétiques respectives, introduisant une dispertion en énergie. D'où
le concepte d'optique « à l'infini », sans cross-over.
L'astigmatisme : au lieu d'un point circulaire, l'image de la source devient une ellipse, de par les défauts de symétrie de
révolution des éléments optiques. L'astigmatisme est aussi influencé par les charges locales de l'échantillon, les champs
magnétiques externes, et évolue dans le temps, en particulier par la pollution de la colonne. Il faut donc le corriger à tout
moment, au même titre que la mise au point.

Les différents éléments constitutifs du MEB


Le schéma en page 4 présente le principe de fonctionnement général du MEB, avec les différents éléments de la
colonne.

On trouve dans l'ordre


La colonne formée de :
la source, filament + Wehnelt ou pointe + anode extractrice (A,B)
l'anode accélératrice (C)
le (les) condenseur(s), avec leurs diaphragmes (D)
l'objectif avec son diaphragme et le système de balayage et de contrôle de l'astigmatisme
(E,F,G,H)
S'y ajoutent des bobines d'alignement ainsi que des éléments optiques correctifs non représentés

L'échantillon (I), qui participe activement et détermine beaucoup de chose dans la formation de l'image, avec la
platine permetant les déplacements.

Les détecteurs et (J, K) le dispositif de visualisation, lui-même couplé à la colonne par le systeme de balayage.

La colonne

Il existe deux familles de sources d'électrons:


Source à émission thermoélectronique : un filament (W, W-Re, monocristal de LaB6) est chauffé par effet Joule à une
température suffisante pour que l'énergie fournie soit supérieure au travail de sortie des électrons. Une électrode
polarisée extrait ces électrons et les accélère à l'énergie primaire choisie.
Sources à émission de champ : une pointe monocristalline orientée très fine est placée en regard d'une électrode
annulaire, et une ddp est appliquée entre les deux, de manière à créer un champ électrostatique très intense (109 V/cm) et
extraire les électrons par effet tunnel. Une deuxième électrode les accélère. Selon le cas l'émission se fait à température
ambiante (FEG dit "froid"), ou avec une assistance thermique (FEG dit "Shottky").

Le tableaux ci après donne les caractéristiques principales des différentes sources d'électrons utilisées . C'est un choix
fait à l'achat et qui conditionne fortement le prix de l'équipement. L'utilisation principale du MEB (images à faible
grandissement, haute résolution, analyse X intensive, etc.) va déterminer ce choix. Les critères seront les exigences en
terme de résolution, de stabilité en courant, de coût d'achat et de coût de maintenance.

Type de source Thermoélectronique Thermoélectronique Emission de champs Emission de champs


"froid" "Schottky"
Matériaux fil W 0.15 LaB6 (100) W (310) W(100)/ZrO
Température de service (K) 2800 1900 300 1800
Diam. du cross-over 20-50 m 10-20 m 2.5-10 nm 15 nm
Travail de sortie (eV) 4.6 2.7 4.5 2.8
Dispersion en énergie (eV) 1-2 0.5-2 0.2-0.4 0.35
Brillance 104 105 107 107
(A.cm-2.sr-1.kV)
Courant de sonde max. (nA) 103 103 <50 <200
Stabilité en émission 0.1 0.2 <3 0.5
(%/h)
Vide nécessaire (mbar) 10-5 <10-6 10-10 <10-8
Durée de vie (h) 40-150 1000-2000 2000-10000 ou + 1500-2000
A/M - Stand-by A/M Stand-by ou A/M A/M Stand-by
Régénération N N toutes les 8-15 h N
½ -1h d'instabilité
Prix 10-80 Euro 1500-3000 Euro 2000-3200 Euros 2000-3200 Euros

Le filament est une source divergente. Il est associé à une lentille électrostatique convergente, le wehnelt, qui forme une
image du point d'émission, le cross-over. L'ensemble filament-wehnelt est à la haute tension, par rapport à l'anode
accélératrice. Cette haute tension détermine l'énergie du faisceau d'électrons.

10
Le systeme optique placé après va faire une image réduite de ce cross-over, et le focaliser sur l'échantillon. Un ou
plusieurs condenseurs forment une première image réduite du cross-over, des diaphragmes fixes limitant la dispersion
du faisceau. L'objectif reforme une nouvelle image réduite sur l'échantillon (I). Un diaphragme objectif fixe ou à
plusieurs ouvertures sélectionne la partie du faisceaux proche de l'axe optique (pour minimiser Cs). En relation avec
l'émission de la source et le réglage du condenseur, son diamètre détermine le courant maximum que pourra fournir la
sonde. Au niveau de l'objectif, les bobines de balayage défléchissent le faisceau et d'autres bobines permettent la
compensation de l'astigmatisme. Tout ceci est plus ou moins raffiné, selon les exigences de l'appareil.

Dans le cas du microscope en pression contrôlée ou "environnemental" (ESEM), les diaphragmes jouent aussi le rôle de
limiteur de conductance, de manière à permettre un haut vide, voire un ultra-vide dans le canon et une pression de
l'ordre de 10 mbar dans la chambre. Différents étages de pompage, tout au long de la colonne permettent d'établir un
gradient de vide, en limitant les hautes pressions au plus court trajet optique.

Pour permettre la haute résolution, une optimisation ultime de tous les éléments de la colonne est nécessaire.
Deux idées originales sont à signaler :
- Un concept de colonne sur le principe de l'optique "à l'infini", où le faisceau divergeant à la source (FEG
Schottky), est maintenu parallèle dans la colonne et ne converge que sur l'échantillon (colonne Gemini). Il n'y a donc
pas de cross-over et on limite ainsi l'interaction Coulombienne des électrons dans le faisceau, et donc l'aberration
chromatique. Parallèlement, l'utilisation d'un potentiel retardateur dans l'objectif permet de traiter le faisceau dans la
colonne à énergie constante élevée, et de ne fixer l'énergie cinétique que dans les quelques mm avant l'échantillon. Le
faisceau est ainsi peu sensible aux perturbations extérieures, et la colonne très compacte. En l'absence de condenseur, le
courant de faisceau est déterminé par la combinaison de diaphragmes et du courant d'extraction de la pointe. Il se règle
par pas discrets et non plus en continu.
- Une autre voie consiste à placer l'échantillon immergé dans les pièces polaires objectif, comme en
microscopie à transmission, de manière à avoir une distance de travail nulle (objectif "In Lens"). Ceci permet de réduire
au minimum les aberrations optiques, mais limite la taille et les mouvements de l'échantillon. Une variante plus
répandue est d'utiliser la platine porte-objet et la chambre comme pièce polaire objectif complémentaire (objectif "semi-
In Lens"), l'échantillon se trouvant 1 ou 2 mm sous l'objectif, avec un grand débattement en X et Y. Dans les deux cas,
l'échantillon est enveloppé dans un champ magnétique, ce qui peut poser des problèmes pour des échantillons
magnétiques.

L'échantillon et sa préparation - La chambre objet

L'échantillon va participer activement au processus de formation de l'image. Sa nature chimique et son numéro atomique
déterminent le résultat de l'interaction avec le faisceau incident. Mais le microscope impose ses conditions préalables.
Les échantillons doivent respecter :
- la compatibilité avec le vide;
- la conductibilité électrique;
- la tenue au faisceau d'électrons;

- Compatibilité avec le vide.


Le microscope conventionnel fonctionnant sous vide poussé (<10-5 mbar), l'échantillon doit supporter ce vide
sans se dégrader ni le dégrader. Traditionnellement, les échantillons contenant de l'eau doivent être déshydratés de
manière contrôlée (échantillons biologiques - "fixation"), rincés à l'acétone, étuvés (éventuellement sous vide), ou
dessechés sous vide (dans un petit évaporateur) (échantillons géologiques, ciments, etc.). La deshydratation n'est pas une
opération innocente ; elle peut modifier considérablement l'échantillon. Des échantillons contenants des hydrocarbures
doivent être nettoyés avant observation, pour éviter le noircissement de la zone observée par le cracking de ces
hydrocarbures par le faisceau d'électron, et la contamination du microscope.
Le microscope à pression contrôlée permet en partie de contourner cette contrainte, que ce soit pour des
échantillons poreux, humides, voire franchement mouillés ou gras. Mais pour un échantillon "mouillé" par un solvant,
l'échantillon doit rester à la limite du changement d'état liquide-gaz de ce solvant, ce qui oblige à contrôler pression et
température. Pour de l'eau, on se trouve dans un domaine de +2 à +10° C, sous une pression de l'ordre de 10 mbar. Pour
des solvants plus volatiles, la température sera plus basse. Il faut donc une platine porte-échantillon à température
contrôlée (effet Pelletier). Et il convient de se poser la question si la température a un effet sur ce que l'on observe,
particulièrement en biologie. Pour des échantillons gras, il convient de considérer le risque de pollution à long terme de
l'appareil. Hors échantillons biologique et pour l'analyse en EDS, l'utilisation de l'helium comme gaz semble préférable.

- Conductibilité électrique.
Elle doit être suffisante pour assurer l'écoulement des charges superficielles. Les métaux ne posent en principe
pas de problèmes, si ce n'est par la présence de couches d'oxydation superficielle (cas des alliages légers et notamment à
basse tension). Les isolants seront recouverts d'une mince couche conductrice. Selon l'échantillon, l'observation prévue
et le type de microscope, les matériaux utilisés sont l'Au, l'alliage Au-Pd, le Pt, le Cr ou l'Ir, déposés généralement par
pulvérisation cathodique. Cette technique de dépôt permet un bon contrôle de l'épaisseur (50 à 300Å), l'absence

11
d'ombrage, et pas d'échauffement de l'échantillon pendant le dépôt. Dans le cas de la microanalyse X, on préfère déposer
une couche de carbone par évaporation thermique. Mais, si la conduction électrique est suffisante pour l'analyse X,
l'image n'est en générale que médiocre. Dans le cas d'échantillons isolants poreux ou de grande surface, il est bon de
masquer les parties inutiles avec du papier aluminium et de faire de bonnes liaisons électriques entre cet alu,
l'échantillon et le porte-échantillon.
En pression contrôlée, il est possible d'observer des isolants sans métallisation, le gaz ionisé déchargeant
l'échantillon. Mais la résolution ultime reste limitée.
En haute résolution, un choix judicieux de l'énergie primaire permet d'observer sans métallisation. Si toutefois
la métallisation s'impose, elle demande alors des soins particuliers, pour permettre d'observer la surface réelle de
l'échantillon, et non pas sa couche de métallisation... On utilise alors le Cr, l'Ir ou de l'Os amorphe. Les évaporateurs
sont d'une toute autre complexité (et d'un autre prix) que pour de la microscopie de base.

- Tenue au faisceau.
L'essentiel de l'énergie du faisceau d'électrons est dissipé en chaleur dans l'échantillon. Il y a donc risque de
fusion ou de recristallisation locale selon la tension d'accélération et/ou le courant. Ceci peut modifier, voir détruire
l'échantillon, aussi bien que polluer le microscope par du dégazage. Il s'agit donc de trouver les conditions limites de
tension et de courant pour chaque échantillon.Les matériaux sensibles sont les polymères, les échantillons biologiques,
certaines espèces minérales (zéolites), certains amorphes.

- Platine porte-échantillon et chambre


Les microscopes sont munis d'une platine porte échantillon à 5 degrés de liberté : X, Y et Z, une rotation de
l'échantillon sur lui-même, et un tilt, basculement de la platine vers les détecteurs. La platine doit entre mécaniquement
et thermiquement stable, pour éviter les vibrations ou la dérive de l'image à fort grandissement. Les mouvements sont
eucentriques, c'est à dire que le point de l'échantillon observé reste net lors de rotation ou de basculement. Il est
préférable d'avoir l'eucentricité mécanique, quoique la motorisation associée à l'informatique permette une eucentricité
par logiciel. La motorisation des mouvements permet une mémorisation de positions sur l'échantillon et l'automatisation
de certaines observations, en analyse en particulier. Selon la taille de la chambre, les déplacements sont plus ou moins
grand, (typiquement au minimum 50x50 mm et 60° de tilt), et déterminent la taille ou le nombre maximum
d'échantillons observable sans casser le vide.
La présence d'un sas d'introduction facilite le changement d'échantillon, permettant de gagner du temps et de
maintenir la chambre propre. Pour de petites chambres cela ne s'impose pas. Il est en revanche nécessaire si la chambre
est équipée d'un piège à azote anti-contamination ou d'une platine cryo. Il est fortement conseillé en haute résolution,
pour maintenir le meilleurs vide dans la chambre.
La chambre est en général munie de plus ou moins d'ouvertures pour l'installation d'accessoires, permettant de
faire du microscope une chambre d'expérience. Cette configuration doit être déterminée à l'achat, car difficilement
modifiable par après.

Interaction électron-matière - Les signaux à détecter - Le contraste


Le faisceau d'électron pénétrant dans l'échantillon est dispersé par une succession d'interactions élastiques et inélastiques
avec les atomes dans un volume enveloppe ayant la forme générale d'une poire (v. aussi Microanalyse : principes etc.).
Le point d'impact a la taille du faisceau incident, que l'on peut en première approche considérer comme infiniment petit.
Pour un numéro atomique moyen (Fe) et une énergie primaire de 20 keV, la poire a un volume de l'ordre du micron
cube, donc très grand par rapport au point d'impact. Selon la densité et l'énergie primaire, le diamètre moyen de la poire
varie de 0.1 à plusieurs micron.

Simulations de Monte-Carlo des trajectoires des électrons dans une matrice


de Fe, à 10 keV (à gauche) et 20 keV (à droite). (Goldstein 1984)

12
L'image de base du MEB est formée à partir d'un mélange en proportions variables des signaux d'électrons secondaires
et rétrodiffusés. On pourra selon selon le cas discriminer ces deux signaux. Avce des équipements complémentaires, on
pourra former des images à partir de la rétrodiffusion cohérente (canalisation, EBSP, -métallurgie, semi-cond.), de la
luminescence (CLS - minéralogie, céramiques), de la conductivité électrique (EBIC - semi-conducteurs), des rayons X
(tous domaines, analytique élémentaire) ou des électrons Auger (analyse de surface).

Signaux émis sous l'impact du faisceau d'électron, utilisables et utilisés en MEB

Le spectre d'émission des électrons, sous l'impacte du faisceau incident, présente essentiellement trois domaines

1- à haute énergie, un pic intense et très étroit, le pic élastique, dont le maximum est à l'énergie primaire du
faisceau, et qui est composé des électrons rétrodiffusés n'ayant pas subis de pertes d'énergie ;
3- à basse énergie, le pic des électrons secondaires, par convention à moins de 50 eV, indépendement de
l'énergie primaire ;
2- une grande zone intermédiaire, correspondant (à énergie primaire croissante) à la décroissance du signal des
électrons secondaires et à la croissance du signal des électrons rétrodiffusés ayant perdu de moins en moins d'énergie.
Les petites oscillations à peine discernables sont les pics Auger.

Les électrons rétrodiffusés (ou élastiques) sont des électrons du faisceau incident qui, après plus ou moins d'interactions
avec l'échantillon et donc plus ou moins de perte d'énergie, ressortent de l'échantillon. Leur libre parcours moyen (λ) est
grand, avec une profondeur d'échappement de l'ordre de 100 nm. Le taux de rétrodifusion est directement croissant avec
le numéro atomique de l'échantillon. Un élément lourd donnera donc un signal intense (clair), un élément léger un signal
faible (sombre). Avec un détecteur spécifique, sensible uniquement aux électrons rétrodiffusés, il est possible de
discriminer deux composés de Z moyen différents de moins d'une unité. L'intensité globale pour un échantillon donné
croît avec le courant du faisceau primaire, mais aussi avec l'énergie primaire. La profondeur d'échappement importante
(croissante avec l'énergie primaire, décroissante avec Z), entraîne un élargissement important de la zone d'émission par
rapport au point d'impact, d'ou une résolution latérale médiocre et un manque de détail topographique de surface.

Les électrons secondaires sont des électrons faiblement liés éjectés des couches externes des atomes de l'échantillon. Ils

13
sont de faible énergie (<50 eV par convention), avec un maximum d'électrons d'énergie de 5 à 10 eV. Ils ont en
conséquence un libre parcourt moyen très faible et une profondeur d'échappement (λ) de 0.5 à quelques nm.
Le rendement d'émission (δ) est fonction de l'énergie primaire (courbe ci-dessous) :

(Seiler 1983)

On observe un maximum de l'intensité émise aux énergies primaires faibles, avec des valeurs de EmPE comprises entre
200 eV et quelques keV, suivi d'une décroissance régulière aux énergies primaire supérieures. La valeur σ est le
rendemement total d'emission, secondaires + rétrodiffués, la valeur σ=1 correspondant à l'équilibre entre charges
apportées par le faisceau et charges emises, le courant échantillon étant alors nul.
On remarquable que :
au maximum d'émission, le rendement peut être supérieur à 1 ; il y a plusieurs électrons émis pour un électron
incident, et changement de sens du courant échantillon. C'est par exemple le domaine de fonctionnement du
multiplicateur d'électrons.
la courbe d δ=f(EP) coupe la droite σ=1 en deux points où les charges apportées équilibrent les charges émises.
En se plaçant à l'un de ces points (EPEII), on peut observer des matériaux isolants sans métallisation. Vu le domaine
d'énergie primaire, la qualité d'image obtenue ne sera bonne que sur un microscope conçu pour la haute résolution.

Le rendement d'émission secondaire a une dépendance complexe de la nature chimique du matériau. Du fait de
la profondeur d'échappement faible, la nature des couches de surface (contamination, oxydation, physi-sorption et
chimi-sorption) est déterminante. Le type de liaison propre au matériau joue aussi un rôle important. Ainsi le carbone
graphitique a un rendement maximum de l'ordre de 0.5 à 1, alors que le carbone diamant peut atteindre 90. Il n'est pas
possible à l'heure actuelle d'utiliser simplement l'émission secondaire pour une imagerie chimique. En revanche une
investigation de cette donnée peut être nécessaire pour expliquer certains contrastes.
La direction d'émission des électrons secondaires suit une loi en cosinus par rapport à la surface topographique,
l'émission étant maximum à la normale. L'angle d'incidence du faisceau primaire n'a pas d'influence localement sur cette
direction, mais en revanche l'intensité globale du signal augmente lorsque l'incidence du faisceau devient rasante à la
surface moyenne de l'échantillon. Ceci explique l'habitude de vieux routiers du MEB de toujours tilter l'échantillon de 5
à 10°.

Si on considère simultanément la rétrodiffusion et l'émission secondaire, on constate des effets pervers : les
électrons rétrodiffusés induisent sur leur chemin de sortie de l'émission secondaire, et ce d'autant mieux qu'ils ont perdu
de l'énergie, et donc qu'ils remontent d'une grande profondeur (fig a). Dans la tranche de surface d'où les électrons
secondaires peuvent émerger de l'échantillon, il y donc simultanément une émission directe intense sous le faisceau
primaire (SE1), au point d'impact, et émission "diluée" peu intense, par les rétrodiffusés émergeants (SE2) dans une
zone plus ou moins grande autour du point d'impact (fig b). La conséquence est une perte de résolution, qui se traduit
par une perte des détails de surface. S'il n'y avait pas cette rétrodiffusion, la zone d'émission secondaire ferait λ de
profondeur et 2λ de diamètre C'est là la résolution ultime que peut fournir le MEB.

(a) (b) (Seiler 1983)

14
Si l'échantillon est hétérogène en composition, on observera l'apparition d'un contraste de numéro atomique visible en
électrons secondaires, mais induits par les électrons rétrodiffusés, les électrons incidents étant d'avantage rétrodiffusés
dans les zones de numéro atomique élevé.

Le contraste de l'image conventionnelle provient de (c.f. Fig page 3):


-l'effet d'inclinaison de la surface par rapport au faisceau incident
-l'effet d'arrêt et de pointe
-l'effet d'ombrage
-l'effet de composition de l'échantillon
Pour une surface inclinée par rapport au faisceau, la surface émissive au point d'impact de profondeur λ est bien plus
grande qu'à la normale. L'émission secondaire est alors plus intense. S'y ajoute un domaine plus grand où les
rétrodiffusés et donc des secondaires SE2 peuvent émerger. Le contraste d'arête combine cette émission de secondaires
induits et l'effet d'orientation, et le contraste de pointe y ajoute la transparence de petits volumes aux électrons incidents,
jusqu'à des énergies assez basses.

L'effet d'ombrage concerne essentiellement les rétrodiffusés et varie selon la position de l'échantillon par rapport au
détecteur, et selon la distance échantillon-objectif (marquée WD sur les images).
Dans une image à relief marqué, avec un détecteur conventionnel, les secondaires donnent un éclairage uniforme du
point de vu de la position du détecteur. Les rétrodiffusés vont renforcer l'impression d'éclairage oblique, par un contraste
marqué entre les faces orientées vers le détecteur et les faces "à l'ombre". En détection TTL de secondaires purs, ces
effets d'ombrage disparaissent, et l'image peut devenir pâle et aplatie, en particulier sur des isolants.

Croissance CVD de silicium. On observe bien les contrastes d'orientation (faces rasantes surbrillantes)
de pointe et d'arête, et les effets de transparence.

L'effet de composition est particulièrement net en électrons rétrodiffusés mais marque aussi l'image normale par
l'émission secondaire induite (RE-SE2). Ceci amène toutefois à parler à tort de contraste de composition en électrons
secondaires ; il s'agit là d'une émission indirecte, et pas d'un effet de la composition sur le rendement d'émission
secondaire.

Dans le cas d'échantillons cristallins, un contraste supplémentaire peut se rajouter, dû à la canalisation des électrons
entre plans cristallographiques. Une surface polycristalline peut montrer avec le détecteur Everhart-Thornley un
contraste entre grains orientés différemment, qui change, voire s'inverse, selon l'énergie primaire, et pour de petites
variations de la rotation ou du basculement de l'échantillon. Avec un détecteur approprié, on peut observer des
diagrammes de canalisation correspondants (ou pseudo-Kikuchi), qui permettent de caractériser les paramètres
cristallins, les orientations des grains et la présence de contraintes (EBSD).

Cuivre polycristallin. Contraste cristallin avec le détecteur conventionnel.

15
La détection

(doc Jeol)

Le détecteur de base universellement utilisé Everhart-Thornley, est composé successivement d'une grille polarisée
positivement à une tension de 150 à 200 eV, de manière à defléchir et attirer les électrons secondaires. Une tension de
plusieurs keV est ensuite appliquée entre cette grille et un scintillateur, de manière à accélérer les électrons. L'impact
avec le scintillateur produit des photons, conduits par un guide de lumière à la fenêtre d'entrée d'un photomultiplicateur,
premier étage d'amplification. Le détecteur est placé latéralement dans la chambre, à la hauteur de l'objectif. Les
électrons secondaires, de faible énergie, sont attirés dans le détecteur ; en revanche, seul les rétrodiffusés émis dans la
direction du détecteur et sous le bon angle solide sont collectés.
Une polarisation négative de la grille en revanche, repousse les électrons secondaires et permet de n'avoir que des
électrons rétrodiffusés. Ainsi, malgré son nom de détecteur d'électrons secondaires, ce détecteur récupère aussi des
électrons rétrodiffusés, et ceci en proportion variable, dépendants essentiellement de deux paramètres :
la position de l'échantillon : en rapprochant l'échantillon de l'objectif, on diminue fortement l'angle solide
d'acceptance du détecteur vis à vis des électrons rétrodiffusés, sans effets sur les secondaires. On augmente ainsi la
proportion de secondaires. En basculant l'échantillon, on favorise la collection des électrons secondaires (et leur
émission), sans effet sur les électrons rétrodiffusés ;
l'énergie primaire du faisceau : a énergie élevée, beaucoup de rétrodiffusés, beaucoup de secondaires induits
(eS2), et un mauvais rendement de secondaires directes (eS1). A énergie faible, peu de rétrodiffusés, peu de secondaires
induits (eS2), et un rendement élevé d'émission secondaire directe (eS1).

Pour éliminer les électrons rétrodiffusés et n'avoir qu'un signal de secondaires, on place un deuxième détecteur dans la
colonne, au-dessus de l'objectif, qui va récupérer les secondaires remontants le trajet optique à contre sens.

Détecteur E.T. Et « In lens » (10 kV) : Croissance de diamants par HF-CVD sur cuivre polycristallin, même plage.(Image IPCMS – Hitachi)

16
On peut ainsi former des images en électrons secondaires "purs", sans être obligé pour autant de baisser l'énergie
primaire à <200 eV, encore que des instruments le permettent, et que l'imagerie à très faible énergie soit riche de
possibilitées. En comparant deux images, conventionnelle et TTL (Throught The Lens) à même énergie primaire, on
discrimine bien l'information du relief de surface de l'information prise dans une tranche de volume, et comportant le cas
échéant une part de de contraste chimique. Ceci nous rappelle qu'il ne faut pas prendre l'image comme argent comptant,
mais qu'il faut l'interpréter. On trouve en général ce montage à deux détecteurs sur le MEB « haute résolution », associé
à une source à émission de champ et une optique optimisée pour les basses tensions.

La détection des rétrodiffusés se fait à l'aide de détecteurs spécifiques (diode silicium 2 secteurs, scintillateur YAG,
channelplate, etc.), qui viennent en général se placer devant l'objectif. Ceci permet de renforcer le contraste de
composition, particulièrement en l'absence de relief marqué (idéalement, sur une surface polie). Le détecteur silicium
deux secteurs permet par la somme ou la différence de deux signaux de choisir entre une information dite de "topo",
sorte d'image dérivée du relief, de peu d'utilité, et une image dite "compo", à contraste de numéro atomique.

A gauche : Fonctionnement du détecteur Si 2 setcteurs, en mode composition et topographie (doc Jeol).


A droite : Image en mode compo d'une surface d'alliage InSnSb. Un examen attentif de l'original montre 5 niveaux de gris
différents correspondant à 5 phases de l'alliage. En claire la phase la plus lourde et en sombre la phase la plus légère.

Le détecteur à scintillateur YAG a une plus grande sensibilité à basse énergie, mais ne permet pas de discriminer la
composition d'un relief marqué. On n'utilise plus le détecteur E. T. en polarisation négative, le signal étant trop bruiteux.

En mode pression contrôlée, le détecteur Everhart-Thornley est inutilisable. En effet, à partir de 10-2 mbar, il y a
ionisation de l'atmosphère résiduelle par les électrons incidents et réémis, et apparition d'un plasma qui piège les
secondaires. Le détecteur ''historique'' et le plus performant actuellement est constitué d'une électrode annulaire
polarisée, placée devant l'objectif face à l'échantillon ; on mesure la variation de potentiel du plasma, dépendante de
l'émission secondaire. Une autre méthode consiste à mesurer la variation de l'intensité lumineuse du plasma, elle-même
aussi dépendante de l'émission secondaire. Enfin, on peut utiliser uniquement les rétrodiffusés qui, à énergie moyenne
ou élevée et à pression pas trop haute, sont peu déviés par le plasma, mais donnent une moins bonne résolution.

L'acquisition de l'image
Les réglages pour une acquisition d'image sont optimisés à un grandissement double du format de capture. Pendant la
capture, à fort grandissement, on veille à ne pas faire vibrer la colonne, et en haute résolution, on se tait ! (C.f.
"Protocole...")

La vitesse de balayage du faisceau détermine directement le rapport signal sur bruit de l'image. Pour les réglages, on
utilise une vitesse rapide (1-10 im/s), alors que pour la capture de l'image archivée, on choisi une vitesse lente (<1
im/mn). Dans le cas d'échantillons sensibles au faisceau (détérioration, contamination), ou de charge, il est possible de
faire l'acquisition en vitesse rapide avec accumulation et moyennage d'image. Un choix judicieux de la vitesse permet de
contourner le problème des charges, souvent ingérable en balayage lent.
Sur un microscope analogique, la capture se fait sur film, moyen lourd de par la contrainte du développement, mais qui
produit un document de grande qualité, où par agrandissement, on peut extraire des détails qui n'étaient pas forcément
visibles à l'écran. Des systèmes de numérisation peuvent être ajouté à ce type d'appareil. Ils sont soit passifs, remplaçant
simplement l'écran photo, soit actifs, prenant la main sur le balayage analogique du microscope.
La numérisation apporte une grande souplesse de manipulation (et une inflation du nombre) des images. Il convient de
bien choisir la taille d'image, pour ne rien perdre en qualité. Un format de 1024 x 1280 est un minimum, 1560 x 2048 est
mieux. Un format en puissance de 2 facilite le travail pour des traitement par transformée de Fourrier. Il faut dans ce cas
une image sans légende dans le champs, ou alors sélectionner une zone en puissance de 2 dans l'image. Le format

17
informatique de fichier d'archivage doit être non destructif, et si possible non compressé pour l'archive, afin de garantir
la longévité et la portabilité de la donnée. L'image doit contenir les informations de capture (barre d'échelle ou taille du
pixel, grandissement original, énergie primaire, distance de travail, détecteur utilisé, appareil, date, etc.) soit dans l'en-
tête du fichier, soit, mieux, dans un fichier texte joint. Par simplification, on brule souvent ces indications dans l'image.
Pour l'archivage, il est mieux d'avoir une image brute, sans inscriptions, et un fichier texte de meme nom, à coté.

Conclusion
On peut résumer l'essentiel de l'examen des éléments du microscope en quelques remarques courtes, faciles à mémoriser
et utiles tant pour la pratique devant l'instrument que pour le dépouillement d'images.

Le contraste et les effets d'ombrage de l'image "conventionnelle" proviennent des électrons


rétrodiffusés, la définition, la finesse du détail topographique, des électrons secondaires.

L'information chimique « simple » vient des électrons rétrodiffusés, et est bien marquée à énergie
élevée. L'information chimique venant des électrons secondaire est bien réelle mais complexe et
visible à basse énergie.

A énergie élevée, beaucoup de rétrodiffusés, à énergie faible, beaucoup de secondaires.

A énergie élevée, la taille de sonde est optimale, à énergie faible, le volume d'interaction est minimal

D'une manière générale, pour avoir une bonne résolution latérale, et une imagerie de la vraie surface, on a intérêt à
travailler à l'énergie la plus faible compatible avec les autres paramètres. Ceci est malheureusement contradictoire avec
une taille de sonde ultime : on sait mieux faire un spot fin à haute énergie primaire... Rien n'est parfait, comme disait le
renard (St Exupéry).

Parallelement, il n'est souvent pas possible de "faire le tour" d'un échantillon avec un seul jeu de conditions
expérimentales. On est amené à changer de signal, de détecteur et donc de conditions opératoires. Il convient donc de
bien savoir avant l'observation ce que l'on cherche, pour choisir les bons paramètres, et de prendre le temps après pour
interpréter le contraste des images au vu des paramètres explorés. Mais il est aussi profitable d'« essayer » des
conditions non habituelles, ce qui peut amener à découvrir d'autres aspects de l'échantillon dont on ne se douter peut-être
pas.

Figure d'érosion de silicium (100), par de l'hydrogène radicalaire, lors de la nucléation de diamants par HF_CVD

18
Protocole d'observation en MEB
Ce chapitre s'adresse avant tout à celui qui est amené à manipuler sur le microscope. Il convient d'adapter plusieurs
points à l'instrument utilisé, les fonctions accessibles ou transparentes variant beaucoup selon l'age et le type
d'instrument. Sur des appareils récents, beaucoup des opérations suivantes (marquées *) sont automatiques, voire
transparentes pour l'utilisateur.

Avant d'introduire l'échantillon, il est nécessaire d'avoir une idée de ce qu'on cherche (on observe rarement un
échantillon dont on ne sait rien). Ceci permet de choisir l'énergie primaire et la distance de travail, que l'on ne prend pas
au hasard. Dans l'inconnu, et cela arrive, une énergie primaire de 15 keV et une distance de 10 à 20 mm sont un bon
point de départ, que l'on affinera par la suite.

L'appareil étant prêt au fonctionnement et sous vide :


- Introduire l'échantillon ;
- Choisir la distance de travail ;
- Choisir l'énergie primaire et l'enclencher dés que le vide l'autorise ;
- Mettre la tension sur le photomultiplicateur (*);

Régler le contraste et la brillance de l'ampli vidéo et du moniteur sur des valeurs moyennes habituelles (* réglage
automatique). En imagerie numérique, la gamme de gris du moniteur doit entre ajustée avec une charte de gris, et
vérifiée d'après le rendu sur l'imprimante habituelle.

Mettre le grandissement au minimum, en balayage rapide, avec un réglage de courant incident correspondant à
une image peu bruitée. La valeur dépend du type d'interface : 0.5 à 1 nA sur un MEB analogique, 50 à 100 pA sur un
MEB numérisé.

Monter doucement l'intensité de chauffage du filament, en surveillant (*, saturation automatique du filament) :
- Le courant de chauffage du filament;
- Le courant d'émission du canon;
- L'apparition d'une image sur l'écran.

Régler le filament sur le deuxième pic d'émission. Ceci se fait soit en mode "image", soit en mode "ligne".
L'ordre de grandeur du courant de chauffage et d'émission est donné par le constructeur. Un réglage optimum du
filament permet d'allonger sa durée de vie. Le premier pic de la courbe d'émission n'est parfois qu'à peine perceptible;
d'autres fois il est possible d'obtenir une image sur ce pic, mais elle risque d'être fortement astigmate, floue ou dédoublée

Courant d'émission d'un filament W en fonction du courant de chaufage.


Images au premier pic et au palier de stauration.

Monter le courant de chauffage progressivement, sans à-coups, pour ne pas provoquer de chocs thermiques qui
pourraient déformer le filament.
Pour un microscope à effet de champ, on donne une consigne de courant d'émission et une rampe de tension
ajuste ce courant automatiquement. Un canon à cathode froide verra le courant d'extraction baisser rapidement après le
flash de dégazage initial (1 heure), suivi d'une période de stabilité confortable (5-8 heures), puis de l'apparition
progressive de bruit d'émission, et d'augmentation lente du courant. A ce stade, un nouveau flash s'impose, au moins
pour l'imagerie.

La première image qui apparaît est en général floue. Il faut donc de suite faire un premier réglage de la mise au

19
point, que l'on améliore en augmentant le grandissement et en corrigeant l'astigmatisme.
Vérifier l'alignement du canon et le centrage du diaphragme. Retoucher la mise au point et l'astigmatisme.

L'observation proprement dite peut se faire, en explorant la surface de l'échantillon, et en faisant les corrections
constantes de mise au point et d'astigmatisme nécessaires. Le grandissement augmentant, on est amené à baisser le
courant pour améliorer la résolution, et le cas échéant à réduire le diaphragme, soit en fonction du courant soit à cause
d'impératifs de profondeur de champ. Sur des appareils récents, beaucoup de ces fonctions sont automatiques (filament,
mise au point, astigmatisme, etc.).

Pour prendre une photo :


- Veiller à ce que le filament soit bien réglé pour éviter les fluctuations pendant la prise de vue. En FEG, veiller
que le courant d'extraction soit stable pendant le temps de la prise de vue.
- Régler courant et diaphragme aux valeurs optimales pour le grandissement choisi (voir ci après ).
- Régler la mise au point et l'astigmatisme à un grandissement au moins double de celui choisi pour la photo.
- Régler le contraste et la brillance selon les indications du fabricant de l'appareil.
- Ne pas faire bouger la colonne pendant la prise de vue. En haute résolution et à fort grandissement, ne pas
parler, particulièrement les voies graves !

Un petit calcul peut être utile pour déterminer la résolution instrumentale suffisante pour un grandissement
donné. En effet, il est inutile de chercher une taille de sonde de 50Å, à un grandissement de x2000, avec un écran photo
de 2500 lignes (l'écran d'observation ayant entre 800 et 1200 lignes) ou une numérisation en 900 x 1200 pixels ; l'écran
(le convertisseur AD) ne laisse passer qu'une résolution de l'ordre de 1500Å. C'est surtout le cas des faibles
grandissements (moins de x5000), ce qui représente quand même une bonne proportion des observations. Au-delà de
x10.000 en revanche, il est souhaitable d'affiner. Pour ce calcul, il est bien sur nécessaire de disposer de la courbe de
variation de la résolution, soit en l'ayant reçue du fabricant, soit en l'ayant faite soi-même. Pour une capture numérique
de l'image, le même calcul est nécessaire, mais s'y ajoute le choix possible de la résolution numérique de l'image. Deux
mise en gardes s'imposent :
Les formats numériques courants (autour de 900 x 1400 pixel), contrairement à la sortie photo traditionnelle
(équivalent à 2500 x 3800 pixel), ne supporte pas l'agrandissement ultérieur, par exemple pour regarder de près un détail
passé inaperçu à la prise de vue. Le pixel apparaît très vite. Pour des images importantes, ne pas hésitez à utiliser des
formats mieux résolus, 2000 x 2500 ou plus, s'ils sont disponibles, ce qui n'est pas toujours le cas !
La qualité finale du document dépend avant tout de l'imprimante, qui en général ne dépasse pas 150 lpi. Au final,
on ne voit souvent pas de différence entre une image numérique d'origine et un négatif numérisé et imprimé. Le tirage
photo ou l'imprimante à sublimation haut de gamme sont les étapes incontournables d'un document de qualité.

Avant de sortir l'échantillon:


Eteindre le filament et la H.T.
Si ce n'est pas automatique, couper la tension du PM, particulièrement s'il n'y a pas de sas.
Remettre les mouvements X,Y,Z et les rotations à leur "zéro".
Remettre le grandissement au minimum et le courant condenseur à une valeur moyenne.
Baisser l'éclairage de l'écran (écran analogique).

Préparation et montage des échantillons.


Les échantillons se montent en général sur des plots en laiton ou en dural de forme imposée par le microscope.
La position en hauteur doit être ajustée avec un gabarit, pour avoir le plan objet à la bonne hauteur dans le microscope.
Ceci évite de tatonner pour trouver la première mise au point, et d'aller telescoper l'objectif (ou le détecteur BEI) avec un
échantillon.
Le montage sur ce plot peut se faire à l'aide de colles diverses ou par blocage mécanique par des vis et des
languettes. Cette dernière manière est toute indiquée pour l'observation de séries d'échantillons identiques. Dans
beaucoup de cas, les colles sont la solution la plus universelle. Divers types existent sur le marché, sans compter les
bricolages possibles qui peuvent avoir leur intérêt, s'ils sont bien réfléchis.

Les laques d'argents. Ce sont des suspensions de feuillets d'argent de dimension de l'ordre de 10 µm, dans un
solvant, une résine ou un colloïde, qui en séchant "colle" l'échantillon. Les propriétés mécaniques changent suivant la
marque, en particulier la facilité avec laquelle l'échantillon se décolle en fin d'usage, et avec laquelle les résidus de laque
s'enlèvent de l'échantillon. Elles ont en commun d'être de très bon conducteurs électriques. Elles permettent, outre le
collage, de faire des liaisons conductrices entre la surface de l'échantillon isolant métallisé et le support. Il est conseillé
de toujours bien attendre le séchage complet, avant de mettre sous vide, au risque de voir l'échantillon s'envoler dans le

20
microscope, ou la laque éclabousser les échantillons voisins. Elles peuvent introduire un signal X parasite de l'Ag lors de
la microanalyse X, quoique un montage soigné limite ce problème.

Les laques de carbones. Elles ont des caractéristiques comparables aux laques d'argent, gênent peu en
microanalyse X mais présentent les inconvénients de "coller'" moins solidement et d'être plus difficiles à éliminer de
l'échantillon. Ceci peut poser des problèmes si le contrôle MEB n'est qu'une étape de l'histoire de l'échantillon, où une
pollution en carbone n'est pas souhaitable.

Les ruban adhesifs double-faces carbonés. La conduction électrique est suffisante dans la plupart des cas. Ils
permettent de fixer des échantillons très divers, de manière récupérable. Certains ruban adhesifs double face sont après
passage sous vide quasi indécollables (ruban de tapissier, pour coller les moquettes ; isolant). Cela peut être utile pour
des échantillons lourds, à la surface irrégulière, ou dans le cas d'échantillon magnétique (voir plus loin). Le ruban double
face peut aussi être utilisé pour des poudres, que l'on saupoudre sur le ruban, puis on souffle avec une poire pour enlever
tout ce qui n'est pas fixé. Mais la surface n'est pas lisse ni uniforme. Cela conviendra pour des poudres grossières
uniquement.

Le papier aluminium permet d'emballer un échantillon de forme complexe et de le maintenir correctement.


Selon le cas, faire des ponts avec une laque conductrice entre l'échantillon et le papier alu, et entre ce dernier et le
support. Il permet aussi d'emballer un gros échantillon isolant, pour ne métalliser que la partie à observer. Là aussi,
mettre un pont de laque d'argent entre papier alu et la zone métallisée.

Pour des échantillons difformes, on peut utiliser du mastic polyester (sans durcisseur) comme une pâte à
modeler. Il convient de dégazer longuement la préparation dans une cloche à vide, avant de l'introduire dans le
microscope. Préférer un collage avec une résine d'enrobage de métallographie (conductrice), sur un support standard.

Les résines d'enrobage pour polissage métallographique sont en générale isolantes, ce qui exige une
métallisation de la préparation, avec les problemes que posent les décollements et fissures. On trouve sur le marché des
résines epoxy conductrices, chargées à l'argent (très cher), mais on peut aussi en fabriquer en faisant une bouillie d'une
résine epoxy ordinaire et de poudre de carbone.

Des lamelles couvre objet en verre, utilisée pour la microscopie optique donnent une surface très lisse pour
l'observation de grains, poudres, etc. On dépose sur la lame une goutte de suspension dans un solvant volatil, que l'on
laisse évaporer. La lame est alors collée sur un plot standard. Une métallisation s'impose bien évidement, ainsi qu'une
liaison électrique entre la surface de la lame et le plot. Pour éviter la métallisation, on peut utiliser du Si poli, qui
s'obtient comme déchet de la micro-électronique à bon marché. La surface est bien lisse et la conduction électrique
suffisante pour en faire une bonne alternative à la lame de verre.

Pour l'observation et l'analyse de lames minces pétrographiques, il est utile de marquer les plages repérées au
microscope polarisant avec de l'encre de chine. En séchant, l'encre de chine laisse un relief bien visible en électrons
secondaires. Le microscope polarisant voit par transparence et en couleur, alors que le MEB voit en surface et en NB ; le
dépaysement est garanti! Cette remarque s'applique à beaucoup de préparations faites pour la microscopie optique en
lumière transmise.

Pour l'analyse X de poudres ou de petits grains, on peut utiliser comme support des pastilles en carbone, en
béryllium (attention: toxique !), en tétraborate de lithium, polis, un morceau de film Kapton, ou un morceau de Si.
On choisi le support en fonction des éléments dont le dosage est souhaité, de manière à ne pas avoir de raies parasites
génante dans le spectre, ni de fluorescence du substrat sur les grains. Le Be ou LiBO4 sont les substrats les plus
universels, mais pas les plus simples à utiliser.

Montage. Autres aspects.

Une attention particulière doit être portée à la dimension de l'échantillon, particulièrement pour des matériaux
isolants. On a toujours intérêt à réduire la taille de l'échantillon au minimum, pour ne conserver que la zone à observer,
cela afin de favoriser l'écoulement des charges et d'avoir la plus grande latitude de mouvement sur la platine du
microscope.

Un examen de l'échantillon à la binoculaire ou au microscope métallographique avant l'examen au MEB est


souvent profitable, pour en quelque sorte "reconnaître les lieux". Observer en tenant compte que le microscope optique
"voit" en couleurs, alors que le MEB "voit" en NB. Il faut donc repérer les formes et non les couleurs. Penser aussi que
le MEB "voit" des différences de composition en rétrodiffusés, que l'on ne voit pas forcément en optique, et que le
microscope optique voit en transparence alors que le MEB ne voit que la surface.

Penser à chasser les poussières avec une poire soufflante avant d'introduire le plot dans le microscope. Encore

21
qu'il est souvent pratique d'avoir quelques poussières sur un échantillon très lisse... pour trouver la première mise au
point !

Les plots prévus pour recevoir plusieurs échantillons doivent avoir un marquage permettant de repérer les
différents échantillons dans l'appareil. Le grandissement minimum du MEB ne permet en général pas de voir l'ensemble
du porte échantillon. Lors du montage de plusieurs échantillons sur le même plot, veiller tant que possible à garder les
plages à observer au même niveau Z, pour ne pas avoir à faire de trop grand rattrapages de la mise au point en passant
d'un échantillon à l'autre, et ne pas risquer de cogner dans l'objectif avec un échantillon hors champs d'observation, aux
courtes distances de travail, ou lors d'un tilt.

Si on désire utiliser les possibilités d'eucentricitée de la platine du microscope, sans trop de complications,
monter l'échantillon bien centré sur le plus petit plot prévu par le fabricants du microscope, ceci pour être à la position
eucentrique et ne pas se trouver en butée sur un des mouvements.

Certains microscope haute résolution ont un champs magnétique important sortant de l'objectif. Ceci peut
décoller facilement un échantillon magnétique. Le problème est critique tout particulièrement pour les poudres
magnétiques, qui en allant se coller dans le tube optique, vont induire de l'astigmatisme. La fixation doit donc être
soignée, mécanique pour des échantillons massifs (vis, étaux), et en éliminant avec un aimant puissant dans le cas des
poudres les grains mal collés. Dans le microscope, faire les observations à grande distance de travail et à énergie
moyenne.

Matériel de base pour la préparation et le montage des échantillons

- Pincettes, curre-dents, lames de rasoir, moyens de collages, plusieurs plots pour le microscope, poire
soufflante, loupe ou binoculaire, bon éclairage.

- Accès à tout le matériel de découpe/polissage/observation de métallographie classique, selon les échantillons


habituellement observés.

- Evaporateurs pour la métallisation des échantillons. Pour l'or, un évaporateur par pulvérisation cathodique est
le plus courant et le plus pratique. La métallisation pour la haute résolution exige des appareils d'un autre niveau que
l'observation standards. Pour le carbone, un vide < 10-5 mbar est souhaitable. Il convient donc de préférer les appareils
dédiés, plutôt que les accessoires permettants de transformer l'évaporateur pour l'or en évaporateur de carbone (s'il ne
fonctionne qu'en vide primaire).

Croissance orientée de nanotubes de carbone, par HF-CVD, sur silicium.


Vue sur échantillon basculé de 45°. Détection « dans la lentille »

22
23
Corrélation entre les différents paramètres
instrumentaux

Les tableaux suivants indiquent les interdépendances de différents paramètres, ainsi que des ordres de grandeur de
certains d'entre eux. En complément, la courbe de variation de la résolution illustre dans un cas particulier l'importance
de ces variations.

Taille de sonde.

Profondeur de champs.

24
Dépendance de l'énergie primaire.

25
Dépendance du courant incident.

26
Courbe de variation de la résolution.
Le tableau ci-dessous donne un exemple de ce que l'on pourrait appeler la courbe de variation de la résolution pour un
microscope déterminé (JEOL JSM 840; documentation officieuse mais non confidentielle). Certains fabricants
commencent à fournir ce type de document, mais seulement lorsque c'est à leur avantage, et souvent il s'agit de
simulations et non de mesures. Il est certain que l'établissement d'un tel tableau est un gros travaille. Ces mesures se font
en balayant une arrete vive qui intercepte le faisceau, et en mesurant la variation du courant échantillon. On passe de 0
nA (pA) à une valeur maximum, et la distance entre ces points (ou les valeurs à 10% et 90%) donne la taille de spot.
La colonne A donne le diamètre du faisceau en fonction de la distance. En électrons secondaires, la résolution
est assimilable au diamètre du spot.
La colonne B donne la relation énergie primaire/courant.
La colonne C donne les grandissements photo maxima correspondants.

A B C
Utilisation:
Pour une Ep de 15 keV, lue en abscisse, et un courant de 3*10-11A, quel diamètre de spot peut-on espérer à 8
mm, 25 mm, 39 mm (positions Z possibles sur ce microscope)?
De la tension choisie, tracer une verticale jusqu'à la droite des Ip= 3*10-11A. De là, x', tracer une
horizontale vers la gauche jusqu'à la verticale de la distance de travail retenue (colonne WD). Lire le diamètre de spot
Dp exprimé en Å. Dans notre exemple, on trouve:
8 mm 150Å.
25 mm 260Å.
39 mm 420Å.
Notez la dégradation importante avec la distance.

De ce tableau, on peut tirer deux enseignements généraux utiles:

27
- Le tableau peut être lu dans l'autre sens. En particulier, la résolution limite annoncée pour cet appareil étant de
45Å, une lecture à rebours montre que cette résolution n'est possible que dans une gamme d'énergie primaire supérieure
à 32 keV et un courant inférieur à 10-11A. L'échantillon supporte-t-il cette énergie primaire? Et que voit-on encore sur
l'écran en balayage analogique à ce courant ? Dans la pratique , on s'éloigne vite de ces conditions.

- La distance de travail imposée par ce microscope pour la microanalyse X est de 39 mm, les courants habituels
de l'ordre de 10-9A à 10-10A et l'énergie primaire passe-partout de 15 à 20 keV. En transposant ces données sur le tableau
on voit que les meilleures résolutions image possibles en microanalyse X, sans avoir à modifier la position Z, sont de
500 à 1000Å. L'image sera toujours médiocre. Cela ne gène pas pour l'analyse en elle-même, mais plutôt l'observateur,
qui doit changer les ajustements pour passer d'une bonne image à l'analyse. Moyennant un détecteur modifé, et un
changement de TOA, on peut réduire la distance d'analyse et améliorer cette situation. Lors du choix pour l'achat d'un
appareil, il est utile de veiller à avoir une distance de travail "analyse" courte, entre 8 et 15 mm, par exemple, et
compatible avec les détecteurs images (BEI en particulier).

La colonne C du tableau, donne le grandissement maximum utilisable pour une combinaison tension/courant/distance
donnée. Elle tient compte de la résolution ligne de l'écran photo. Dans notre premier exemple, on obtient:
8 mm x65.000
39 mm x30.000
Un grandissement microscope supérieur ne donnera pas plus de détails qu'un agrandissement photo ultérieur du négatif.

28
La microanalyse X.
(EPMA- Electron probe micro analysis)
(EDX- Energy dispersive X-Ray analysis - EDS Energy Dispersive (x-ray) Spectromet(er)ry )
(WDX- Wavelength dispersive X-Ray analysis - WDS - Wavelength Dispersive (x-Ray) Spectromet(er)ry )
(Microanalyse X par sonde électronique)

La microanalyse X permet une analyse élémentaire, par détection des raies caractéristiques X des éléments en
présence. Elle permet des analyses ponctuelles avec une résolution spatiale de l'ordre de 1 µm3. Elle est qualitative et
quantitative.

Elle se pratique sur trois types d'appareils:


-La microsonde de Castaing en WDS, dont c'est la fonction première.
-Le microscope électronique à balayage, en général, en EDS , parfois en WDS.
-Le microscope électronique en transmission, en EDS exclusivement.

On peut constater un certain désordre dans les acronymes utilisés, avec une confusion entre la méthode physique et
l'instrument. L'appellation EPMA semble être celle à préférer, pour la méthode en général, les aconymes EDS et WDS
précisant le type de détection utilisée. Les acronymes EDXS ou WDXS (ou X-EDS et X-WDS) seraient assez adaptés,
mais sont peu utilisés. On trouve en revanche souvent l'appellation XRF (X-Ray Fluorescence) appliquée à la
microanalyse X. Cet acronyme est à proscrire, car la fluorescence X correspond à l'excitation de rayonnement X par un
faisceau X primaire, et non par un faisceau d'électrons. De même, le terme "EDAX" est un nom commercial d'un
fabricant et non un nom de méthode d'analyse.

Principe
Lorsqu'un faisceau d'électrons interagit avec l'échantillon à analyser, des électrons des niveaux de coeur sont
éjectés. La désexcitation de l'atome ainsi ionisé se fait par une transition d'un électron d'un niveau externe vers la lacune.
L'énergie disponible est libérée par l'émission soit d'un photon X, soit d'un électron Auger. Les photons X sont
caractéristiques de la transition et donc de l'élément concerné. L'indexation des raies se fait soit en énergie (eV) soit en
longueur d'onde associée (Å ou nm), selon la relation λ = hc/E, (λ longuer d'onde, h constante de Planck, c vitesse de la
lumière et E énergie cinétique). Ces raies caractéristiques se superposent au spectre d'émission continu de rayons X
(Bremsstrahlung, souvent appelé improprement bruit de fond). L'émission X émergeante (rayonnement caractéristique et
Bremsstrahlung) provient d'un volume d'interaction électrons-échantillon appelé poire de diffusion. Sa dimension (de
l'ordre du µm3) et sa forme dépendent de l'énergie primaire et de la densité de l'échantillon.

Poire de diffusion et distribution spatiale des différents rayonnements émergeants (d'ap. Goldstein)

Fonctionnement.
L'appareil est constitué d'une source d'électrons, dont l'énergie primaire est choisie entre quelques keV et 35 keV, et
focalisée sur l'échantillon. Un spectromètre associé à un calculateur collecte les photons X et permet de traiter les
données.

On distingue trois types de spectromètres:


-Le spectromètre à dispersion de longueur d'onde (WDS). C'est un monochromateur qui fait un tri séquentiel

29
en longueur d'onde selon la loi de Bragg. Il détecte les éléments du béryllium (Be, Z = 4) à l'uranium (U, Z = 92), avec
une résolution en énergie de 5 à 30 eV, un rapport pic sur fond de 100/1 à 1000/1 et une limite de détection de l'ordre de
100 ppm. La nécessité d'adapter le paramètre du cristal analyseur à la gamme de longueur d'onde impose de changer de
cristal au cours de l'analyse ou de disposer de plusieurs spectromètres ayant chacun un cristal différent. C'est
l'instrument de l'analyse quantitative fine intensive.

Spectromètre en longueur d'onde (Maurice et al. 1978)

-Le spectromètre à sélection d'énergie (EDS). C'est une diode Si dopée au Li, qui, associée à un analyseur
multicanal, fait un classement des photon X en fonction de leur énergie. Il détecte les éléments du bore (B, Z=5) ou du
sodium (Na, Z=11), selon le type de fenêtre d'entrée de la diode, à l'uranium, avec une résolution de 60 à 160 eV selon
l'énergie, un rapport pic sur fond de 10/1 à 100/1, et une limite de détection de 1000 ppm. Le positionnement de
l'échantillon est nettement moins critique qu'en WDX. Son manque de résolution en énergie est largement compensé par
sa souplesse d'utilisation et sa rapidité de mise en oeuvre. C'est l'instrument "à tout faire".

Chaine de mesure analogique en EDS (Maurice et al 1978) et et éclaté d'un détecteur SiLi (doc. Gresham)

-Une technologie voisine est le "Silicon Drift Detector" (SDD) qui permet une résolution actuellement
comparable au SiLi, avec les avantages de supporter des taux de comptage de 300 à 500 kc/s (20 à 50 kc/s pour le SiLi),
et de ne nécessiter qu'un refroidissement à -30°C par effet Pelletier, donc sans azote liquide. Cette gamme de taux de
comptage permet de faire des cartographies X en quelques minutes, du moment que le MEB peut fournir assez de
courant. L'abscence de refroidissement et la gamme de température permet une mise en froid rapide, à la demande, avec
une bonne fiabilité du détecteur dans le temps (ce qui n'est pas le cas de SiLi à effet Pelletier).

-Un autre développement récent est un détecteur basé sur un microcalorimètre. L'énergie du photon est
transformée en chaleur dans un absorbeur supraconducteur à 100 mK. La mesure de l'élévation de température indique
l'énergie déposée. Ce type d'analyseur présente les avantages de l'EDS (souplesse d'usage, spectre simultané, taux de
comptage) combinés à la résolution d'un WDS (3 à 10 eV). Son handicape actuel est un prix très élevé et un
encombrement non négigeable sur le MEB.

Possibilités analytiques
La plage analysée peut être :
-Une surface globale pouvant varier de quelques mm à quelques µm de côté.
-Un point, dont la position est choisie par l'utilisateur. La plage analysée sera alors de l'ordre du micron-cube
pour des échantillons épais, indépendament du diamètre du faisceau d'électrons, de par la diffusion des électrons dans le

30
matériaux, et le grand libre parcours moyen des X.

1) Analyses qualitatives.

Eléments: du Be ou du Na à l'U suivant les caractéristiques de l'analyseur.

Echantillons: solides, massifs, polis en WDS; polis ou bruts, poudres et particules en EDS sur MEB ;
échantillons minces et particules en EDS sur TEM.

2) Analyses quantitatives.

Les intensités des raies mesurées par le spectromètre nécessitent une correction dite des effets de matrice, pour
remonter à la concentration réelle. Différentes méthodes de correction ont été proposées (ZAF, φ(ρz), éch. minces, éch.
biologiques, etc.) et nécessitent le traitement du spectre sur le calculateur associé à la chaîne de mesure.
On distingue:
-L'analyse semi-quantitative, sans standards de composition, où les intensités sont normalisées à 100% avant
correction des effets de matrice.
-L'analyse quantitative, où le calcul se fait par comparaison des intensités des inconnus avec celles de standards
existants en bibliothèque, ou acquis au moment même et dont on connaît avec précision la composition. La procédure de
correction des effets de matrice est appliquée sur ces intensités corrigées.

3) Profil de concentration. Cartes de répartition. Carte spectrale.

En faisant une série de points d'analyse en ligne, et en suivant la variation de l'intensité des raies ou de la
concentration des éléments présents, on peut tracer un profil de concentration de ces éléments et mettre en évidence par
exemple des phénomènes de diffusions.
De manière analogue, on peut balayer point par point une plage de l'échantillon, en suivant les variations
relatives de chaque élément présent. On obtient alors un jeu de cartes de répartition des éléments, avec une carte par
élément. Des analyses ponctuelles dans des zones judicieusement choisies permettent de préciser les concentrations
exactes dans chaque zone. Des traitements d'images peuvent être faites sur ces cartes, permettant de mettre en évidences
des phénomènes variés (orientations, dispersion, etc.).
Des systèmes actuels permettent d'enregistrer un spectre complet à chaque point au lieu de seulement une
intensité, et de refaire a posterori des mesures quantitatives sur des plages sélectionnées dans l'image. La carte de
répartition peut ainsi devenir quantitative, et permet d'établir des cartes de phases chimiques au lieu de cartes d'éléments.

Appareillage
1) Microsonde de Castaing.

C'est un appareil destiné à la microanalyse X. Il est conçu autour de 3 à 5 spectromètres WDS, disposés autour
de la colonne électronique. Un microscope optique permet d'obtenir une image en lumière polarisée ou en DIC de la
plage analysée, en même temps que l'image en électrons secondaires ou rétrodiffusés. La stabilité du courant et de la
platine porte-échantillons sont particulièrement soignés. En général un EDS permet de faire rapidement une mesure
qualitative. Les mesures sont relativement longues mais très précises. L'image est de même qualité que celle obtenue sur
un MEB de base. La microsonde est une machine à produire de l'analyse quantitative de haut niveau, pour des majeurs
aussi bien que pour des traces.

2) MEB muni d'un EDS.

Répondant aux caractéristiques propres au MEB, il permet à la fois une bonne image et une analyse assez riche.
L'EDS permet des analyses qualitatives très rapide et grace à la longue histoire du développements des programmes de
déconvolution exigés par la piètre résolution en énergie des SiLi, les mesures quantitatives peut être aussi bonnes que
sur une microsonde, tant qu'il n'y a pas de supperposition de raies entre un majeur et une trace. Le MEB peut par ailleurs
être équipé d'un WDS, et devient alors plus ou moins une microsonde.

3) MET analytique.

Un EDS peut être monté sur un MET et permet alors la microanalyse d'échantillons minces. La résolution
latérale est nettement meilleure que sur un MEB et les corrections des effets de matrice sont dans le principe plus aisées.
En revanche le taux de comptage est faible et il est souvent à craindre des évolutions des concentrations en cours
d'analyse, sous l'impact du faisceau. Le quantitatif nécessite un contrôle ou une connaissance de l'épaisseur de la
préparation. Sur un MET équipé du mode balayage (STEM), il est possible de faire des cartes de répartition.

31
Contraintes pour l'échantillon.
1) Conductibilité superficielle. Quoi que d'une manière moins drastique que pour l'imagerie en MEB, il
convient d'assurer l'écoulement des charges de la surface d'échantillons isolants. Le matériau déposé est choisi de
manière à ce que ses raies caractéristiques ne gênent pas la lecture du spectre et son épaisseur suffisement faible pour ne
pas absorber de manière significative le signal X de l'échantillon. En général on prend du carbone ou un léger flash d'or.
Un excès d'or peut amener à une absorption importante des raies X d'énergie faible. Certains programmes en tiennent
compte, du moment que l'on connaît l'épaisseur déposée, ce qui n'est pas évident (dépôt granulaire) .
2) Planéité. Afin de limiter les effets de relief (c.f. « Artéfacts »), on a intérêt, pour des analyses quantitatives
en particulier, à avoir des surfaces polies. Moyennant un peu de prudence, l'EDS est malgré tout suffisamment souple
pour permettre des analyses qualitatives ou quantitatives donnant un résultat acceptable, sur des surfaces au relief assez
tourmenté.
3) Tenue au faisceau d'électrons. Les densitées de courant utilisées sont plus importantes qu'en imagerie et les
risques de modifications chimiques locales ne sont pas négligeables.

Le tableau ci-après résume les principales caractéristiques et contraintes des deux familles de spectromètres utilisés en
microanalyse X (D'après Maurice et al. 1978, ré-actualisé).

Spectromètre à selection Spectromètre à dispersion de


d'énergie longueur d'onde.
EDS WDS
Sensibilité de détection 10000 c/s/nA 1000 c/s/nA

Courant électronique nécessaire 10pA à 0.5 nA 1 nA à 100 nA

Temps d'acquisition typique 30 à 200 s 300 à 3000 s

Eléments détectés Be-4 à U-92 Be-4 à U-92

Résolution (MnKα 5.9 eV) 129 à 145 eV 6 eV (Quartz 10-10)


30 eV (LiF)
Rapport pic/fond 2 à 100 100 à 1000

Limite de détection 1000 ppm 100 ppm

Constante de temps 10- 100 µs (spectre) 0.5 à 5 µs


1 à 20 µs (image X)
Mouvement mécanique Nul Complexe

Position de l'échantillon Tolérante Critique (± qlq µm)

Etat de surface de l'échantillon Idéalement poli Impérativement poli


Ech. brut possible

Autres caractéristiques Un détecteur pour tous les Plusieurs spectromètres ou plusieurs


éléments cristaux analyseurs pour couvrir la
gamme des éléments

Méthodes d'analyse complémentaires


Ce sont la diffractions des rayons X (XRD) et la fluorescence X (XRF) qui donnent une information structurale et
chimique élémentaire moyennée sur un grand volume, et la specrométrie des photoélectrons (XPS) et des électrons
Auger (AES) qui donnent une information chimique et sur les états de liaison d'extrème surface.
Le microscope Auger à balayage en particulier permet une approche très comparable à la microanalyse X, mais
à plus petite échelle (100 nm en latéral, 1-2 nm en profondeur) et avec l'information suplémentaire des états de liaison.
La specrométrie de masse des ions secondaires (SIMS) permet un suivi analytique élémentaire en profondeur
par abrasion ionique.
La cathodoluminesence, dont peut être équipé le MEB, est très sensible à des traces et des dopants, et permet
d'en faire la cartographie assez facilement (détection large bande ou spectromètre UV-visible). Elle se pratique
essentiellement sur des oxydes (minéraux naturels et céramiques techniques).

32
Protocole d'une microanalyse X.
(EDS sur MEB)
Ordre des opérations.

1) Mise en place de l'objet.


2) Obtention d'une image MEB.
3) Positionnement de la diode et paramètres d'analyse.
4) Choix de la plage analysée.
5) Acquisition du spectre.
6) Identification des éléments présents.
7) Calcul des concentrations.

1) Mise en place de l'objet : la distance de travail (WD) est imposée par le microscope. L'échantillon doit être placé au
point de convergence de l'axe optique du microscope et de l'axe de la diode. L'angle d'inclinaison de la diode, ou
d'émergeance des rayons X (TOA, = take off angle) détermine cette distance. Il est en général compris entre 30 et 60°
entre le plan de l'échantillon et l'axe de la diode.

2) Obtention d'une image MEB. On suppose le fonctionnement du MEB connu (c.f. première partie). La haute tension
est choisie en fonction des éléments supposés exister dans l'échantillon, en respectant un rapport Ep/Ec compris entre 2
et 3, Ep étant l'énergie primaire, Ec l'énergie de la raie caractéristique de l'élément considéré. Ceci donne en première
approche une énergie primaire de 12 à 20 keV. Dans le cas d'un échantillon totalement inconnu, une Ep de 15 keV
permettra une première analyse. En TEM cette règle ne pourra pas être respectée, l'énergie primaire étant de 100 à
400keV ; la détection des éléments légers sera aussi en conséquence, loin de l'optimum.
Une première observation de l'échantillon est alors faite en image d'électrons secondaires et rétrodiffusés.
L'image en électrons secondaires permettra d'apprécier le relief de l'échantillon et celle en rétrodiffusés donnera une
première idée de son homogénéité (solution solide ou mélange de plusieurs phases).

3) Positionnement de la diode et paramètres d'analyse. Elle est généralement reculée au repos, pour permettre toute
sa liberté de mouvements à la platine du microscope en imagerie. On l'approche au plus près de l'échantillon pour avoir
l'angle d'acceptance le plus grand et donc le meilleur taux de comptage (d'un point de vue géométrique).

Vérification de la calibration. On trouve en général une pièce du porte-échantillon qui est en laiton, ce qui
permet d'avoir les raies caractéristiques du Cu. On vérifie les positions des raies CuKα, et CuLα, respectivement à 8040
et 930eV. S'il y a un décalage, on effectue une calibration. La plupart des machines ont un programme de calibration
automatique, à partir de l'énergie théorique de la raie retenue. Il n'est pas nécessaire de vérifier la calibration à chaque
spectre ; une vérification mensuelle, ou avant une mesure critique est suffisante

Choix de la constante de temps de la chaîne de comptage. La constante de temps τ détermine simultanément


la résolution en énergie de la chaîne de mesure et le taux de comptage maximum admissible. A τ grand, résolution
optimale et taux de comptage "faible" et inversement. Les chaines de comptage, analogiques ou numériques, donnent
leur meilleurs performences à un taux de comptage de l'ordre de 1000 à 1500 c/s. On choisira donc :
- τ grand pour du qualitatif avec superposition de raies et du quantitatif (1000-1500 c/s) ;
- τ moyen pour du qualitatif courant (2000 -4000 c/s) ;
- τ petit pour de la cartographie X ( >10.000 c/s) ;
Selon le type de travaux, deux ou trois constantes de temps suffisent pour 95% des cas. Les constantes de temps
les plus longues, sensées donner de meilleures performences, peuvent parfois être très sensible aux bruits parasites
ambiants et s'avérer ne pas être le meilleurs choix.
Dans le cas de chaines numériques, la constante de temps est un mélange d'éléments électroniques et logiciels.
On parle alors plutôt de constante de codage, et elle ne se définit plus par une simple durée.
La constante de temps (de codage) détermine pour un taux de comptage donné à l'entrée, le temps mort de la
chaine de comptage. Le temps mort est le temps pendant le quelle la chaine traite une impulsion et est donc bloquée à
toute nouvelle impulsion. On accepte en général un temp mort < 35 à 40 %.

Choix de la gamme d'énergie analysée. La gamme 0-10 keV couvre l'essentiel des besoins ordinaires. La
gamme 0-20 keV est nécessaire pour lever le doute en cas de superposition de raies, ou dans certains travaux avec des
éléments tel que Ga, Ge, As par exemple, dont les raies K, préférables dans les calculs, sont autour de 10 keV. Sur des
appareils anciens, la gamme 0-10 keV est à préférer, permettant une résolution de 10 eV/canal, alors que la gamme 0-20
keV n'a que 20 eV/canal. Sur des appareils récents, la gamme 0-20 keV est utilisable en standard, à 10 eV/canal,
possible même avec 5 eV/canal. Quand cela est possible, il est très confortable de travailer en permanence sur la gamme
0 - 20 keV. Ceci permet aussi, sur des échantillons isolants de vérifier l'énergie de coupure du Bremsstrahlung, qui doit

33
être égale à l'énergie primaire. En cas de charge de l'échantillon, les électrons sont ralentis, et l'énergie de coupure se
décale. La vraie énergie d'exitation n'est plus alors bien connue, devenant variable selon la charge. Il n'y a alors plus de
calculs quantitatifs possibles. Paralellement, l'indication de l'énergie primaire du microscope peut être aproximative, et il
y là le moyen de la vérifier. Ceci est fort utile lorsqu'on a besoin de mesures très précises.

Choix de la durée de comptage. Elle détermine le rapport pic/fond du spectre. On la détermine en relation
avec le taux de comptage (qui dépend du courant primaire et de la constante de temps) de manière à intégrer au moins
100.000 coups dans le spectre. Les temps indiqués doivent toujours être des temps réels, corrigés du temps mort de la
chaîne de mesure. Des ordres de grandeur sont :
- Qualitatifs sur majeurs : 20 à 30"
- Qualitatif avec des traces : 50 à 100"
- Semi-quantitatif courant : 50 à 100"
- Quantitatif soigné : 200"
à un taux de comptage de 1000 à 2500 c/s.

4) Choix de la plage analysée. Ce choix dépendra de l'échantillon. Sont possibles:


- Des analyses globales à faible grandissement;
- Des fenêtres à grandissement moyen;
- Des spots ou fenêtres sur des détails.
On veillera à ce que la plage choisie soit représentative de ce que l'on cherche et on multiplie le nombre de fenêtres ou
de points de manière à avoir une statistique significative.

5) Acquisition du spectre. Lancer une première acquisition pour ajuster le courant incident (réglage par le condenseur
du microscope) de telle manière que le temps mort soit entre < 35 %, puis relancer l'acquisition. Le courant sonde
habituel est dans la gamme des 50 à 500 pA.
Il peut être gênant pour le confort d'observation de trop baisser le courant (microscope analogique) ; on
peut alors réduire le taux de comptage en éloignant la diode, mais attention, les effets de relief deviennent alors plus
critiques (c.f. « Artéfacts »).

6) Identification des éléments présents. (c.f. « Identification... ») Du fait de l'acquisition simultanée de l'ensemble du
spectre, une première identification peut être faite en cour de comptage, au moins pour les majeurs. C'est là un des
aspects qui donne sa souplesse à la méthode. Mais ce n'est qu'en fin de comptage que l'on peut faire un dépouillement
détaillé, surtout pour un spectre complexe ou contenant des traces. Le systemes informatique contient toujours une
routine d'identification automatique, qui fonctionne plus ou moins bien, plutôt bien sur des systemes récents, mais qui ne
doit en aucun cas dispenser l'opérateur de réfléchir de manière critique.

7) Calcul des concentrations. Ayant identifié les éléments présents, il faut indiquer à l'ordinateur toutes les données
nécessaires au calcul des concentrations. Le chapitre correspondant détaille cette étape. Le calcul étant fait, examiner les
résultats avec un esprit très critique, et en arrondissant généreusement les décimales des concentrations. Confirmer
toujours un calcul par une deuxième mesure sur une plage similaire. Sur une analyse globale à faible grandissement, des
éléments en faible concentration dispersés de façon inhomogène peuvent ne pas être détectés. Inversement, sur des
analyses ponctuelles ou des fenêtres à fort grandissement, des effets de "sous-sol", non visibles en surface, peuvent
fausser fortement une analyse (c.f. « Artefacts » ).

34
Identification des éléments.
En règle générale, on a au moins quelques soupçons sur certains éléments présents. La provenance de
l'échantillon et quelques tests simples de propriétés physiques ou chimiques (densité, dureté, réaction aux acides, etc.)
donnent des indications de départ. Après introduction, on fait un spectre avec une H.T. "passe-partout", (15 à 20 keV).
Sur le spectre obtenu on cherche à identifier en premier les pics les plus intenses. On indexe alors les raies satellites
moins intenses de ces éléments repérés. Puis on s'intéresse aux traces, au besoin en refaisant un nouveau spectre avec
une énergie primaire plus adaptée ou un temps de comptage différent.
Les raies caractéristiques vont toujours par séries, série K, L, et M, dont les intensités relatives sont tabulées
pour chaque série. Des tables, réglettes ou un programme incorporé à l'analyseur permettent de repérer ces raies. Le
tableau ci-dessous visualise les séries de raies, et quelques spectres typiques. On voit que dans la bande 0 - 10 keV on a
des raies de tout les éléments, ainsi que les superpositions de raies possibles.

1) Spectre simple.
Vous avez trouvé un anneau en métal jaune dans un tiroir de la vieille commode héritée de votre grand-mère. Est-ce un
anneau de rideau ou son alliance qu'elle avait perdu ?

Le spectre est clair: Cu + Zn = laiton ! Dommage...


On distingue bien vers 8000 eV les raies du Cu: Kα, Kβ et du Zn: Kα, Kβ, imbriquées les unes dans les autres. La raie
intense vers 900 eV est la convolutions des raies L du Cu et Zn, trop proches pour être séparées. Un peu de C de
contamination organique est visible à 270 eV, ainsi que O de l'oxydation superficielle à 524 eV. La raie M de l'Au à

35
2148 eV est absente. A noter qu'une simple mesure de densité avec un pycnomètre aurait donné la réponse à moindre
prix mais aurait peut-être pris plus de temps (typiquement 10 mn pour entrer, analyser et sortir l'échantillon du MEB).

2) Spectre complexe.
Un échantillon minéralogique pour lequel un diagramme de poudre donne une multitude de raies de diffraction. La
provenance est un secret militaire et vous êtes néophyte en diffraction X. Un premier examen au MEB en électrons
secondaires et rétrodiffusés montre un mélange de différentes phases dont le spectre globale, pris à 15 keV, est le
suivant.

En procédant comme précédemment, on identifie rapidement le Fe et le Cu en raie K et L, Si et Al en raie K, O


en raie K et C de la métallisation en raie K. Sans grand risque d'erreur, on identifie aussi K et Sb. Des ambiguïtés
apparaissent pour les autres raies.

Un spectre sur une gamme d'énergie de 0 à 20-25 keV d'énergie primaire permet d'identifier As plutot que Mg par la
présence des raies As-K à 10.500 et 11.700 eV et de lever le doute pour S, les raies K de Mo vers 17.400 et 19.600 eV
étant absentes.

Un calcul de concentration sur un tel spectre a peu d'intérêt. On est en présence de différentes phases de
stoechiométrie à peu près fixées et le spectre n'a de valeur que d'un point de vue qualitatif. On peut supposer que l'on à
un mélange de différents sulfures et d'oxydes métalliques. Des points d'analyse dans les différentes phases permettront
de préciser si le Fe est en oxyde ou en sulfure, le Cu de même, etc. Une carte de répartition des éléments donnera
d'autres compléments d'information. Et le dépouillement de la diffraction X ne pose maintenant plus de problèmes.

36
Calcul des concentrations.
Que l'opérateur le voie ou ne le voie pas, la séquence des opérations permettant de passer du spectre brut au tableau de
concentrations massiques ou atomiques sera à peu près la même. L'informatique actuelle rend cette série d'opérations
suffisement rapide pour ne plus nécessiter de les détailler et permettre par exemple de faire des calculs successifs en
cours d'acquisition, jusqu'à stabilisation des concentrations calculées (c'est une autre manière de déterminer le temps de
comptage !). Pour autant il est utile de bien distinguer les différentes étapes. Et aucunne machine ne fera la dernière
étape à votre place.

Ordre des opérations.

1) Identification des éléments. Introduction de la liste dans le programme.


2) Introduction/vérification des paramètres de l'analyseur et de la diode.
3) Soustraction des pics instrumentaux.
4) Calcul et soustraction du bremsstrahlung.
5) Déconvolution des raies caractéristiques.
6) Calcul des corrections des effets de matrice.
7) Exploitation - Interprétation critique

1- Identification. Partant d'un échantillon inconnu, la première étape consiste à identifier les éléments présents. En
général, on a une idée soit par l'origine de l'échantillon, soit par des tests simples (aspect, densité, dureté, conductivité,
test aux acides), soit enfin par d'autres méthodes d'analyse (microscopie optique, diffraction X). Par principe, on essaye
toujours de savoir quelque chose avant d'aller au microscope.
L'identification étant faite, on introduit la liste des éléments dans le programme de calcul. Le programme ne
travaillera que sur les éléments déclarés ou qu'il aurait identifié lui-même en mode auto. Un élément oublié ne sera pas
pris en compte. Ceci est vrai en particulier pour des éléments non détectés comme O et C dans le cas d'une diode à
fenêtre Be, et qui ont un effet important sur la densité de la matrice. Il faut alors introduire ces éléments, qui seront
calculés par différence sur la base d'une stoechiométrie supposée ou connue. Des erreurs peuvent subsister de par
l'incertitude sur la stoechiométrie mais elles seront moins importantes que si l'on omet totalement cet élément.
On choisi aussi, quand le logiciel le permet, la raie qui doit être utilisée. On préfère tant que possible les raies
de coeur (série K), mais selon l'énergie primaire, la profondeur que l'on veut sonder et les superpositions de raies, on
peut être amené à en choisir une autre.

2- Paramètres de l'analyseur.
Paramètres fixes, indiqués à l'installation. Ce sont les paramètres géométriques d'installation du détecteur sur le
microscope, essentiellement l'angle d'émergence des rayons X, c'est à dire l'angle entre l'axe de la diode et le plan de
l'échantillon, lui-même étant normal à l'axe optique du microscope (take off angle, ou TOA). La valeur de base est
imposée par le microscope pour la position "analyse" de l'échantillon. En cas de basculement de l'échantillon, ou de
travail à une distance (WD) de l'objectif autre que celle préconisée, un calcul géométrique, parfois fait par le programme
lui-même, permet d'introduire un angle d'émergence corrigé (voir la notice du constructeur). Cette valeur est
déterminante pour les calculs d'absorbtion des rayons X dans l'échantillon, avant leur sortie dans le vide.
Paramètres évoluants dans le temps : Ce sont les caractéristiques de la diode elle-même et de sa fenêtre,
(épaisseur de la couche morte de Si, épaisseur de la couche d'Au, type et épaisseur de la fenêtre). Sur la base des
données du fabricant (certificat de la diode) ces valeurs sont ajustées expérimentalement et vérifiées périodiquement. On
peut par ce moyen compenser les pollutions éventuelles du détecteur par de l'huile (fenêtre) ou de la glace (diode). La
présence d'une trop forte pollution exige un rinçage de la fenêtre, un réchauffage ou un repompage de la diode.
Consulter le fabricant pour toutes ces opérations.
Paramètres liés à chaque spectre : Le paramètre essentiel pour l'utilisateur est l'énergie primaire utilisée pour
l'acquisition du spectre et le courant échantillon, ou le courant sonde mesuré avec un collecteur de Faraday dans le cas
de quantitatif avec témoins. Les analyseurs peuvent souvent être interfacés avec le microscope et saisir directement ces
paramètres du microscope, ainsi que le grandissement, la position XY de la platine etc., qui sont alors sauvegardés avec
le spectre. Ce genre d'option est utile mais doit pouvoir être débrayé : dans le cas d'un échantillon qui charge, les
électrons sont ralentis avant de pénétrer dans l'échantillon. L'énergie primaire vraie n'est pas alors l'énergie nominale,
mais une énergie plus faible, qu'on détermine en regardant l'énergie de coupure du Bremsstrahlung.

3- Pics instrumentaux générés par la chaîne de comptage.


Les pics d'échappement sont dus à la perte d'énergie que subissent une part des photons incidents des éléments
majeurs présents, par émission d'un photon X Sikα de fluorescence de la diode. Ces photons, d'énergie initiale Ec, sont
comptabilisés à l'énergie Eesc = Ec - E(Sikα). A l'énergie Eesc apparaît donc un petit pic, que l'on peut facilement
prendre pour un élément trace. On le soustrait et on ajoute son aire au pic principal d'énergie Ec.
Les pic d'empilement apparaissent à fort taux de comptage et proviennent du classement comme un seul
événement de deux photons de même énergie arrivés simultanément sur la diode. On observe alors un petit pic à
l'énergie double de celle du pic principal. Toutes les combinaisons de photons sont possibles mais seul les photons de

37
même énergie et de l'énergie d'un pic intense donneront naissance à un pic d'empilement visible.
Selon le cas il est utile de procéder à la soustraction de ces pics instrumentaux avant identification, pour ne pas
se perdre dans la recherche d'hypothétiques traces... La nature chimique des éléments présents ne joue pas dans ce
calcul, il n'y a que les énergies des raies qui entrent en jeu.

4- Fond continu ou Bremsstrahlung. C'est le spectre continu issu de l'interaction coulombienne des électrons incidents
avec le champs électrostatique des couches électroniques et du noyaux. Le spectre de freinage mesuré présente un
maximum d'intensité dans la tranche des 1.5 à 2.5 keV, ces valeurs dépendant de l'énergie primaire et du matériaux
(isolant ou conducteurs, densité, etc.). Il existe trois approches pour déterminer et/ou soustraire le fond continu.
- Le plus "simple" consiste à "dessiner" le fond par interpolation sous les raies caractéristiques. Cette méthode
peut être suffisante s'il y a peu de raies et des raies bien séparées, mais elle s'avère inutilisable dès que les raies se
côtoient, en particulier à basse énergie. De plus, elle ne tient pas compte des discontinuités d'absorption des éléments
présents.
- A partir de quelques régions du spectre, définies dans des bandes d'énergie notablement différentes et ne
présentant pas de raies, le fond continu est modélisé par ajustement au spectre expérimental d'une équation théorique
décrivant le Bremsstrahlung en fonction de l'énergie (Kramer, Fiori et al). Cette équation est correcte pour les énergies
supérieur à 1.5 - 2 keV mais pose des problèmes à basse énergie. Ce type de modélisation donne d'assez bons résultats
tant qu'il y a des zones de fond continu assez bien réparties pour faire l'ajustement.
- On considère le spectre comme un signal en fonction du temps, comportant trois bandes de fréquence: le fond
continu à basse fréquence, les raies caractéristiques à fréquence moyenne et le bruit statistique à haute fréquence. On
passe un filtre passe-bande dit "chapeau haut de forme", qui supprime le fond continu et lisse le bruit statistique. La
forme des raies caractéristiques est modifiée mais leur surface n'est pas altérée. Dans le cas d'un quantitatif, le même
traitement est appliqué au spectre inconnu et aux spectres des témoins. Ce type de traitement du fond par filtrage par
transformée de Fourrier tend à se généraliser.

5- Déconvolution. En théorie, la mesure des intensités des raies ne pose pas de problèmes tant qu'il n'y a pas de
chevauchement de raies. Il s'agit d'une simple intégration, dans notre cas, un comptage canal par canal du nombre de
coups sur une fenêtre d'énergie. Dans le cas de superposition de raies, une déconvolution s'impose, pour déterminer le
poids de chaque raie dans un pic convolué.
Différentes approches de cette déconvolutions sont proposées:
Dans la déconvolution de gaussienne, on reconstruit le spectre expérimental à l'aide de gaussiennes calculées à
partir des données théoriques et instrumentales des raies X. Cette méthode permet de s'adapter très facilement à une
grande variété de conditions expérimentalles, sans nécessité de calibrations préalables. En revanche elle intègre avec
plus ou moins de bonheur les assymétries de raies venant de la chaîne de mesure, et souffre parfois de trop de liberté sur
les paramètres gaussiens (non controlables par l'utilisateur).
Dans la déconvolution par référence, on reconstruit le spectre à l'aide de profils de raies de référence, acquis sur
un échantillon connu, pur ou complexe. Ces profils ne doivent pas présenter de superpositions de raies pour l'élément
considéré, mais intègrent les assymétries de raies de la chaîne de mesure. Une librairie est fournie par le constructeur,
que l'utilisateur peut compléter par ses propres références.

Dans les deux méthodes, on reconstruit le spectre expérimental par ajustement des intensités des gaussiennes
ou des témoins, de manière à minimiser l'écart entre le spectre expérimental et reconstruit, par un test en χ2 . La qualité
de la déconvolution est indiquée par la valeur de χ2 que le calcul cherche à minimiser. L'utilisation de la premier et de la
deuxième dérivée du profil permet d'obtenir un meilleurs ajustement en énergie (uniquement pour du calcul sans
témoins). Le χ2 est à utiliser avec prudence, ce n'est qu'un indicateur médiocre. Pour les mêmes conditions opératoires,
un spectre en 200" aura toujours un χ2 moins bon qu'en 100", à cause de l'augmentation en intensité du bruit.
L'association du filtrage par FFT du Bremsstrahlung et de la déconvolution par référence porte souvent le nom
de « filter-fit ».
Le résultat de la déconvolution est donné sous la forme d'un "k-ratio", qui est défini comme étant le rapport de
l'intensité d'un élément inconnu sur l'intensité du témoin pur correspondant. Dans le cas de calcul semi-quantitatif, la
somme des k-ratio est normalisé à 1. Le terme de k-facteur est parfois utilisé pour parler du rapport de l'intensité de
l'élément dans l'échantillon inconnu, sur l'intensité de ce même élément dans un témoin pur. Il est prudent de demander
très explicitement au fabricant quelle est SA définition des termes utilisés.

6- Correction des effets de matrice. Il y a proportionalité entre le rayonnement émis et le nombre d'atome d'une espèce
donnée dans l'échantillon. Mais le rayonnement mesuré n'est pas le rayonnement émis, du fait de l'absorbtion des
photons X dans la matrice, des effets interéléments et des caractéristiques du détecteur.

Le calcul des concentrations nécessite de corriger les intensités de ces effets. L'approche la plus ancienne et la plus
répandue fait intervenir les effets de matrice sous la forme de trois paramètres, Z, A et F (d'où le nom de méthode ZAF,
Castaing 1951), représentatifs respectivement des effets liés aux sections efficaces d'ionisation des différents éléments
présents (Z), aux effets d'absorption des rayons X dans la matrice (A), et des effets de fluorescence inter-éléments (F).
Ils dépendent de l'énergie primaire, des éléments présents et de leur concentration respective et corrigent le k-ratio pour

38
donner des concentrations pondérales, selon l'équation :
CA%=ZAF*k-ratioA. ( CA% étant la concentration de l'élément A).
Les paramètres ZAF dépendants de la concentration, on les détermine en supposant le rapport
Iinc / Itém = Cinc%/ Ctem%. (avec inc = inconnu, tem = témoin)
Puis on recalcule C%inc / C%tém, avec les parmètres ZAF qu'on vient de déterminer.
Il est donc nécessaire de procéder à plusieurs itérations, dont le nombre varie selon la complexité du spectre. Le résultat
est donné en pourcentages pondéraux, éventuellement convertis en pourcentages atomiques. Le bouclage à 100% peut
être le résultat d'une normalisation du résultat ou déjà avant calcul, des k-ratio. En quantitatif avec témoin, il n'y a bien
sur pas de normalisation, le calcul doit boucler à 100% ! Certains logiciels offrent la possibilité d'introduire la
concentrations connue d'un éléments pas ou mal mesuré (C dans un acier, B ou Na dans un verre).
Les modèles de corrections de type φ(ρZ) essayent de décrire la distribution de l'émission X en fonction de la
profondeur dans l'échantillon d'une manière plus physique en ne dissociant pas les effets de numéros atomique et
d'absorption comme dans la procédure ZAF, l'effet de fluorescence étant calculé à part. Ces modèles permettent une
approche plus fine, en particuliers pour les éléments légers, pour des échantillons hétérogènes et pour des couches
minces sur substrats. Elles ont tendance à se généraliser (modèle PAP, Bastin, etc.) et à remplacer le modèle ZAF.

7 Exploitation - Interprétation critique. Selon le constructeur et le programme, les points 3, 4 et 5 peuvent être
exécutés par une seule instruction. L'opérateur ne voit pas le détail de ce qui se passe, les modifications du spectre
n'étant pas forcément visualisées à l'écran. Il est utile de bien dépouiller la notice du constructeur pour savoir le type de
traitements appliqués. Du vocabulaire différent peut cacher des notions identiques et inversement.
Parallelement, l'observation visuelle reste un critère sûr d'appréciation de la pertinence d'un résultat, que ce soit pour une
déconvolution (on superpose le spectre reconstruit au spectre expérimental, ou on soustrait l'un à l'autre et on examine le
signal résiduel), ou pour l'appréciation de la présence d'un élément trace et de la crédibilité de sa concentration
annoncée. Hors superposition de raies, si on ne voit pas un pic sortant du fond, l'élément est absent quoique raconte le
calcul.

Ci-après, un exemple d'une séquence de calcul. On a successivement :


- La liste d'identification proposée par la routine automatique, avec l'énergie du centroïde de chaque raie et
l'intensité dans ce canal.
Elements Present: C(6), O(8), Mg(12), Al(13), Si(14),Fe(26), Cu(29)

Energy Intensity Element Present


(keV) (counts)
0.270 213 C Ka
0.521 1799 O Ka
0.934 3868 Cu La1
1.258 1164 Mg Ka
1.492 1619 Al Ka
1.745 2686 Si Ka
6.393 140 Fe Ka
8.025 2631 Cu Ka1
8.890 349 Cu Kb1

- Les données de déconvolution, avec entre autres les éléments présents dans le spectre (et sur l'échantillon),
pris en compte pour la déconvolution mais éliminés du calcul des concentrations (C de la métallisation, O qui est pris
par différence, Cu L, le calcul étant fait sur Cu K). La méthode de déconvolution utilisée, le χ2 et le temps de comptage
sont indiqués.
Refit _Fe-K' _Fe-K" Refit _C -K" _Mg-K"
Filter Fit Method. Chi-sqd = 1.60 Livetime = 50.0 Sec.
Standardless Analysis
Element Relative Error Net Error
k-ratio (1-Sigma) Counts (1-Sigma)
C -K --- --- 821 +/- 26
O -K --- --- 6209 +/- 85
Cu-L --- --- 16282 +/- 149
Mg-K 0.05086 +/- 0.00085 4078 +/- 68
Al-K 0.07128 +/- 0.00167 6004 +/- 141
Si-K 0.12726 +/- 0.00186 10127 +/- 148
Fe-K 0.02285 +/- 0.00241 512 +/- 54
Cu-K 0.72775 +/- 0.01422 1 0086 +/- 197

- Le calcul des concentrations, avec Mg, Al et Si exprimés en oxyde, avec O par différence, et Cu en métal.
Selon le détecteur, O pourra être pris comme élément mesuré. Sont rappelés le type de correction (PROZA), l'énergie
primaire (20 keV) et le TOA (30°), ainsi que le nombre d'itérations effectuées.
Les paramètres ZAF ou φ(ρZ) indiqués, parfois détaillés, donnent une idée de l'ampleur de la correction effectuée sur
l'intensité. Des valeurs très grandes peuvent indiquer un mauvais choix de l'énergie primaire ou de la raie, comme dans

39
l'exemple pour O et Mg (20 keV : énergie trop élevée).
PROZA Correction Acc.Volt.= 20 kV Take-off Angle=30.00 deg
Number of Iterations = 5

Element k-ratio ZAF Atom % Element Wt % Err. Compound Compound No. of


(calc.) Wt % (1-Sigma) Formula Wt % Cations
Mg-K 0.0232 3.548 9.35 8.24 +/- 0.14 MgO 13.67 0.737
Al-K 0.0326 2.861 9.52 9.32 +/- 0.22 Al2O3 17.61 0.750
Si-K 0.0581 2.310 13.18 13.43 +/- 0.20 SiO2 28.73 1.038
Fe-K 0.0104 1.009 0.52 1.05 +/- 0.11 Fe2O3 1.51 0.041
Cu-K 0.3325 1.157 16.69 38.48 +/- 0.75 Cu 38.48 1.315
O -K --- 3.008 50.75 29.47 S --- --- --- ---
Total 100.00 100.00 100.00 3.881

The number of cation results are based upon 4 Oxygen atoms. Table Symbols: S -- Wt.% calculated by Stoichiometry

Les questions à se poser peuvent être :


A-t-on pris en compte tout les éléments, les bons éléments, sous la bonne forme (natif, oxyde, etc.) ?
A-t-on pris la bonne énergie primaire, ou la bonne raie pour l'énergie retenue ?
La profondeur sondée, selon l'énergie et la matrice, est-elle cohérente avec le problème posé ? (c.f. "abaque").
La préparation de l'échantillon et les conditions d'acquisition (échantillon brut ou poli, fenêtre ou pointé
d'analyse, constante de temps, durée) sont-elles cohérentes avec la précision souhaitée ? Un échantillon rugeux ou
poreux donnera toujours un résultat médiocre, le TOA variant localement dans des proportions parfois très importante,
et contrairement à ce qu'on pense souvent, vu les équations qui régissent l'absorbtion, il n'y a pas d'effet de moyennage.
La rugosité se traduira toujours par un déficit d'intensité sur les raies d'énergie faible. La porosité peut être assimilée à
une rugosité interne.

Il y a bien des cas où un bon spectre sans calculs ou une mesure des seules variations d'intensités sont plus pertinents
qu'un mauvais calcul quantitatif.

Cas du microscope électronique à transmission (MET)


L'essentiel de la démarche est identique. Les différences proviennent de :
L'épaisseur de l'échantillon : étant en électrons transmis, on a un échantillon mince (env. 50 nm). Ceci est à la
fois un avantage et un inconvénient. Avantage, car les corrections d'effets de matrice sont limités à la seule section
efficace d'ionisation des éléments présents. Il n'y a pas d'absorbtion, ni de fluorescence à prendre en compte.
Inconvénient, car il y a peu de matière et donc un signal faible. Un taux de comptage de 500 c/s est un bon taux en
MET.
L'energie primaire : Elle est de 100 keV au minimum, 200 voir 300 keV sur microscope analytique. A ces
énergies, le rendement d'émission X est loin de l'optimum, en particulier pour les éléments légers. Ceci agit sur le taux
de comptage dans le même sens que la faible épaisseur.

Le spectre peut être marqué par des raies parasites provenant des materiaux de la grille support (Cu) ou du microscope
(porte-objet, des pièces polaires objectif). Il convient d'acquérir un spectre de calibration sans échantillon ou avec un
échantillon témoin, et de choisir le matériau de la grille selon l'échantillon à analyser.

Le détecteur sera en général choisi en 30 mm2 de surface active, et parfois équipé d'un volet de protection pour éviter la
saturation de la diode, lorsque le fasceau frappe le barreau de la grille par exemple. Le montage du détecteur est toujours
horizontal, avec parfois la diode inclinée au bout de son tube-enveloppe. Le TOA dépend dans ce cas de la position
horizontale du détecteur et de la position de l'échantillon en Z. De ce fait le positionnement du détecteur est critique (c.f.
"artéfacts").
Du fait de l'énergie primaire importante, il est possible de voir les raies K des éléments lourds. Il est commode lorsque le
système le permet (c'est le cas des appareils actuels) de faire les acquisitions systématiquement sur une fenêtre de 0 à 20
keV, voir 0 à 40 keV (en 10 ev/can). L'identification est grandement facilitée.

La qualité essentielle de la microanalyse sur MET est de pouvoir faire des analyses ponctuelles < 20 nm, non limitées
par la poire de diffusion et associées à la diffraction. On a à la fois la détermination de l'espèce par sa structure
cristallographique (mode diffraction), et sa composition élémentaire (EDS).

Le calcul quantitatif exige une calibration, selon le type d'échantillon, avec la prise en compte de l'épaisseur, en général
inconnue, et des variations de cette épaisseur.

Sur un MET équipé du mode balayage (STEM) il est possible de faire des lignes profils et des cartes de répartition des
éléments, avec la résolution latérale du MET. En revanche, vu le faible signal, le temps d'acquisition est long, et un
dispositif de compensation de dérive est très utile.

40
Cartographie X.
Cartographie spectrale
But.
Une image étant simultanément plus parlante et plus traître qu'un tableau de chiffres ou, pire encore, qu'un long
discours, il est séduisant de profiter de la présence simultanée du microscope à balayage qui produit une image agrandie
et de la microanalyse X qui permet l'analyse élémentaire, pour avoir une information "visuelle" sur la répartition
d'inhomogénéités de composition d'un échantillon. C'est le but de la cartographie X classique, qui consiste à compléter
une image "topographique" ou "morphologique" par un jeu de cartes "chimiques", une carte par élément présent.
L'évolution du matériel informatique de saisie a permi de faire évoluer ce type de cartographie où l'information
est relative, vers ce qu'on appelle « image X spectrale », « mode spectre/image », qui fourni une donnée exploitable
quantitativement.

Principe général
En cartographie X traditionnelle, on balaye point par point la plage choisie, avec le faisceau d'électrons du
MEB, et en chaque point, on mesure l'intensités du signal X dans des fenêtres d'énergie correspondants aux raies
caractéristiques des éléments présents, identifiés a priori. Moyennant soustraction du fond continu, cette intensité va
"moduler" la brillance de l'image X de cet élément. A concentration élevée, intensité forte et point brillant et
réciproquement. On obtient une carte par élément choisi, que l'on va pouvoir manipuler (ou torturer), comme n'importe
quelle image, et surtout comparer à l'image MEB. L'ordinateur de la microanalyse prend le relais du MEB pour gèrer le
balayage du faisceau du microscope pendant l'acquisition.

En image X spectrale, on balaye de même mais on mesure un spectre entier à chaque point. On obtient une
matrice de données 3D, où X et Y sont les côtés du champs de l'échantillon, une première couche en Z est l'image MEB
(électrons secondaires ou rétrodiffusés), et les couches suivantes en Z sont les canaux successifs du spectre X. Au lieu
d'une série d'intensités, on a un spectre complet pour chaque pixel de l'image. Un traitement de ces données a posteriori
va permettre d'extraire :
- des spectres cumulés sur n'importe quelle portion de l'image MEB, et d'y faire des calcul de
concentrations.
- des cartes de répartions de n'importe quel élément présent, identifié a posteriori sur les spectres
reconstiués.
- des lignes profils de concentrations, d'épaisseur contrôlable.
- des cartes de phases, par comparaison des spectres, et extraction des surfaces de l'image ayant un
spectre identique.
Moyennant un logiciel d'identification des éléments performant (?!), une bonne part de ces opérations peut être
automatisée, et ne nécessite l'intervention de l'opérateur que pour le paramétrage initial et pour l'examen critique du
résultat.

En règle générale, il est bon d'avoir une surface polie, ou au moins un relief très faiblement marqué, afin de limiter les
effets d'absorption dus au relief, qui donnent sur la carte une apparence d'inhomogénéité.

Protocole.

1) Choix de la plage ;
1.1) Acquisition d'un spectre ;
1.2) Identification des éléments présents ;
1.3) Choix du grandissement et de la position ;
2) Introduction des paramètres de cartographie ;
3) Acquisition des cartes ;
4) Examens, traitements, etc.

1) Choix de la plage; Le repérage de la plage à cartographier se fait en image en électrons secondaires et


rétrodiffusés, associé à des points d'analyse X pour localiser les éléments présents et se faire une idée de leur
concentration moyenne et limite. Une variation de concentration de l'ordre de ±5 % est nécessaire pour avoir un
contraste visible tout en restant dans des temps d'acquisition raisonnables. En cas de nécessité (localisation de traces), on
peut envisager des acquisitions longues (une nuit), mais la qualité du résultat dépendra directement de la stabilité
mécanique et électronique de l'équipement, en particulier de tout ce qui est sensible à des dérives. Des appareils récents
proposent en option une fonction de correction de dérive, basée sur le suivi en temps réel d'un détail morpholgique du
champs, comme pratiqué en astronomie.

41
On choisit un grandissement cohérent avec la dimension de la poire de diffusion, selon l'énergie primaire et la densité de
la matrice.

2) Introduction des paramètres de cartographie;


La constante de temps de la chaîne de mesure est choisie courte (1 à 5µs en imagerie traditionnelle), pour
privilégier un taux de comptage élevé, au détriment de la résolution en énergie. En imagerie spectrale, on veille à
conserver une résolution en énergie compatible avec du calcul de concentration, d'autant plus que les temps
d'acquisitions « image » fournissent un spectre cumulé sur tout le champs ayant un très bon rapport s/b. A l'aide du
courant sonde, on ajuste le taux de comptage à 2000 à 4000 c/s pour de l'imageris spectrale où on compte faire des
calculs sur les sepctres, à 5000 à 50.000 c/s (selon ce que peut le microscope et l'analyseur), si on veut uniquement des
cartes de répartition.
La liste des éléments présent est introduite et des fenêtres d'énergie sont définies autour de chaque raie. Ceci
peut se faire automatiquement, avec éventuellement une correction manuelle. Dans le cas d'un échantillon au relief
marqué, il est utile de définir une fenêtre dans le Bremsstrahlung à basse énergie (<1500 eV), dont les variations
donneront une indication de l'absorption des rayons X par le relief. On peut ainsi corriger les cartes des éléments dont
les raies sont à faible énergie. L'acquisition simultanée d'une image MEB en électrons secondaires ou rétrodiffusés est
en général possible et est très utile pour les comparaisons ultérieures.
En imagerie spectrale, la liste d'éléments n'est pas nécessaire, mais la déclaration d'éléments connus permet de
construire les cartes correspondantes pendant l'acquisition.
La résolution numérique de l'image. La dimension de l'image numérique est choisie telle que le plus petit
détail recherché ait une surface de l'ordre de 10 pixels. Un format de 64x64 est utile pour voir rapidement si les réglages
sont bons, mais ne permet pas l'obtention d'une image utilisable. Les formats courants vont de 128x128 pour de
l'ordinaire à 512x512 pour du soigné. Ce sont en général la puissance de calcul de l'ordinateur (sa RAM en particulier) et
le temps disponible pour l'acquisition qui limitent la taille d'image, surtout pour l'imagerie spectrale et la cartographie de
phases.
La durée de mesure par pixel, associée au courant du microscope et à la constante de temps de la chaîne de
mesure, va déterminer l'intensité du signal. Elle dépend du mode d'acquisition choisi. Des systemes anciens utilsaient
des temps assez long par point (0.5 à qlqs sec.), en un seul passage. Aujourd'hui, la plupart des systèmes proposent un
imagerie X dite « rapide », où l'acquisition se fait avec un temps par point court (0.001 à 0.05 s par pixel) et une
accumulation sur un grand nombre de passages. Ce système à plusieurs avantages. Il donne très rapidement une
première image, bruiteuse certes mais où l'on voit de suite si le choix de la plage est bon, si le courant est suffisant etc.
En cour de route, on peut augmenter ou réduire le nombre de passages. La statistique de comptage est meilleure et le
résultat est moins sensible aux fluctuations éventuelles de courant du microscope. La carte étant sauvegardée à chaque
passage, le risque de tout perdre par un "accident informatique" est diminué pour des acquisition longues. Un petit calcul
de la durée d'acquisition est utile pour ne pas avoir de surprises... Pour une image de 256*256 pixels et une durée de 0.1s
par point, on a 1h 50' d'acquisition ! Il vaut mieux avoir bien réglé avant, que constater après... Une durée de 15 à 20 mn
en 256x256 et à 2000c/s est un minimum pour avoir quelque chose d'exploitable.

3) Acquisition des cartes; L'acquisition étant lancée, attendre l'apparition de quelques lignes ou de quelques
passages, pour voir si tout marche bien, et aller boire un thé !

4) Examens, traitements, etc.


En cartographie classique, les traitements possibles sont :
- La mise à niveau des intensité, qui permet de voir avec la même gamme de gris des cartes d'éléments de
concentration, et donc de signal, très différentes. L'aspect quantitatif est perdu, il ne reste que l'aspect répartition.
- La transformation en image binaire. Un seuil d'intensité choisi par l'opérateur détermine une limite au-dessus
de laquelle tout est blanc et au-dessous tout est noir. C'est la base de beaucoup de traitement d'image permettant des
mesures de surfaces, de directions, de périmètres de phases.

En cartographie spectrale, on procèdera à aux extractions souhaitées, à l'aides d'outils du type de ceux utilisés dans les
logiciels de retouche d'image. L'intérêt de la méthode apparaît là en ce que l'extraction d'une grande quantité
d'informations peut se faire « hors microscope », libérant l'appareil pour d'autres mesures.

Exemple de cartes spectrales

Cet exemple passe en revue ce que on peut faire de manière dissociée en mode spectre, ligne profil de concentration et
cartographie X classique, que l'on retrouve regroupé dans le mode carte spectrale.
L'échantillon est un monocristal de Ge(1-x)Mn(x)S venant d'une série où on à fait varier (x), et qui a une structure
feuilletée. Au départ, il s'agit de vérifier la stoechiométrie Ge/Mn, la diffraction X donnant un résultat surprenant.
Une première série de spectres faits en fenêtres, à grandissement moyen ou en spot au hasard, ne montre que Ge et S, et
pas de Mn. On procède donc à l'acquisition d'une image spectrale à faible grandissement (champs de 650 µm) et sur un
temps assez long (2h, le temps d'aller manger !). Le spectre cumulé sur l'image entière montre un tout petit pic de Mn.
Noter l'échelle Y du spectre cumulé, >650000 c pleine échelle, à comparer au spectre de laiton, à 1300 c pleine échelle.

42
On établis les cartes X correspondantes en prenant les intensités des raies des éléments retenus, pixel par pixel,(de
gauche à droite Ge, S, en dessous Mn), qui montrent que le Mn est localisé à quelques endroits très précis, associé à une
concentration plus élevée de S.

43
On sélectionne une de ces zone (peinte en blanc et cerclée) et on construit le spectre correspondant, en sommant les
spectres des pixels de la zone peinte. On voit le signal du Mn apparaître nettement, associé à une forte augmentation de
S.

Une confirmation est donnée en réalisant une ligne profil épaisse en travers de l'objet, et en suivant la variation
d'intensité correspondante. On cumule les spectres des pixels, sur l'épaisseur du trait de la fleche, et on en extrait les
intensités servant à construire le profils. On voit bien Mn et S croitre alors que Ge décroit, dans la zone repérée.

La structure est bien monocristalline (diffraction X et image des feuillets), mais le Mn est précipité sous forme de
sulfure, et pas associé au Ge dans la structure monocristalline du Ge.
La matrice de données de microanalyse X est stockée brute et peut être retraitée à tout moment. Dans cet exemple aucun
calcul semi-quantitatif n'a été fait, mais les spectres le permettraient.

44
Différentes caractéristiques des diodes.
Refroidissement : La diode en silicium et le premier étage de l'électronique sont montés sur un doigt refroidi à l'azote
liquide, ceci pour limiter la diffusion de Li dans Si, diminuer le bruit thermique du premier étage de la détection. et
assurer le maintient du vide d'isolation. Un maintient en froid est impératif lors du fonctionnement, un réchauffement
occasionnel (période de congé) est possible, avec l'électronique impérativement éteinte (destruction de la diode). Il
existe des systèmes où l'azote liquide est remplacé par un empilement d'éléments Pelletier pour le refroidissement et par
une petite pompe ionique pour le maintient du vide. Ceci dispense du remplissage périodique d'azote et donne une diode
plus compacte, que l'on peut allumer et éteindre selon le besoin (moyennant un délais de mise en froid).

Certains fabricants proposent des détecteurs à diode Germanium-Lithium, qui ont une résolution en énergie meilleurs et
supportent des taux de comptage plus élevés que la diode Si-Li, mais qui ont une sensibilité moindre pour les faibles
énergie et donc les éléments légers.

Un autre type de diode (silicon drift detector), permet des taux de comptage pouvant aller jusqu'à 300.000 c/s, avec la
résolution limitée à 150 eV, et un refroidissement à -30°C par effet Pelletier. Elle est surtout destinée à de la
cartographie X intensive.

La surface active de la diode détermine son taux de comptage et sa résolution. Sur MEB à source thermique, on utilise
des diodes de 10 mm2, alors que sur MEB à émission de champ et sur MET on prend du 30 mm2. La petite surface
donne moins de couts, mais une meilleure résolution. Les résolutions actuelles courantes vont de 126 eV en 10 mm2 à
133 en 30 mm2. Par convention, la résolution est donné par la largeur à mi hauteur de la raie Kα du Mn. Certains
fabricants donnent aussi la résolution sur F Kα (65-70 eV) et sur C Kα (60 eV), ce qui est une indication très utile, en
particulier pour vérifier la pollution éventuelle de la fenêtre et de la diode.

L'angle d'émergeance des rayons X (TOA) est déterminé par l'angle de montage de la diode sur l'instrument. Sur MET,
et parfois sur MEB, le tube enveloppe est horizontale et le nez est monté incliné à l'extrémité. Le positionnement de la
diode devient alors critique, car il détermine le TOA réel ; un mauvais positionnement peut conduire à des mesures
erronées (c.f. "Artéfacts").

Une fenêtre isole la diode de l'environnement extérieur, tant pour maintenir sous vide la diode lors des remises à l'air du
microscope, que pour filtrer les rayonnements indésirables (électrons secondaires et rétrodiffusés, photon visibles, infra-
rouges). La nature et les caractéristiques de cette fenêtre déterminent la limite de détection à basse énergie, tant du point
de vue qualitatif que quantitatif. Il existe trois familles de fenêtres:

Les fenêtres béryllium sont les plus anciennes et sont caractérisées par leur robustesse mécanique (épaisseur
entre 5 et 15µm). En revanche, elles n'ont une bonne efficacité de détection que au dessus de 1000 eV, ce qui correspond
à Na. Les éléments au dessous de Na ne sont donc pas détectés. On verra bien un petit pic de fluor, dans un échantillon
de LiF, mais pas l'oxygène dans une silice. Le prix de ces diodes est un peu plus bas que les autres modèles, mais même
l'intérêt de leur robustesse ne justifie plus vraiment cette économie.

Les fenêtres "fines atmosphériques", sont soit un matériau léger (BN, BC, etc.) formé en gaufre massive, soit
constituées d'une grille en Si, W, WC ou BC supportant un film polymère d'épaisseur 0.5 à 1 µm et recouvert d'une
couche mince (100 nm) d'Al. Elles permettent la détection qualitative jusqu'au bore, avec des sensibilités variables au
niveau du carbone et de l'azote du fait de la présence des discontinuités d'absorption des composants de la fenêtre.
L'aspect quantitatif est à aborder prudemment, car la composition de l'échantillon lui-même (teneur en éléments lourds)
a une grande influence sur la limite de détection des éléments légers (absorbtion dans l'échantillon lui-même)
L'utilisation en analyse quantitative n'est pas recommandée, mais envisageable pour O dans des oxydes « simples ». En
revanche la détection qualitative de C, N, O, est d'une utilité évidente en science des matériaux, et des mesures de
variation d'intensité dans une série d'échantillons sont possibles sur ces éléments.

Les diodes à barillet. L'avant de la diode est fermé par un barillet à trois positions. La première position a une
fenêtre classique en Be, montée de manière à être étanche au vide. La deuxième a une fenêtre très fine (100 nm) de
mylar aluminisé, la troisième n'a aucune fenêtre. La position fenêtre ultra-fine - et bien évidement, la position sans
fenêtre - n'a ni étanchéité ni surtout résistance mécanique à la pression. Dans ces deux dernières positions, la diode a une
très bonne sensibilité de détection aux éléments légers permettant de faire de vraies mesures quantitatives sur ces
éléments. Ce type de diode est assez délicat d'utilisation, car la fenêtre Be doit impérativement être en place avant toute
entrée d'air dans le microscope. Parallèlement, la position sans fenêtre ainsi que le simple fait de changer de fenêtre met
la diode en situation idéale pour en faire une cryopompe : du fait de sa basse température, elle piégera la vapeur d'eau et
les vapeurs d'huiles et autres contaminants contenus dans la chambre. Ce type de diode est relativement cher à l'achat et
à l'entretien, et est de ce fait peu répandu.

45
Estimation de la profondeur d'émergeance
des photons X
Cette abaque permet d'estimer la profondeur d'émergeance des photons X en fonction de l'énergie cinétique d'excitation,
de l'énergie cinétique de la raie consédérée et de la densité moyenne de l'échantillon. On suppose à nouveau que
l'échantillon est une solution solide homogène, ce qui est souvent loing de la réalité.

On trace la verticale de l'énergie primaire (Eo) jusqu'à couper la courbe de l'énergie cinétique de la raie de l'élément
considérée (Ec). Là on trace une horizontale pour déterminer ρx.
De ce point, on trace une droite passant par ρ, la densité moyenne de l'échantillon, qui recoupe X à la profondeur
d'émergeance recherchée, exprimée en µm. (D'après Heinrich).

Pour des cas plus réels et plus complexes, en particulier les couches minces sur substrat ou des particules incluses, un
logiciel de simulation de Monte Carlo des trajectoires des électrons et des interactions électron – matière peut être
téléchargé à l'adresse suivante :
http://www.gel.usherb.ca/casino/ (adresse vérifiée en Oct. 2004)
D'autres sont souvent proposés par les fabricants de microanalyse X.

46
47
48
49
Abréviations et acronymes.

AES Auger electron spectroscopy


Spectroscopie Auger

AFM Atomic force microscopy


Microscopie à force atomique
Microscopie en champs proche

BSE - BE Backscattered electron


BEI Backscattered electron image
Electron rétrodiffusés, électrons élastiques

BIS Bremstrahlung isokromat spectroscopie


Photoémission inverse

CBED Convergent beam electron diffraction


Diffraction en faisceau convergeant

CL Cathodoluminescence

CTEM Conventional transmission electron microscopy


Microscopie électronique conventionelle

EBIC Electron beam induced current


Courant induit par un faisceau d'électrons

EBSD Electron BackScattering Diffraction


EBSP Elctrons BackScattering Paterns
Diffractions d'électrons rétrodiffusés

ED Electron diffraction
Diffraction électronique

EDS Energy dispersive spectrometer (ou spectroscopy)


EDX Energy dispersive X-ray spectrometry
Spectrométrie X en dispersion d'énergie

EELS Electron energy loss spectroscopy


Spectroscopie de perte d'énergie

EM Electron microscopy (= TEM)


Microscopie électronique

EPMA Electron probe microanalysis


Microanalyse par sonde électronique

FEG Field smission gun


Source d'électrons par émission de champs

HREM High resolution electron microscopy


Microscopie électronique en haute résolution

HV High voltage (=HT, haute tension)

MEB Microscopie électronique à balayage

MET Microscopie électronique en transmission

PM Photomultiplicateur

SE Secondary electron

50
SEI Secondary electron image
SES Secondary electron spectroscopy
Electrons secondaires (Image, spectroscopie etc.)

SAM Scanning Auger microscopy


Microscopie Auger à balayage

SPM Scanning prope microscopy (= STM et/ou AFM)


Microscopie en champ proche

SEM Scanning electron microscopy


=MEB

SIMS Secondary Ion Mass Spectrométrie


Spectrométrie de masse des ions secondaires

STEM Scanning transmission electron microscopy


Microscopie en transmission à balayage

STM Scanning tunneling microscopy


Microscopie à effet tunnel -Microscopie en champs proche

TEM Transmission electron microscopy


=MET

UHV Ultra high vaccum


Ultra-vide

WDS Wavelength dispersive spectroscopy


WDX Wavelength dispersive x-ray spectrometry
Spectrométrie X en sélection de longueur d'onde

XRD X-ray diffraction


Diffraction de rayons X

XRF X-ray fluorescence


Fluorescence X

51
Bibliographie sommaire.
Pour une bibliographie plus détaillée, se reporter aux différents ouvrages ci-dessous.

EBERHART J.P.: Analyse structurale et chimique des matériaux.


Dunod 1989

MAURICE F., MENY L., TIXIER R.: Microanalyse et microscopie à balayage.


Les Editions de Physique 1978

GUILLAUMIN: La pratique du microscope électronique à balayage en biologie.


Masson 1980

GOLDSTEIN J.I.; NEWBURY D.E.; ECHLIN P.; JOY P.C.; FIORI C.; LIFSHIN E.; :
Scanning electron microscopy an X-Ray microanalysis.
Plenum Press 1981
Kluwer Academic/Plenum Publisher 2003 (3ième édition)

HEINRICH K.F.J.: Electron Beam X-Ray Microanalysis


Van Nostrand Reinhold 1981

A.N.R.T. Pratique du microscope électronique à balayage.


1985

Microanalyse par sonde électronique. Spectrométrie des rayons X


1987

Microanalyse par sonde électronique. Aspects quantitatifs


1989

PASSEREL M.: Analyse X en dispersion d'énergie. Microscopie à balayage.


Fac. des Sc. et Tech., Marseille 1987

XXX: Energy Dispersive X-Ray Microanalysis: An Introduction.


Kevex Instrument; San Carlos U.S.A. 1989

52
Compléments bibliograpiques sur le web.
Le web peut etre une source d'information complémentaire bien utile, mais à utiliser avec prudence, n'importe qui
pouvant y mettre n'importe quoi ! Ci-après une liste sélectionnée de site ayant "des" qualités, mais n'ayant pas forcément
la "finition" d'un livre.

Deux "cours" sur le MEB, plus ou moins complets mais en français.

http://www.cmeba.univ-rennes1.fr/niveau2/PagePrincipeMEB.htm
http://www.culture.fr/culture/conservation/fr/methodes/meb.htm

Et en anglais

http://mse.iastate.edu/microscopy/home.html
http://laser.phys.ualberta.ca/~egerton/SEM/sem.htm

Un bon fasicule sur le MEB édité par Jeol, en anglais

http://www.jeol.com/sem_gde/guide.pdf

Des sites orientés sur la microanalyse X

http://jan.ucc.nau.edu/~wittke/Microprobe/contents.html

et sur des apsects technique de l'EDS et du WDS, chez Oxford Instr (fichiers pdf)

http://www.oxinst.com/OIGMSH2.htm

Des sites orientés plutot à la microscopie électronique en transmission mais contenant beaucoup de
renseignements et de liens sur les microscopies en général.

http://cimewww.epfl.ch
http://srv.emunit.unsw.edu.au/
http://swehsc.pharmacy.arizona.edu/exppath
http://www.matter.org.uk/tem
http://www.couger.com/microscope/
http://www.petr.isibrno.cz/microscopy/

Des sociétées d'utilisateurs des microscopies

http://sfmu.snv.jussieu.fr/
http://www.microscopy.com
Avec pour cette dernière la possibilité de s'inscrire sur une liste mail active et fournie.

Un site de référence sur la microscopies optique.

http://micro.magnet.fsu.edu/primer/virtual/virtual.html

(Adresses vérifées en Octobre 2004)

53

Vous aimerez peut-être aussi