Vous êtes sur la page 1sur 148

UMMTO

Dep.G. Mécanique

Cours Contrôles Non Destructifs (C.N.D.)

Pr. Bouras Rachid


UMMTO
0
1 – PRESENTATION:

11 – Définition :
L'appellation Contrôles Non Destructifs (CND) ou Essais Non Destructifs (END) fait naturellement penser au
diagnostic que le médecin formule lors de l'examen de son patient.
Le même principe appliqué aux pièces mécaniques consiste à mettre en oeuvre des méthodes d'investigation pour
permettre d'apprécier sans destruction, l'état de santé des pièces et de formuler un avis sur leur aptitude à remplir la
fonction à laquelle elles sont destinées.
Dans la pratique, les spécialistes en CND chargés de l'inspection sont confrontés à des problèmes d'interprétation de
résultats de contrôles par rapport à des critères établis en liaison avec le concepteur de la pièce. Dans cet esprit, la
définition suivante des CND apparaît proche de la réalité industrielle :
Il s'agit de « qualifier, sans nécessairement quantifier, l'état d'un produit, sans altération de ses
caractéristiques ».
CND : ensemble des procédés d'examen de pièces qui permet de s'assurer de l'absence de défauts qui
pourraient nuire à leur tenue en service.
L'exécution de cette tâche nécessite une bonne connaissance des techniques d'investigation mises en oeuvre, de
leurs limites et surtout, une adéquation parfaite entre le pouvoir de détection de chaque technique et les critères
appliqués pour la mise en œuvre.
Un accent important est porté actuellement à la formation des opérateurs en CND. Un organisme national, la
Confédération Française des Essais Non Destructifs (COFREND), s'efforce de promouvoir les travaux de recherches
engagés par les laboratoires spécialisés et les fabricants de matériel, de coordonner les actions de normalisation et
surtout de sanctionner au travers de la certification, l'aptitude des opérateurs à remplir les tâches qui leur sont
confiées. C'est une technique en pleine évolution, où les moyens informatiques prennent de plus en plus
d'importance pour l'automatisation des techniques, le traitement des signaux et des données recueillies par les
capteurs.
12 – CND et Maintenance :
Les CND sont principalement utilisés par les services de production pour pouvoir garantir que les pièces fabriquées ne
contiennent pas de défaut matière (lors de l’élaboration) ou de défaut de fabrication.
Dans le cadre très particulier de la maintenance, les CND sont appliqués au coup par coup et suivant le secteur
d’activité auquel on appartient.
Lorsqu'un élément casse, la cause n'est pas évidente. Après étude de la cassure, on peut émettre des hypothèses :
• Pièce non adaptée aux charges en présence
• Mauvaises conditions de travail
• Amorces de rupture dues aux traitements thermiques, à l'usinage, etc.
• Elaboration défectueuse: criques, inclusions, etc.

II est nécessaire alors de remonter sur le système un élément neuf sans imperfections, gage de fiabilité (nombreuses
heures de pannes évitées). C'est le cas des pièces de sécurité : si fissures, alors accident grave possible en cas de
rupture.
Remarque: une fissure peut ne pas nuire au bon fonctionnement de l'élément dans des conditions normales
de sécurité. C'est son évolution qui est à prendre en compte afin d'intervenir avant rupture.
Les CND trouvent leurs applications dans le contrôle et la surveillance des installations suivantes par exemple :
• Contrôle de l’usure des tuyauteries d’une chaufferie ;
• Surveillance de la structure d’un avion ;
1
• Vérification de l’état d’une pièce de sécurité très chargée (fissuration) ;
• Contrôle d’une pièce avant son remontage afin d’éviter toute casse ultérieure ;
• Vérification des soudures d’une pièce ;
• Etc.
Les CND ont pour objectifs de détecter les défauts matière, les défauts de fabrication (soudure, fonderie), les défauts
dus à la fatigue (fissuration) qui ne sont pas détectables visuellement et qui occasionnent des casses du matériel.
En maintenance, l’important c’est de suivre l’évolution de ces défauts (vitesse de propagation) et de changer la pièce
juste avant que la pièce ne casse.
13 – Les défauts rencontrés :
Les défauts que l’on peut rencontrer en maintenance ont trois origines.
• défauts d’élaboration et de transformation :
• Pièces moulées : retassures, soufflures, criques
• Pièces forgées : crevasses, craquelures
• Pièces laminées: inclusions dans la barre
• Pièces étirées : criques de surface
• défauts de fabrication ou d’assemblage :
• Pièces soudées: inclusions, soufflures, caniveaux près des cordons de soudure
• Traitements thermiques: tapures, criques
• Usinage : criques de rectification, pièces agressées par l'environnement (corrosion), rayures d'outils
• défauts de fonctionnement : fatigue, contraintes excessives
Défauts d’élaboration :

Retassure : défaut débouchant provoqué par la


contraction du métal après le passage de l’état liquide à
l’état solide.

Soufflure : défaut interne, poche gazeuse emprisonnée


au cours de la solidification.

Crique : défaut débouchant, déchirure de la peau d’une


pièce liée à de fortes tensions lors du refroidissement.

Défauts de fabrication ou d’assemblage :


Ecrouissage, échauffement (lors de l’usinage) : criques superficielles provoquées par la modification de dureté
superficielle.
Tapure de trempe : défaut débouchant lié aux contraintes excessives engendrées par le cycle thermique.
Défauts de soudage : inclusions, soufflures, manque de pénétration, fissures, etc.
2
INCLUSION FISSURE AU RACCORDEMENT
Défauts de fonctionnement :
Les défauts de fonctionnement sont essentiellement fonction des conditions d’utilisation des pièces et de leur qualité
intrinsèque avant utilisation.

Rupture statique : la pièce rompt sous l’action d’une contrainte


excessive.

Rupture par fatigue et fatigue thermique : la rupture est précédée


d’une crique s’initiant généralement sur un défaut existant qui évolue
sous l’action des sollicitations répétées.

3
2 – LES 6 METHODES COMMUNES :
Les CND peuvent s’effectuer selon les méthodes suivantes :
• Procédés optiques
• Ressuage
• Particules magnétiques
• Radiographie
• Courants de Foucault
• Ultrasons
21 – L’inspection visuelle :
C’est la méthode la plus simple et la plus commune. L’appareillage
comprend des loupes, des miroirs, des endoscopes, des caméras vidéo, etc.
On peut même utiliser des robots pour inspecter des endroits dangereux ou
difficiles d’accès tels les réseaux de canalisation et les réacteurs nucléaires.

22 – Le ressuage :
C’est une méthode qui s’effectue selon le processus suivant :
1. Application d’un liquide pénétrant à la surface de la pièce suivie
d’un temps d’imprégnation
2. Élimination de l’excès de pénétrant
3. Déposition d’une couche de révélateur (poudre) qui fait ressortir le
pénétrant et l’étale autour des fissures
4. Inspection visuelle sous une lumière UV

23 – La magnétoscopie :
C’est une méthode qui s’effectue selon le processus suivant :
1. Magnétisation de la pièce
2. Application d’une poudre ferromagnétique fluorescente
3. Les particules sont attirées par le flux magnétique et s’agglutinent au-
dessus des défauts
4. Observation des indications sous un éclairage approprié

24 – Radiographie :
Une pièce est placée entre la source de radiation et le film. Plus le matériau traversé est dense, plus il absorbe le
rayonnement. L’intensité de gris du film est proportionnelle à l’intensité du rayonnement.

4
25 – Les courants de Foucault :
C’est une méthode de contrôle qui consiste à créer, dans un matériau conducteur, un courant induit par un champ
magnétique variable. Ces courants induits, appelés courants de Foucault, circulent localement, à la surface du
matériau. La présence d’une discontinuité à la surface de la pièce contrôlée perturbe la circulation des courants
entraînant une variation de l’impédance apparente de la sonde de contrôle.

5
26 – Les ultrasons :
C’est une méthode de contrôle qui consiste à transmettre des
impulsions acoustiques de hautes fréquences (les ultrasons) dans
un matériau. Ces ondes se propagent dans le matériau suivant
différents modes de propagation. La présence d’une discontinuité
sur le trajet des ultrasons provoque la réflexion partielle des
impulsions. Le signal réfléchi est recueilli par un transducteur
ultrasonore.

3 – DOMAINES D’APPLICATION :

Centrales nucléaire : périodiquement, les centrales


sont mises hors service afin d’être inspectées. Des
sondes à courant de Foucault sont introduites dans les
tubes échangeur de chaleur pour vérifier la présence de
dommages dus à la corrosion.

Câbles d’acier : des dispositifs électromagnétiques et


des inspections visuelles sont utilisés afin de détecter
des brins brisés ou d’autres dommages aux câbles
utilisés dans les remonte-pentes, les grues et autres
équipements de levage.

Réservoir : des robots sur chenilles utilisent des


ultrasons pour inspecter les parois de larges réservoirs
hors terre afin de détecter des signes d’amincissement
dû à la corrosion.

Etc.

6
Applications

Courants de
Défauts Ressuage Magnétoscopie Radiographie Ultrasons Optique
Foucault

Porosité x x
Fontes

Discontinuités de surface x x x x
Vides x x
Impuretés, inclusions x x
Coutures de surface,
forgées

pliages x
Pièces

Inclusions x x
Eclatements x x
Fissures x x x x
Fissures, repliements x x x
laminées
Pièces

Marques de laminage x x x
Inclusions x x x
Défauts internes alignés x x x
Alignements d'oxydation x x x
Fusions incomplètes x x x
Soudures

Manques de pénétration x x x
Fissures x x x x
Impuretés non métalliques x x x
Porosité x x x
Produits finis

Fissures de TTh x x x x x
Fissures de rectification x x x
Fissures de déformation à
froid x x x
Fissures du revêtement
métallique x x x x
Fissures de fatigue x x x x x
Mainte-
nance

Concentration de
contraintes x x x x x
Corrosion x x x
Matériaux composites

Fissures et inclusions x x
Décollages, délaminages x
Epaisseurs de couches
non ferromagnétiques sur
substrats
ferromagnétiques x
Epaisseurs de couches
non conductrices sur
substrats non
ferromagnétiques x

7
L’examen visuel :
L'examen visuel est une technique de CND très simple de mise en oeuvre mais riche
d'enseignements. En effet, il va permettre de préciser le mécanisme mis en jeu dans
toutes les autres techniques.
Une évolution se manifeste actuellement pour traduire les résultats d'un CND sous la
forme d'une image numérisée. De plus, les capteurs de mesure font de plus en plus
appel à des systèmes optoélectroniques réalisant la conversion de photons en
électrons.
L'observation de la surface d'un objet nécessite une source de lumière d'intensité et de
longueur d'onde compatibles avec l'aptitude naturelle de l'œil de l'opérateur exécutant
l'examen.
Le processus mis en jeu (illustré par la figure ci-dessous) se décompose en 3 phases
essentielles :
• La phase d'excitation qui consiste à produire le faisceau lumineux.
• La phase de perturbation qui consiste à placer la pièce dans le champ optique du faisceau et rechercher
son orientation la plus favorable pour la mise en évidence d'éventuels défauts de surface.
• La phase de révélation qui consiste à placer l'œil dans le champ du faisceau réfléchi par la surface de la
pièce.

EXCITATION

REVELATION

PERTURBATION

Ces 3 phases sont étroitement dépendantes les unes des autres et on remarque l'importance des paramètres suivants :
• Le caractère directif des ondes incidentes et réfléchies,
• La nature du rayonnement de la source,

8
• L'angle d'incidence par rapport à la surface de la pièce dont les irrégularités se comportent comme autant de
miroirs renvoyant la lumière dans toutes les directions,
• La propreté et la rugosité de la surface de la pièce,
• La faible proportion des rayons réfléchis vers l'œil vis-à-vis de la quantité émise par la source,
• Les distances entre la source et la pièce et entre l'oeil et la pièce,
• Les anomalies de perception de l'œil et sa sensibilité optimale dans un domaine de longueur d'onde bien
précis.
La procédure de contrôle pour un tel examen doit préciser ces paramètres en fixant des valeurs limites acceptables
pour chacun d'eux.
Généralisation du principe aux différentes techniques :
Les techniques de contrôle non destructif les plus couramment employées actuellement peuvent être classées en 2
familles principales, étroitement liées à la localisation de l'anomalie sur la pièce en cours d'examen.
La première famille concerne les méthodes dites de surface pour lesquelles l'anomalie est localisée en surface
extérieure. Elle groupe les procédés suivants : l’examen visuel, le ressuage, la magnétoscopie, les courants de
Foucault.
La deuxième famille concerne les méthodes dites volumiques pour lesquelles l'anomalie est localisée dans le
volume de la pièce. Elle regroupe les procédés suivants : les ultrasons, les rayonnements ionisants.
Des méthodes complémentaires existent dont le classement en fonction du critère de localisation de l'anomalie
n'apparaît pas d'une manière aussi nette que dans les cas précédents. Ces méthodes ont cependant l'avantage d'être
globales et en temps réel. II s'agit en particulier de la thermographie, l'émission acoustique.
Pour chaque procédé, on retrouve les 3 phases essentielles présentées précédemment dans le cadre de l'examen
visuel :
• L'excitation est bien souvent caractérisée par un rayonnement de nature électromagnétique ou une vibration
mécanique et un champ magnétique,
• La perturbation est définie dans tous les cas de figure par la pièce et l'anomalie qu'elle contient,
• La révélation est assurée soit par l'œil, soit par des systèmes de capteurs traduisant sous forme de signaux
électriques la réaction entre l'excitation et la perturbation (importance de plus en plus grande prise par
l'imagerie pour la restitution des informations recueillies par les capteurs).
Le tableau page suivante précise de manière simplifiée les 2 processus d’excitation et de révélation mis en jeu pour
chaque procédé.

9
PROCEDE EXCITATION REVELATION
Rayonnement visible
Œil et aides optiques telles que loupe,
Examen visuel Source de lumière blanche ou binoculaire, microscope, endoscope
monochromatique
Liquide d'imprégnation conjugué à un Fines particules absorbant le produit
Ressuage rayonnement visible ou ultraviolet pour d'imprégnation et œil avec aide optique telles
l'observation que loupe ou endoscope
Champ magnétique engendré par une Fines particules magnétiques piégées par le
Magnétoscopie onde sinusoïdale basse ou moyenne champ perturbé et œil avec aides optiques
fréquence telles que loue ou endoscope
Champ magnétique engendré par une Bobine ou capteur dont l'impédance varie en
Courants induits ou
onde sinusoïdale basse ou moyenne fonction du champ perturbé et chaîne de
courants de Foucault
fréquence mesure
Vibration mécanique de moyenne Traducteur convertissant l'énergie mécanique
Ultrasons fréquence engendrée par un traducteur de perturbée en signal électrique et chaîne de
type piézoélectrique mesure
Film ou système de conversion directe ou
Rayonnements ionisants Rayonnement électromagnétique du type indirecte du rayonnement en électrique signal
X, γ, α ou neutronique
et œil ou moniteur

Thermographie Rayonnement électromagnétique du type Caméra infrarouge et moniteur ou laque


infrarouge ou source de chaleur thermosensible et œil

Traducteur convertissant l'énergie mécanique


Emission acoustique Contrainte mécanique ou bruit
en signal électrique et chaîne de mesure

10
1 – PRINCIPES DE LA METHODE :
Le contrôle par ressuage a pour but de révéler la présence de défauts
débouchants à la surface d’une pièce. Ces discontinuités ne peuvent généralement
pas être décelées par un examen visuel.
Le contrôle par ressuage peut être considéré comme une méthode globale pour
tous les défauts débouchants en surface, quelle que soit la nature du matériau. A
partir du moment où les conditions opératoires sont satisfaites, on n’a pas de
besoin de connaître l’orientation du défaut pour le détecter et un seul essai peut
suffire.
Comme par ailleurs ce sont les discontinuités débouchantes qui peuvent nuire le plus lors de l’utilisation de la pièce, on
voit tout de suite le grand intérêt que peut présenter cette méthode.
L’essai de ressuage peut être résumé en 4 phases, décrites ci-dessous :
1. La surface propre de la pièce à contrôler, exempte de pollution susceptible de colmater les défauts
débouchants, est mise en contact avec un produit liquide contenant des traceurs colorés ou fluorescents
(liquide d’imprégnation ou de pénétration). Par capillarité, ce liquide pénètre dans tous les défauts débouchants
(opération 1).
2. Après une période d’attente (temps d’imprégnation), l’excès de pénétrant sur la surface de la pièce est éliminé
(opération 2).
3. On applique alors un produit révélateur sur la surface de la pièce, de manière à absorber le liquide
d’imprégnation présent dans les discontinuités. En diffusant dans le révélateur, le pénétrant forme une tache
colorée à la surface de la pièce (opération 3).
4. L’apparition de ces taches indique au contrôleur la présence de défauts débouchants (opération 4).

11
2 – PROPRIETES PHYSICO-CHIMIQUES MISES EN JEU :
21 – Définition des paramètres :
Masse volumique : la masse volumique est la masse de l’unité de volume d’un corps.
Diffusion : le phénomène de diffusion peut être
illustré par l’exemple suivant : une tache d’encre
déposée sur un papier buvard s’élargit
progressivement au cours du temps. On assiste à
un transfert de la masse du liquide dans la matière
poreuse constitué par le buvard suivant un
mécanisme similaire à celui de la propagation de la
chaleur dans un volume de matériau.
Viscosité : la viscosité d’un fluide caractérise sa résistance à
l’écoulement dans des conditions homogènes.
Adsorption physique : c’est le phénomène d’adhérence d’un
fluide à la surface d’un solide tel qu’on l’observe pour la buée
collée à la surface d’une vitre froide.
Capillarité : on désigne sous le nom de capillarité l’ensemble
des phénomènes se produisant à la surface d’un liquide, en
particulier lorsque que ce dernier est placé dans un tube de
très petit diamètre intérieur. Les 2 exemples de la figure ci-
contre illustrent ce phénomène.
• Le niveau de l’eau dans le tube capillaire est plus élevé que celui existant dans le réservoir. Il y a ascension du
liquide dans le tube par suite des forces capillaires mises en jeu. On observe également que la surface du liquide
dans le tube n’est pas plane et que le rayon de courbure a son centre vers le haut.
• Le niveau du mercure dans le tube capillaire est moins élevé que celui existant dans le réservoir, le liquide a du
mal à s’élever dans le tube par suites des forces capillaires en présence, le rayon de courbure de la surface a
son centre vers le bas.
Entre les 2 exemples cités ci-dessus qui représentent des situations « extrêmes », de nombreux cas peuvent se
présenter en fonction de la nature du liquide et de l’état de la surface du tube en présence.
Deux grandeurs caractéristiques conditionnent l’effet capillaire : la tension superficielle et la mouillabilité.

• Tension superficielle : dans un liquide, les molécules sont liées les


unes aux autres par des forces de cohésion qui tendent à limiter
l’étalement dans l’espace qui est offert. Si l’on voulait accroître la
surface du liquide il faudrait exercer une traction parallèle à son plan
dans toutes les directions, tout comme on procèderait sur une
membrane de caoutchouc préalablement tendue.

• Mouillabilité : par ailleurs, lorsqu’une goutte de liquide est déposée


sur une surface plane, on observe une déformation de la goutte. La
mouillabilité d’un liquide s’exprime en fonction de la valeur de l’angle
défini par la surface et la tangente à la surface du liquide.
o Si l’angle < 90°, le liquide est mouillant : c’est le cas de
l’eau.
o Si l’angle > 90°, le liquide n’est pas mouillant : c’est le cas
du mercure.
22 – Lois physiques mises en jeu :
Le mécanisme mis en jeu en ressuage résulte de plusieurs effets. L’effet capillaire n’explique qu’en partie le
phénomène. En effet, un liquide remonte beaucoup moins dans un tube capillaire fermé à son extrémité (modèle
correspondant à la plupart des défauts) que dans un tube capillaire dont l’extrémité est en contact avec l’air.

12
S’il n’y avait que l’effet capillaire, la remontée dans les
défauts serait instantanée, ce qui n’est pas le cas dans la
pratique. Il faut alors prendre en compte les phénomènes
de diffusion et d’adsorption pour comprendre l’évolution
dans le temps de la réaction aussi bien dans la phase
d’imprégnation que dans la phase de révélation. C’est
malgré tout le modèle de la loi de JURIN qui est le plus
couramment admis (cf. figure ci-contre). La loi de JURIN
précise que la hauteur d’ascension « h » varie en raison
inverse du rayon intérieur « r » du tube. En d’autres
termes, plus l’interstice est petit, mieux se fait la
remontée du liquide.
En résumé la pénétration du liquide dans l’interstice se fera d’autant mieux que :
• L’interstice est faible en dimension.
• La tension superficielle du liquide est élevée.
• L’état de surface et la propreté à l’intérieur sont bons.
• Le liquide est mouillant.
• La masse volumique du liquide est faible.
23 – Le mécanisme de ressuage :
L'excitation :
C'est la phase initiale qui consiste à soumettre la pièce à l'action d'un liquide pénétrant. L'application du liquide se fait
soit par immersion, soit par pulvérisation. II n'y a pas de limitation liée à la nature de la pièce soumise à examen.
Cependant, les facteurs suivants peuvent influencer cette 1ère phase
• L'état de surface de la pièce : il est indispensable de procéder à l'application du pénétrant sur une surface
parfaitement dégraissée de préférence par des solvants en phase liquide ou par agitation ultrasonore.
• Choix du produit pénétrant : on utilisera de préférence un produit d'autant plus sensible que la rugosité de
surface est faible et que le matériau n'est pas poreux, de manière à profiter du contraste le meilleur dans la
phase de révélation. Le classement dans l'ordre croissant des sensibilités est généralement le suivant
o Produit coloré conduisant à une sensibilité faible
o Produit fluorescent pré-émulsionné conduisant à une sensibilité moyenne
o Produit fluorescent post-émulsionné conduisant à une sensibilité élevée
• Durée d'application : le temps est un élément important dans le processus. II est nécessaire de respecter les
préconisations des fabricants pour l'application considérée. Un intervalle de temps compris entre 15 et 30
minutes est adopté dans la plupart des cas
La perturbation :
C'est la phase la plus complexe qui traduit l'interaction du produit pénétrant avec le matériau. II est admis que le
modèle d'action qui explique la remontée du produit dans le défaut est l'effet capillaire. Cf. §22.
La révélation :
Cette phase commence avec le début du rinçage dont le rôle est d'éliminer l'excès de pénétrant à la surface de la
pièce. C'est une opération délicate car elle conditionne le contraste au moment de la révélation proprement dite à l'aide
du révélateur. Un rinçage excessif risque de « laver » les défauts et l'efficacité de la méthode n'est plus garantie. Un
rinçage insuffisant laissera subsister des traces de pénétrant en surface qui gêneront l'interprétation.
Les paramètres importants relatifs à cette phase sont les suivants
• Nature du produit utilisé pour l'élimination de l'excès de pénétrant (eau, solvants, etc.)
• Mode d'application du produit de rinçage: l'eau ne doit pas être projetée trop violemment, un solvant ne doit pas
être pulvérisé en grandes quantités, la température de la pièce doit rester dans les limites admises par le
fabricant, etc.
• Vérification de l'efficacité du rinçage : vérification sous rayonnements UV pour les pénétrants fluorescents
• Conditions de séchage après rinçage : pression dans le cas d'un séchage à l'air comprimé, température dans
les cas d'une étuve
• Nature du révélateur : il peut être sec ou liquide. L'emploi d'un révélateur sec sous forme d'un nuage poudre
venant recouvrir la surface est recommandé industriellement
• Conditions d'application du révélateur : respect du temps, finesse et homogénéité de la couche déposée
conditionnent la réussite de l'opération
• Conditions d'observation : un soin doit être apporté aux conditions d'éclairage de la surface de la pièce.

13
3 – DIFFERENTS TYPES DE PRODUITS UTILISES :
31 – Les pénétrants :
Il existe 3 familles principales de pénétrants :
• Les pénétrants colorés, qui sont généralement de coloration rouge/violette pour
lesquels l’observation se fait en lumière blanche.
• Les pénétrants fluorescents qui nécessitent un examen en lumière
ultraviolette, en ambiance sombre.
• Les pénétrants mixtes qui peuvent être indifféremment examinés en lumière
blanche ou en lumière UV.

Parallèlement, dans chaque famille, on peut rencontrer 3 cas possibles d’utilisation :


• Le pénétrant est prè-émulsifié auquel cas il est directement rinçable à l’eau.
• Le pénétrant est à post-émulsification auquel cas l’excès de pénétrant pour être
éliminé, doit être soumis à l’action d’un émulsifiant intermédiaire.
• Le pénétrant est éliminable à l’aide d’un solvant approprié.
La figure ci-dessous donne une représentation schématique des situations les plus
couramment utilisées dans l’industrie :

32 – Les émulsifiants :
L’émulsifiant n’est utilisé que dans le cas d’un produit pénétrant à post-émulsification pour l’enlèvement de l’excès de
pénétrant en surface de la pièce.
Deux types d’émulsifiants peuvent être utilisés :
• émulsifiants lipophiles (substance chimique qui a de l’affinité avec les graisses) utilisés à l’état pur, solubles
dans le pénétrant.
• émulsifiants hydrophiles (substance chimique qui a de l’affinité avec l’eau) utilisés en solution dans l’eau et peu
solubles dans le pénétrant.
Remarque : une émulsion est une suspension d’un liquide, divisé en globules, au sein d’un liquide avec lequel il ne peut
de mélanger (ex : émulsion huile et eau).
33 – Les révélateurs :
Il existe essentiellement 2 types de révélateurs:
• Les révélateurs secs se présentant sous forme de poudre (exclusivement avec
les pénétrants fluorescents).
• Les révélateurs humides constitués d’une poudre en suspension ou en solution
dans un liquide. Ce liquide est un produit organique volatil (pour pénétrants
colorés et fluorescents).

14
4 – EXEMPLES DE MISE EN ŒUVRE :
Cf. figure ci-contre.

Dans la suite, on ne s’intéressera principalement qu’aux produits pénétrants


pré-émulsifiés et à leur mise en œuvre.

5 – CARACTERISTIQUES PHYSIQUES DES PRODUITS :


51 – Pénétrants :
Afin d’obtenir une détection des défauts, les pénétrants doivent présenter les caractéristiques suivantes :
• Avoir une grande aptitude à pénétrer dans les discontinuités et à en ressortir seul ou sous l’action du
révélateur. Le pénétrant doit être un liquide mouillant et doit avoir une tension superficielle la plus élevée
possible. La viscosité du pénétrant est une caractéristique qui affecte principalement la vitesse de pénétration.
La pénétration du liquide dans le défaut est d’autant plus rapide que la viscosité du pénétrant est faible.
• S’étaler aisément sur la surface à contrôler et s’éliminer facilement de celle-ci tout en restant dans les
discontinuités.
• Posséder une inertie chimique vis-à-vis des matériaux à contrôler (ne pas agresser chimiquement le matériau
contrôlé). Les risques de corrosion sont important pour :
o le titane et ses alliages en présence d’halogènes (fluor, chlore, brome, iode).
o les aciers austénitiques en présence de chlore
o l’aluminium et ses alliages en présence de produits alcalins (métaux qui décomposent à froid l’eau en
produisant un hydroxyde).
• Etre également peu volatils, non toxiques, ininflammables.

52 – Révélateurs :
Le révélateur déposé sur la surface de la pièce a pour rôle d’absorber le pénétrant présent dans les défauts, et de
permettre sa diffusion en surface de manière à former une image observable.
Les principales qualités que doit posséder un révélateur peuvent être résumées ainsi :
15
• une grande aptitude à l’absorption du pénétrant.
• sa couleur doit contraster avec celle du pénétrant.
• il ne doit pas provoquer de corrosions de la pièce à contrôler.
• il ne doit pas être toxique.
• Son élimination après inspection doit être aisée.
6 – TECHNIQUE OPÉRATOIRE ADAPTÉE AUX DIFFÉRENTS PRODUITS :
61 – Préparation des surfaces à contrôler :
La présence d’une contamination en surface peut gêner le contrôle selon 3 mécanismes :
• le pénétrant retenu en surface donne de fausses indications et diminue le contraste.
• les produits contaminants obstruent partiellement ou complètement les défauts, ce qui rend la pénétration du
liquide coloré dans les discontinuités difficile ou impossible ; les défauts risquent alors de ne pas être détectés.
• les produits contaminants polluent le pénétrant, ce qui entraîne une diminution de la sensibilité.
Les contaminations de surface sont nombreuses et variées. Elles dépendent des conditions d’élaborations, d’usinage,
d’utilisation des pièces :
• peinture, vernis, huiles, graisses, lubrifiants d’usinage, oxydation, résidus de combustion.
La technique de nettoyage à mettre en oeuvre doit être choisie en fonction de la nature de la contamination :
• Traitement mécanique : d’une manière générale, les techniques de nettoyage mécanique sont à éviter. La
déformation plastique provoquée en surface par sablage ou polissage peut conduire à une obturation des
défauts.
• Traitement chimique : par bains dans des solutions à base d’acide. Un rinçage à l’eau abondant est
nécessaire ainsi qu’un séchage.
• Nettoyage par ultrasons : la pièce est immergée dans un bain de solvant agité par une onde ultrasonore.

62 – Application du pénétrant :
L’application du pénétrant liquide sur les pièces préalablement
nettoyées est pratiquée soit par immersion, par pulvérisation, par
aspersion.
La durée du contact entre la surface de la pièce et le pénétrant
dépend de la nature du liquide pénétrant, de la sensibilité du contrôle
et de la température de la pièce.
La durée d’application est de 10 à 15 minutes suivant les cas (voir
préconisations constructeur).

63 – Elimination de l’excès de pénétrant en surface des pièces :


Les pénétrants pré-émulsifiés sont éliminés soit :
• par un rinçage à l’eau courante, sous une pression faible et dans une durée la plus courte possible pour éviter
de vider les défauts du pénétrant qui s’y trouve.
• par essuyage avec un chiffon sec, pour enlever la majeure partie du pénétrant, puis avec un chiffon légèrement
imbibé d’un solvant approprié.
Si un excès de pénétrant subsiste à la surface de la pièce, il engendrera, lors de l’opération de révélation, une

16
coloration excessive qui gênera fortement l’interprétation. Il est donc important de vérifier après rinçage à l’eau,
l’absence de pénétrant en surface.
L’opération de séchage des pièces est rendue nécessaire après rinçage à l’eau. Cette opération peut être effectuée
soit :
• par soufflage d’air comprimé sec est déshuilé (3 bars maxi)
• par soufflage d’air chaud
• au chiffon sec, propre et non pelucheux.
La durée de l’opération doit être la plus courte possible afin d’éviter le séchage du pénétrant à l’intérieur des défauts.

64 – Application du révélateur :
Cette opération favorise la remontée du pénétrant le long du défaut, jusqu’en surface extérieure : c’est le phénomène
de ressuage.
Pour les révélateurs secs, l’application se fait par :
• pulvérisation mécanique.
• pulvérisation électrostatique.
• brouillard créé dans une cabine étanche.
Pour les révélateurs liquides, l’application se fait par :
• immersion.
• pulvérisation mécanique.
• aérosol.
Un temps de séchage est nécessaire, mais il doit être assez court si l’on veut garder une certaine finesse à la lecture
des résultats, Rappelons-le, le révélateur se comporte comme un buvard.

65 – Contrôle des produits de ressuage et de l’application :


Pour s’assurer de la qualité du ressuage tant au niveau de l’application
que des produits eux-mêmes, on associe aux pièces à contrôler des
plaquettes témoins (jetables ou non) qui ont des défauts connus et qui
subissent les différentes opérations de ressuage. L’examen de ces
plaquettes permet de contrôler le processus dans son ensemble.
Retrouver ces différentes fissures après application du révélateur, est un
moyen de contrôler le bon déroulement du ressuage.

66 – Observations des indications de défauts :

17
Le rapport d’examen ne peut être crédible que si le temps écoulé après l’application du révélateur n’est ni trop court
pour laisser le processus s’engager (5 à 10 minutes), ni trop long pour tomber dans l’excès d’une diffusion trop longue
pouvant affecter la sensibilité générale du processus.
L’observation est pratiquée en lumière naturelle ou artificielle (d’une intensité au moins égale à 350 lux) pour les
pénétrants colorés et en lumière ultraviolette pour les pénétrants fluorescents.
L’interprétation des résultats est un domaine très complexe qui ne peut s’acquérir qu’au travers d’une longue
expérience. Elle exige une connaissance parfaite du processus opératoire et des défauts susceptibles d’être
rencontrés.
Il est cependant utile de connaître, à ce stade, la procédure de « lever de doute » à pratiquer devant une indication de
ressuage pour confirmer la présence d’un défaut : la remontée du pénétrant sous l’action du révélateur est
généralement partielle et il suffit bien souvent d’éliminer la tache de ressuage à l’aide d’un chiffon propre ou légèrement
imbibé de solvant et d’appliquer à nouveau le révélateur localement, pour faire ressortir le pénétrant à l’aplomb du
défaut. Cette pratique systématique, associé à un examen visuel de la surface doit permettre d’éviter bien des
déconvenues dans l’interprétation.

Observations en lumière blanche des défauts dans une Observations en lumière UV de criques dues à un mauvais
soudure perçage

67 – Nettoyage final :
Un nettoyage final est préconisé pour certains matériaux (alliages d’aluminium ou
de magnésium) pour lesquels la présence des produits utilisés peut entraîner des
corrosions.

7 – CHOIX DES PRODUITS EN FONCTION DES EXIGENCES :


Le choix d’une procédure pour le contrôle par ressuage d’une pièce est essentiellement fonction de 2 natures de
paramètres :
• paramètres liés à la pièce elle-même à contrôler (état de surface, nature de l’alliage, procédé de fabrication de
la pièce, défauts recherchés)
• paramètres liés à la nature des produits.
71 – Sensibilité recommandée en fonction de la nature des pièces à contrôler :
Le tableau ci-dessous précise les solutions généralement adoptées en fonction des types de pièces contrôlées :

TYPE DE PIÈCES TYPE DE PÉNÉTRANT


Pièces usinées très sollicitées : aubes de turbines, Pénétrant fluorescent à post-émulsion avec émulsifiant
compresseurs, disques. hydrophile.
Pièces de sécurité coulées ou forgées : roues, blocs Pénétrants fluorescents pré-émulsionnés ou à post-
cylindres, culasses, tubes d'échangeurs. émulsion avec émulsifiant lipophile.
Ensembles ou sous-ensembles mécano-soudés, ou
Pénétrant coloré pré-émulsionné.
pièces de fonderie
18
72 – Sensibilité des pénétrants :
Le classement en sensibilité généralement adopté est présenté ci-dessous. Il est certain que ce classement peut être
remis en cause en fonction de l’évolution des techniques.

TYPE DE PÉNÉTRANT SENSIBILITÉ

Pénétrant coloré pré-émulsionné Faible sensibilité

Pénétrant fluorescent pré-émulsionné Sensibilité moyenne

Pénétrant à post-émulsion avec émulsifiant lipophile Haute sensibilité

Pénétrant à post-émulsion avec émulsifiant hydrophile Très haute sensibilité

8 – MOYENS DE CONTROLE :
Moyens de contrôles portatifs Chaîne de ressuage

9 – CONDITIONS GENERALES D’HYGIENE ET SECURITE :


91 – Manipulation des produits plus ou moins toxiques à plus ou moins long terme :
C’est surtout au niveau des révélateurs secs que les risques de toxicité sont importants, en particulier par la
combinaison à la fumée du tabac. Certains de ces produits sont aussi volatils et inflammables (point éclair relativement
bas).
Il convient de s’assurer que les zones de travail soient suffisamment aérées et éloignées de sources de chaleur et de
flammes. Il est en particulier interdit de fumer pendant les essais.

19
92 – Manipulation d’une lampe UV :
Généralement on utilise une lampe au mercure dont on utilise une radiation qui est proche du domaine visible.
Malheureusement, cette lampe émet bien d’autres radiations dont une beaucoup plus intense qui ne doit en aucun cas
parvenir aux yeux de l’opérateur. Il est donc indispensable d’équiper les lampes UV de filtres, et de veiller à leur bon
état.
X – DOCUMENTS DE CONTROLE D’UNE PIECE :
La diversité des paramètres entrant en jeu pour la mise en évidence des
défauts par ressuage oblige à préciser dans les documents les conditions
de contrôle à adopter en fonction d’éléments tels que :
• La nature et la géométrie de la pièce,
• Les conditions d’utilisation,
• Les moyens disponibles pour l’exécution du contrôle,
• Les critères imposés.

L’opérateur exécutant le contrôle des pièces n’a généralement pas accès à la norme ou la spécification. Le document
ou les instructions pratiques qui lui sont nécessaires doivent préciser en particulier. Afin de s'assurer de la bonne
exécution du contrôle, il est nécessaire de préciser les éléments suivants :
• Conditions de préparation de la pièce : nettoyage, etc.
• Nature des produits de ressuage à utiliser: pénétrant, émulsifiant, révélateur
• Conditions d'application du pénétrant : en immersion ou par pulvérisation, temps d'application et d'égouttage
• Conditions d'enlèvement de l'excès de pénétrant en surface de la pièce : rinçage à l'eau ou par émulsifiant
• Vérification du lavage des pièces: en lumière blanche ou ultraviolette
• Conditions de séchage des pièces : à l'air ambiant, à l'air comprimé ou en étuve, temps de séchage,
température de séchage
• Conditions d'application du révélateur: pulvérisation en bombe ou par nuage de poudre, épaisseur du film à
appliquer, temps d'exposition
• Condition d'examen des images et interprétation des résultats : nature de l'examen (oeil nu, loupe),
grossissement utilisé, rayonnement (lumière blanche ou UV), critères d'admissibilité des défauts.
Exemple :

20
XI – LES NORMES :
Les principaux documents sont :
NF A 09 120 : essais non destructifs. Principes généraux de l'examen par ressuage
NF A 09 122 : essais non destructifs. Ressuage. Vérification des caractéristiques des produits de ressuage
NF A 09 123 : essais non destructifs. Ressuage. Sensibilité et mise en œuvre des produits
NF A 09 130 : essais non destructifs. Moyens d'examens superficiels. Caractérisation des sources de lumière UV
NF A 04 161 : Produits de fonderie. Contrôle par ressuage des pièces en acier moulé
NF A 04 161 : Produits de fonderie. Contrôle par ressuage des pièces moulées en alliages cuivreux à haute résistance
XII – AVANTAGES ET INCONVENIENTS :
Avantages :
• Simplicité de mise en oeuvre
• Localisation précise des défauts et appréciation de leur longueur
• Seule méthode globale en CND autorisant un examen de la totalité de la surface de la pièce sans influence
notable sur l'orientation du défaut par rapport à la direction du faisceau de la source utilisée pour l'excitation
• Méthode se prêtant bien à l'automatisation
Inconvénients :
• Méthode autorisant uniquement la mise en évidence de défauts débouchants à la surface de la pièce sur des
matériaux non poreux
• L'appréciation de la profondeur des défauts n'est pas possible
• L'interprétation dans la phase de révélation est délicate, en particulier pour l'automatisation

21
10 – EXEMPLES :

22
1 – PRINCIPE GENERAL :
11 – Introduction :
Les premières observations mettant en évidence la possibilité de détection de défauts dans les pièces métalliques à
partir d’une excitation par champ magnétique ont été faites en 1920 aux états unis. La 2ème guerre mondiale a fortement
influencée le développement de cette technique qui a fait son apparition dans l’industrie automobile, l’aéronautique et
l’industrie de l’armement.
Actuellement, cette méthode reste très largement employée en raison de sa simplicité et de la qualité des services
rendus.
Souvent, certaines imperfections de surface restent peu visibles au ressuage, malgré tout le soin apporté. Elles sont
trop fermées et ne laissent pas ou peu pénétrer le pénétrant dans les discontinuités. Les anomalies sous-jacentes
(défaut non débouchant) ne sont pas détectables par ressuage et peuvent devenir particulièrement dangereuses en
évoluant vers l’intérieur de la pièce.
La magnétoscopie est en quelque sorte une méthode complémentaire au contrôle par ressuage.
12 – Principe :
Cette méthode consiste à soumettre un matériau ferromagnétique à
l’action d’un champ magnétique qui va ainsi créer des lignes de forces à
l’intérieur du matériau.
Ces lignes vont être perturbées par l’existence d’un champ de fuite dû à
la présence d’un défaut de la pièce. Ces champs de fuite pourront être
mis en évidence et localisés en saupoudrant sur la surface de la pièce
des particules ferromagnétiques qui viendront s’accumuler sur la zone
d’attraction que représente le champ de fuite.
Cette méthode n’est utilisable que sur des matériaux ferromagnétiques et
permet de détecter des défauts débouchant ou sous-jacents (environ
1mm sous la surface). Il y a nécessité de procéder à une
démagnétisation de la pièce après le contrôle.

2 – NOTIONS ELEMENTAIRES DE MAGNÉTISME ET D’ELECTROMAGNETISME :


21 – Spectre magnétique d’un aimant :
Un aimant est constitué de deux pôles
Nord et Sud. La limaille de fer déposée sur
une feuille de papier, en contact avec un
aimant s’oriente suivant des lignes bien
précises appelées lignes de champ.
La figure ci-contre donne une
représentation du spectre d’un aimant. Elle
montre que des forces sont mises en jeu
entre l’aimant et les particules, forces
d’autant plus intenses que l’on se trouve à
proximité des pôles de l’aimant.
L’origine de ces forces est liée à la présence d’un champ magnétique créé par l’aimant.

23
22 – Conducteur parcouru par un courant :
Un conducteur rectiligne parcouru par un courant créé généralement dans son environnement
un champ magnétique. La manifestation de ce champ se traduit aussi par la concentration de la
limaille de fer suivant des lignes circulaires telles que représentées sur le schéma de la figure
ci-contre.

23 – Susceptibilité magnétique :
L’aimant est capable d’attirer la limaille de fer, mais il est sans action vis-à-vis des métaux non ferreux tels que
l’aluminium ou le cuivre.
Par ailleurs, lorsque la possibilité d’attraction se
manifeste (pour un acier par exemple), elle ne
se fait pas avec la même intensité suivant le
degré de pureté de cet acier.
Ces manifestations sont liées au fait que les
corps présents dans la nature ont des propriétés
magnétiques plus ou moins marquées
caractérisées par la susceptibilité
magnétique.
uuur
Définition de la susceptibilité magnétique : placé dans un champ d’excitation magnétique H 0 , un corps quel qu’il
uur
soit acquiert une intensité d’aimantation M plus ou moins intense selon la nature de l’échantillon. Les effets du champ
uuur uur uur uuur uur
H 0 et de l’aimantation M s’ajoutent pour donner un champ résultant H = H 0 + M suivant le principe de la figure
initial
uur uur
ci-dessus. Généralement M et H sont proportionnels et le coefficient de proportionnalité représente la susceptibilité
magnétique du matériau.
Les matériaux se classent suivant 3 familles suivantes selon la valeur de leur susceptibilité magnétique..
Matériaux diamagnétiques :
Ils présentent une faible susceptibilité ; petite comparée
à l’unité et négative.
Ces matériaux ont une tendance très faible à s’aimanter
dans une direction opposée à celle du champ extérieur
appliqué.
En première approximation l’aimant est sans action sur
de tels corps.

Matériaux paramagnétiques :
ils présentent une très faible susceptibilité ; très petite
comparée à l’unité et positive.
Ces matériaux ont une tendance très faible à s’aimanter
dans la même direction que celle du champ extérieur
appliqué.
Comme précédemment, on peut admettre que l’aimant
est sans action sur de tels corps.

24
Matériaux ferromagnétiques :
Par opposition aux 2 classes précédentes, ils présentent
une susceptibilité très élevée et positive.
Ces matériaux ont une forte tendance à s’aimanter dans
la même direction que celle du champ extérieur
appliqué.
L’approche de l’aimant provoque l’attraction, facilement
perceptible. La plupart des corps ou alliages métalliques
très riches en fer sont ferromagnétiques, mais il faut être
prudent dans la généralisation de ce principe.
On constate une grande diversité dans les valeurs de susceptibilité pour les corps ferromagnétiques et il est important
de noter qu’un même matériau peut avoir des comportements très différents, liés à son histoire magnétique antérieure.
Les traitements thermiques, mécaniques, électriques, magnétiques peuvent modifier la valeur de susceptibilité alors
que la composition chimique reste inchangée.
24 – Induction B et perméabilité µ :
On crée, dans un volume d’espace donné, un champ d’excitation magnétique H homogène et uniforme.
On observe le comportement de 2 matériaux tels que le fer (ferromagnétique) et l’aluminium (paramagnétique) soumis
à ce champ d’excitation.
La répartition des lignes de champ est représentée schématiquement sur les 3 figures suivantes. La présence du fer
modifie la répartition des lignes de champ alors que l’aluminium est pratiquement sans action.
De plus la pénétration des lignes dans le fer se fait plus ou moins bien suivant qu’il est plus ou moins pur.

Représentation schématique d’un champ d’excitation magnétique uniforme et


homogène dans l’air. Les lignes de champ sont parallèles et régulièrement
espacées.

Comportement d’un barreau d’aluminium dans un champ d’excitation magnétique


uniforme et homogène.

Comportement d’un barreau de fer dans un champ d’excitation magnétique


homogène et uniforme. Les lignes de champ sont déviées par la présence du fer.

L’induction est le champ magnétique qui traverse le matériau. Elle est exprimée en TESLA (symbole T). Cette
induction B est plus ou moins forte suivante la perméabilité µr du matériau.
La perméabilité est la propriété d’un matériau désignant son aptitude à canaliser les lignes de force
magnétique. Elle est représentée par le symbole µ et est exprimée en henry par mètre (symbole H/m).
Dans le cas de l’aluminium, le champ d’induction B est directement proportionnel en intensité au champ d’excitation H
appliqué.
B = µ0.H avec µ0 = perméabilité du vide

Dans le cas du fer, le champ d’induction varie en intensité en fonction du champ d’excitation à cause du caractère plus
ou moins perméable du matériau : B = µH, avec µ dépendant de H. Dans cette expression, µ=µ0.µr avec µr désignant
la perméabilité relative par rapport à celle du vide µ0.

Une relation simple existe entre la perméabilité relative µr et la susceptibilité χ : µr = 1 + χ

25
25 – Courbe d’hystérésis :
L’induction dans un matériau ferromagnétique soumis à un
champ magnétique extérieur pour la première fois varie
suivant le cycle ci-contre.
Le point de départ est le point 0 (courbe 1, dite de 1ère
aimantation).
Après cette 1ère aimantation, le matériau comportera
toujours une induction résiduelle malgré la suppression du
champ magnétique.
Le cycle ainsi décrit s’appelle le cycle d’hystérésis dont la
forme peut évoluer dans des limites importantes en
fonction de la nature des matériaux ferromagnétiques.

26 – Création d’un champ magnétique dans l’air :


Aimant permanent :
Un aimant utilisé seul ou avec des
prolongateurs ferromagnétiques peut
délivrer un champ magnétique significatif.
L’adoption de prolongateur de forme
adaptée permet de concentrer le champ
dans un volume limité.
Cette possibilité représentée ci-dessus n’est généralement pas employée en magnétoscopie, car les champs délivrés
sont faibles en regard du volume parfois important des pièces à aimanter. D’autre part, la valeur du champ est
difficilement réglable.
Utilisation d’un électro-aimant :
On peut réaliser le même effet qu’un aimant avec ses prolongateurs
en alimentant une bobine montée directement sur le circuit
magnétique d’un matériau ferromagnétique.

27 – Cartes des lignes d’induction dans une pièce :


La carte des lignes d’induction dans une pièce est influencée par un grand nombre de paramètres tels que la nature de
la pièce, sa géométrie, son homogénéité.
Si un défaut est présent dans la pièce, la carte sera localement modifiée d’une manière plus ou moins accentuée
suivant la position en surface, en profondeur, et également suivant l’orientation du défaut par rapport à la direction
générale des lignes d’induction. La nature du courant électrique utilisé pour la création du champ d’excitation
magnétique intervient également sur la répartition des lignes d’induction dans la pièce.
Cas idéal : pièce homogène à section constante :

26
Le champ d’induction est créé à partir d’un électro-aimant parcouru par un courant continu.
Les lignes d’induction dans la pièces sont parallèles entre elles et séparées par un intervalle
constant.

Le champ d’induction est créé à partir d’un électro-aimant parcouru par un courant alternatif.
Les lignes d’induction dans la pièce sont encore parallèles entre elles mais l’intervalle qui les
sépare n’est plus constant. Elles sont par ailleurs localisées pour l’essentiel dans les couches
superficielles de la pièce.

Carte des lignes de champ d’induction dans une pièce comportant un


changement de section : l’intervalle entre les lignes d’induction est modifié au
passage de la forte section à la faible section. Le resserrement des lignes traduit
une induction plus forte dans la faible section. Quelques lignes quittent la pièce
au changement de section, créant un champ de fuite dans l’air.
Carte des lignes de champ d’induction dans une pièce présentant une
discontinuité : plusieurs cas sont à considérer suivant le caractère débouchant
ou non de l’anomalie, sa nature, son orientation par rapport à la direction
générale des lignes d’induction.

Discontinuité sous-jacente parallèle au champ d’induction : la perturbation


apportée par l’anomalie n’est que très locale sans manifestation extérieur sur le
contour géométrique de la pièce.

Discontinuité débouchante ou sous-jacente perpendiculaire au champ


d’induction : dans les 2 cas, et du fait de l’orientation perpendiculaire de la
surface de l’anomalie par rapport aux lignes d’induction, ces dernières sont
localement déviées pour créer un champ de fuite dans l’air.
• Dans le cas de l’anomalie débouchante, la déviation est de forte
amplitude et intéresse une zone limitée de la surface de la pièce.
• Dans le cas de l’anomalie sous-jacente, la déviation est de faible
amplitude est intéresse une zone étendue de la surface de la pièce.
3 – PRINCIPE DE LA METHODE :
Les 3 phases principales qui sont à considérer dans cette méthode sont l’excitation, la perturbation et la révélation.
31 – L’excitation :
La pièce est soumise à une aimantation suivant des conditions d’orientation
et d’intensité du champ magnétique adaptées à sa nature et son profil. Un
exemple de création de champ est donné ci-contre.

32 – La perturbation :
Sous l’action du champ magnétique excitateur, la pièce est
parcourue par des lignes d’induction dont certaines quittent le
contour géométriques pour donner naissance localement à un
champ de fuite dans l’air (soit en raison des changements de
section, soit en raison des discontinuités présentes en surface).
A l’aplomb de chaque champ de fuite, les fortes variations de
l’induction jouent le rôle de très petit aimant sur les surfaces des
pièces concernées par l’entrée et la sortie des lignes d’induction.

27
33 – La révélation :
Les fortes variations de l’induction se comportent comme un
ensemble de petits aimants pouvant attirer les fines particules
magnétiques contenues dans le révélateur disposé à la surface de
la pièce.
L’accumulation des particules et l’observation des spectres
(donnant des indications) permettra, après analyse et interprétation
de l’origine des champs de fuite, de conclure à la présence ou non
de défaut préjudiciable à l’emploi.
La phase d’interprétation est l’une des plus critiques dans le
processus.
34 – Principaux paramètres influençant la détection :
La sensibilité de la méthode est fonction de nombreux paramètres, et en particulier :
• la direction du champ d’excitation magnétique et l’intensité du champ d’excitation magnétique.
• le type d’aimantation (forme du courant)
• la dimension, la forme et la direction de la discontinuité.
• les propriétés magnétiques du matériau à contrôler.
• la forme de la pièce qui conditionne la carte des lignes d’induction, son l’état de surface, sa propreté.
• les caractéristiques du révélateur.

35 – Principaux types de défauts décelables :


La magnétoscopie est une méthode applicable aux matériaux ferromagnétiques dans le but de rechercher des défauts
débouchant en surface extérieure ou des défauts légèrement sous-jacents.
Dans la mesure où cette condition de localisation est satisfaite, seules les discontinuités ci dessous conduisent à des
spectres représentatifs :
• une rupture dans le métal, du type crique ou fissure, localisée à la surface ou proche de la surface de la pièce.
• une discontinuité dans le métal.
• la surface de séparation en 2 matériaux ferromagnétiques présentant des différences de perméabilité (soudage
par friction)
• la surface de liaison entre métaux ferromagnétiques assemblés par brasage.
• une zone de séparation présentant une perméabilité différente de celle du métal de base (zone à faible teneur
en carbone dans un acier dans le cas d’une cémentation).
• des arêtes vives (filetage) conduisent également à des spectres qui ne sont pas nécessairement représentatifs
de défauts.

4 – MISE EN OEUVRE DE LA METHODE :


41 – Préparation des pièces :
Les particules magnétiques utilisées au niveau du révélateur doivent pouvoir se déplacer le plus facilement possible à
la surface des pièces en examen. En aucun cas, elles ne devront être arrêtées dans leur mouvement d’attraction vers
les pôles apparus au niveau des défauts sous l’action du champ.
Cette condition impose des exigences au niveau de l’état de surface et de la propreté des pièces. Dans la mesure où
l’état de surface est compatible avec la sensibilité escomptée, il faudra procéder à un dégraissage des pièces avant
contrôle pour éviter toute accumulation de révélateur à l’aplomb de corps gras adhérents à la pièce.
Par ailleurs, peut se poser le problème de l’application de la méthode sur des surfaces protégées par peinture ou toute
autre protection non magnétique (chromage par exemple). La protection crée un entrefer supplémentaire entre le
matériau support et le révélateur, risquant de réduire la sensibilité de la méthode.
42 – Choix de la forme de courant :
La forme du courant délivrée par les générateurs influence beaucoup la sensibilité du contrôle par magnétoscopie. Il
faut se rappeler qu’un courant continu induit des lignes d’induction également réparties dans le volume de la pièce,
avec un intervalle entre elles constant. Un courant alternatif induit des lignes d’induction principalement dans les
couches superficielles de la pièce.
Pour une même valeur d’intensité, il en résulte, en théorie, que le contrôle en courant sinusoïdal est plus sensible que
le contrôle en courant continu car les lignes d’induction sont plus nombreuses. Dans la pratique, le choix de la forme de
28
courant se fait surtout grâce à l’expérience de la personne qui contrôle.
En outre il faut se rappeler qu’en courant sinusoïdal il se produit des échauffements très importants (chauffage par
induction) qui peuvent entraîner des incendies.
Les générateurs disponibles délivrent le plus souvent les formes de courant suivantes :
• alternatif sinusoïdal.
• monophasé redressé une ou deux alternances.
• triphasé redressé une ou deux alternances.
43 – Méthode d’aimantation :
On classe habituellement les méthodes d’aimantation en deux catégories :
• les méthodes directes pour lesquelles l’aimantation de la pièce est réalisée directement à partir d’un champ
d’excitation magnétique.
• les méthodes indirectes pour lesquelles l’aimantation de la pièce est réalisée indirectement par l’intermédiaire
d’un courant traversant la pièce et donnant ainsi naissance à un champ d’excitation magnétique.
Une autre terminologie peut être également adoptée :
• on parle d’aimantation par champ magnétique ou d’aimantation longitudinale pour les méthodes directes.
• on parle d’aimantation par passage de courant ou d’aimantation transversale ou circulaire dans le cas des
méthodes indirectes.
Méthodes directes :
Ces méthodes exploitent le champ d’excitation créé soit par des bobines,
soit par des électro-aimant.
Dans l’exemple ci-contre, le champ magnétique d’excitation est créé à
partir d’un électro-aimant.
Deux cas sont à considérer suivant l’importance de la pièce :
• soit des appareils à poste fixe (pièces de faibles dimensions)
• soit des appareils à poste mobile (pièces de grandes dimensions
ou difficilement transportables)

29
Méthodes indirectes :
Le champ d’excitation magnétique est créé dans ce
cas par le passage d’un courant circulant dans la
pièce.
L’intensité du champ magnétique développé à la
surface de la pièce est principalement fonction de
l’intensité du courant électrique traversant le circuit
et de la disposition relative de la pièce par rapport
aux amenées de courant.
Dans le cas d’une aimantation par touches, la
répartition des lignes d’induction en surface de la
pièce n’est pas homogène. Elle dépend de la
distance « d » entre les touches, de l’intensité du
courant et de la géométrie de la pièce.

La figure ci-contre montre la forme des lignes de


champs autour des touches pour différentes
valeurs d’intensité « I » et de distance « d ».
Le contrôle d’une grande surface, demandera avec
cette méthode de réaliser un quadrillage pour être
certain d’explorer la totalité de la surface.

La norme préconise :
• distance d’espacement des touches : 75 mm < d < 200 mm
• intensité :
o Si l’épaisseur de la pièce < 19 mm, I = 90 à 110 A / 25 mm d’espacement entre les touches.
o Si l’épaisseur de la pièce > 19 mm, I = 100 à 125 A / 25 mm d’espacement entre les touches.
44 – Le révélateur :
Pour être facilement attirées par les pôles créés à l’aplomb du défaut, les particules doivent satisfaire des conditions
précises de dimensions, de forme, de densité et de propriétés magnétiques.
En 1ère approximation, on admet que plus la particule est petite, plus elle est facilement attirée dans des champs de
fuite très faibles. Malgré tout, une très petite dimension de particule est néfaste car elle favorise l’accumulation dans les
aspérités de surface.
La dimension optimale résulte d’un compromis. De plus, la taille de la particule est également fonction de la taille du
défaut recherché :
• révélation de défaut de faible largeur : particules de 1 à 2 µm.

30
• révélation de défaut de taille importante : particules de 10 à 15 µm.
On distingue essentiellement 2 grandes familles de révélateurs :
• Révélateurs secs : ils sont constitués de particules ferromagnétiques
généralement colorés en noir ou en rouge. L’application se fait au moyen
d’une soufflette.

• Révélateurs liquides : ils sont constitués de


particules ferromagnétiques. Mais au lieu d’être en
l’état, elles sont enrobées dans un pigment (couleur)
et mélangées à un liquide. Parmi les révélateurs
liquides, on rencontre deux possibilités :
o l’utilisation de particules magnétiques
colorées en suspension dans le liquide.
L’examen se fait en lumière naturelle ou
artificielle.
o l’utilisation de particules magnétiques fluorescentes en suspension dans le liquide. L’examen se fait en
lumière ultraviolette.
Le choix du révélateur est fonction du niveau de qualité requis pour la pièce. On admet en général que les poudres
sèches ont une plus grande sensibilité pour la détection de défauts sous-jacents contenus dans les pièces présentant
un état de surface excellent. Le révélateur liquide fluorescent représente un bon compromis en sensibilité. Il est
relativement souple d’emploi et a le gros avantage d’offrir un bon contraste quelle que soit la couleur de la pièce à
examiner.
45 – Processus opératoire de contrôle :
D’un point de vue pratique, le contrôle magnétoscopique d’une pièce est réalisé dans l’ordre suivant :
1. Nettoyage de la pièce au moyen d’un solvant.
2. Après nettoyage et séchage, aimantation de la pièce.

3. Application du révélateur pendant l’aimantation en prenant comme précaution de l’interrompre avant la fin du
cycle d’aimantation, qui n’excède pas généralement 5 secondes.

4. La pièce est alors soustraite à l’influence de l’aimantation et on procède alors à son examen.

31
Remarque : pour s’assurer de l’efficacité des
réglages et de celle du révélateur, on place un
témoin en contact direct avec la surface de la
pièce et on l’asperge en même temps avec le
révélateur. Ce témoin appelé « croix de
BERTHOLD » a une fissure en croix et se
comporte comme un défaut.

5 – INTERPRETATION DES RESULTATS :


L’observation des spectres doit être pratiquée avec des conditions d’éclairage très favorables. Il est recommandé
également de l’exécuter avec des optiques facilitant les conditions de travail de l’œil.
Une loupe d’un grossissement voisin de 10 permet en particulier de préciser la densité des particules constituant le
spectre et surtout de vérifier l’homogénéité de la répartition des particules le long du spectre.
La présence d’un spectre magnétique peut provenir de discontinuités magnétiques. La détermination précise de
l’origine de la discontinuité est très délicate. Cette interprétation est capitale car elle conditionne la sanction du contrôle.
51 – Spectres représentatifs :
La crique : les spectres caractéristiques de criques sont
rarement d’orientation parfaitement rectiligne. Il sont
généralement très denses et homogènes et l’amas de
particules peut, en 1ère approximation, être significatif de la
profondeur du défaut.
La figure ci-contre représentation schématiquement le
spectre correspondant à une crique de retrait dans une
barre.
En A, le spectre est très fin et la crique est peu profonde.
En B, le spectre est de largeur moyenne pour une
profondeur de défaut moyenne.
En C, le spectre est très large pour une profondeur de crique
importante.
La figure ci-contre donne une représentation schématique du
spectre correspondant à une crique de fatigue apparue à la
liaison entre un arbre et son système.

Inclusions : les spectres représentatifs d’inclusions sont


généralement très rectilignes. Suivant la localisation en
profondeur, le spectre est plus ou moins diffus.

52 – Procédure afin de lever les doutes :


La présence d’un spectre ne conduit pas systématiquement au rebut de la pièce, à moins que la procédure l’exige.
Généralement on procède à une identification de la nature du défaut.
L’investigation peut se faire à partir d’un examen à la loupe en lumière naturelle. On procède, à l’aide d’un objet fin ou
d’un pinceau, à l’enlèvement partiel du spectre dans le but d’identifier, la nature de l’anomalie.
53 – Conservation des résultats :
Un moyen simple d’archivage consiste à utiliser une bande adhésive de type « SCOTCH ». L’application de la bande se
fait directement sur la pièce (après un temps de séchage du révélateur liquide) de manière à prélever les particules
magnétiques constituant le spectre.

32
54 – Exemples :
Crochet de grue Arbre de transmission

Fissure de fatigue - Traceur fluorescent humide Fissures résultant d’un traitement thermique inadéquat
Traceur fluorescent humide

Soudage à l’arc avec électrode Soudage à l’arc avec électrode

Manque de fusion - Traceur visible sec Fissure au raccordement - Traceur visibles sec

Arbre cannelé Arbre fileté

Fissure de fatigue - Traceur fluorescent humide Fissure de fatigue - Traceur fluorescent humide

33
Boulon Vilebrequin

Fissure de fatigue - Traceur fluorescent humide Fissure de fatigue - Traceur fluorescent humide

Soudure Roue dentée

Fissure au raccordement et fissure de gorge - Traceur Fissure de fatigue – Traceur fluorescent humide
visible sec
6 – DESAIMANTATION DES PIECES :
Il est recommandé de désaimanter une pièce après un contrôle
magnétoscopique pour les raisons suivantes :
• Les pièces peuvent attirer ultérieurement des particules
ferromagnétiques indésirables.
• L’induction rémanente dans une pièce en rotation provoquera un
champ magnétique tournant pouvant agir sur un circuit de mesure.
• Le soudage de la pièce peut être délicat (déviation du faisceau
d’électrons lors du soudage).
• La désaimantation peut se faire dans un tunnel de
démagnétisation qui applique à la pièce un champ magnétique
décroissant.

Principe de désaimantation
VII – AVANTAGES ET INCONVENIENTS :
Avantages :
• Simplicité de mise en œuvre
• Localisation précise des défauts de surface ou légèrement sous-jacents et appréciation de leur longueur

34
• Méthode se prêtant bien à l’automatisation
Inconvénients :
• Méthode ne s’appliquant qu’aux matériaux ferromagnétiques
• Sensibilité dépendant de l’orientation des défauts par rapport à la direction générale des lignes d’induction
• Ne permet pas une appréciation de la profondeur et l’interprétation dans la phase de révélation est délicate
• L’automatisation de la phase de révélation n’a pas encore abouti industriellement
• Désaimantation obligatoire des pièces
7 – NORMES :
• NF A 09 125 : essais non destructifs des produits métallurgiques. Principes généraux de l’examen de
magnétoscopie.
• NF A 04 121 : produits sidérurgiques. Détection des défauts superficiels des produits longs par examen de
magnétoscopie.
• NF A 09 130 : essais non destructifs. Moyens d’examen superficiels des produits longs par examen de
magnétoscopie.
• NF A 09 170 : essais non destructifs. Magnétoscopie : caractérisation des produits.

35
1 – INTRODUCTION :
C’est une méthode de contrôle qui consiste à créer, dans un matériau conducteur, un courant induit par un champ
magnétique variable. Ces courants induits, appelés courants de Foucault, circulent localement, à la surface du
matériau. La présence d’une discontinuité à la surface de la pièce contrôlée perturbe la circulation des courants,
entraînant une variation de l’impédance apparente de la sonde de mesure.

2 – PRINCIPES PHYSIQUES :
21 – L’induction électromagnétique :
Le passage d’un courant dans un solénoïde produit un flux magnétique
proportionnel.

φ (t ) = k .I (t )
φ est le flux magnétique en Webers (Wb), « I » l’intensité traversant le solénoïde
en Ampères (A) et « k » une constante.

22 – Loi de Faraday :
Un solénoïde traversé par un flux magnétique produit une force électromotrice E(t).
dφ (t )
E (t ) = N
dt
φ est le flux magnétique en Webers (Wb), « E » la force électromotrice produite en
Volts (V) et « N » le nombre de spires du solénoïde.
23 – Inductance d’un solénoïde :

dφ (t )
φ (t ) = k .I (t ) et E (t ) = N
dt
dI (t ) dI (t )
E (t ) = N .k . E (t ) = L.
dt dt
L = N .k est l’inductance du solénoïde est s’exprime en Henries (H).

36
24 – Notion d’impédance :
L’impédance d’une charge est la mesure de son opposition au passage du courant alternatif.
Elle est exprimée en Ohms (symbole Ω).
De façon générale, l’impédance d’une charge est définie par :
E
Z= avec « Z » l’impédance en Ohms (Ω), « E » la tension aux bornes en Volts (V) et « I »
I
le courant traversant en Ampères (A).

L’impédance est une résistance pure : L’impédance est une inductance pure :
Loi d’Ohm : E (t ) = R.I (t ) dI (t )
Loi d’Ohm : E (t ) = L.
E dt
Z= =R
I Em π
Si E (t ) = Em.sin(ω.t ) alors I (t ) = .sin(ω.t − )
La tension est en phase avec le L.ω 2
courant. Le courant est en retard de 90° sur la tension.

25 – Association série d’une résistance et d’une inductance :


XL est appelé réactance inductive et vaut ω.L où ω = 2π f . Elle est exprimée en Ohms et sa
valeur change avec la fréquence de la source de tension.
X 
Z = R2 + X L 2 et θ = tan −1  L 
 R 

26 – Génération des courants :


Pour générer des courants de Foucault, une Ce solénoïde est alimenté Un flux magnétique alternatif
sonde est utilisée. À l’intérieur de cette sonde se avec une source de tension est donc produit dans et
trouve un solénoïde. alternative. autour du solénoïde.

En circulant, les courants de Foucault


produisent leur propre flux magnétique (flux
Lorsqu’une plaque conductrice est exposée à une portion de ce flux secondaire).
magnétique alternatif, un courant alternatif est induit dans la plaque.
Ce courant est, en fait, un courant de Foucault. Selon la loi de Lenz, le sens des courants de
Foucault fait en sorte que le flux secondaire
s’oppose au flux initial.

37
4 – DETECTION DE DEFAUTS :
41 – Principe simplifié de l’instrumentation :
SOURCE MESURE
(oscillateur)

Ressor
t
Sens du

Sonde
Solénoïde
de

Mvt
de la sonde
Pièce à
examiner
Pièce à Défaut
examiner

42 – Principe de la détection :
Le principe est basé sur la perturbation par le défaut du
champ magnétique créé par courants de Foucault
Le courant alternatif « I » circulant dans la bobine crée un
champ H.
Les courants de Foucault « Ic » créés dans la pièce
(conductrice) par H créent un champ « Hc », opposé à H.
L'équilibre est modifié par la présence d'un défaut qui
perturbe la distribution des courants de Foucault dans la
pièce.
La variation est détectée en mesurant l'impédance de la
bobine.

43 – La mesure en mode absolu :


La bobine d'examen est une branche d'un pont
d'impédance alimenté par un oscillateur. Le pont est
équilibré en l'absence de défaut.
Le passage de la sonde devant un défaut provoque
l'apparition d'un signal dans le plan complexe.
L'amplitude du signal est liée au volume de matière
affecté par le défaut ; la phase est liée au type de défaut
et à sa profondeur.

38
44 – Mesure en mode différentiel :
Deux branches du pont constituent des bobines
d'examen. Le pont est équilibré en l'absence de
défaut.
Le passage de la sonde devant un défaut
provoque
l'apparition d'un signal (figure de Lissajous) dans
le plan complexe.
L'amplitude du signal est liée au volume de
matière affecté par le défaut ; la phase est liée au
type de défaut et à sa profondeur

45 – Profondeur de pénétration δ :
La densité de courant « J(z) » à une profondeur « z » à l'intérieur de la pièce est :

π . µ .σ . f )
J ( z ) = J 0 .e( − z .
• Jo : densité de courant à la surface de la pièce
• z : profondeur
• µ : perméabilité magnétique de la pièce
• σ : conductivité électrique du matériau
• f : fréquence du courant
La phase varie linéairement :

φ ( z ) − φ0 = − z π .µ.σ . f
Si le produit µσ f augmente, alors la densité Jo en surface augmente et J(z)
décroît alors plus rapidement.
La profondeur de pénétration δ est telle que :

J0 1
J (δ ) = ⇒δ =
e π .µ.σ . f

46 – Fréquence
d’examen f :
Le choix de la
fréquence « f »
d’examen est
fonction de
l'épaisseur à
contrôler
(maximum
quelques mm).
En général, f est
déterminé par des
abaques ou par
différents tests.
L’estimation de la
profondeur du
défaut de fera par
mesure de phase.
47 – L’excitation :
39
Elle consiste à soumettre un champ magnétique variable dans le temps à la pièce à contrôler ; ceci afin d’induire des
courants dans le matériau. On utilise généralement une onde sinusoïdale de fréquence variable de quelques Hertz à
plusieurs Mégahertz suivant la nature des produits contrôlés et des applications envisagées.
48 – La perturbation :
La trajectoire des courants induits dans la pièce est perturbée par des variations locales de la géométrie ou par des
variations des caractéristiques électromagnétiques du matériau.
La perturbation locale des lignes de courant provoque une modification du champ magnétique induit, s’opposant ainsi à
chaque instant au champ magnétique d’excitation.
Il en résulte alors une modification de l’impédance du capteur. Cette modification d’impédance est en général
synonyme de présence d’un défaut.
Il résulte de ces principes de perturbation 3 applications différentes des CND par courants de Foucault :
• Détection des défauts superficiels ou légèrement sous jacents
• Mesure d’épaisseurs de revêtements
• Tris de nuances
Détection de défauts
Mesure d’épaisseurs de revêtements

Les courants de Foucault sont souvent utilisés dans


l’industrie aéronautique afin de détecter des pertes de
matière dues à l’érosion ou la corrosion

40
Tri de nuances

Mesure d’une couche de peinture


Remarques : dans chaque cas, la méthode est comparative est nécessite un étalonnage préalable du capteur sur une
pièce de référence.

49 – La révélation :
On analyse dans cette phase les variations d’impédance consécutives à la perturbation que l’on cherche à mettre en
évidence. La méthode la plus courante consiste à comparer le signal de déséquilibre du pont d’impédances au signal
de référence délivré par l’oscillateur alimentant le capteur :

41
5 – EQUIPEMENTS :
Bancs fixes : pour contrôles de tubes ou barres en Sondes ponctuelles
fabrication avec bobines encerclantes.

Tireur (pousseur) : pour contrôle de tubes par sonde


internes

Sondes internes pour contrôle de tubes Appareillages transportables en modes différentiel et


absolu avec visualisation sur écran cathodique ou
enregistrement (Re-Im) ou (A-ϕ ).

6 – LES DIFFERENTS EXAMENS :


61 – Examens externes de tubes :
• Techniques courantes : sondes à bobines encerclantes, mode
différentiel et/ou absolu.
• Mise en œuvre : automatique (ateliers), vitesse de défilement élevée,
sondes adaptées à différents diamètres de tubes (pour préserver le
coefficient de remplissage), examen volumétrique de parois minces,
recherche de variations dimensionnelles, fissures, coups, défauts de
fabrication en surface, etc.

62 – Examens internes de tubes :


• Techniques courantes : sondes internes, modes différentiel et absolu.
• Mise en œuvre : déplacement de sonde par tireur (pousseur), examen rapide, examen volumétrique de parois
minces, recherche d’amincissements (corrosion), fissures circonférentielles, coups, etc.
42
63 – Autres exemples :
Les produits contrôlés sont essentiellement cylindriques (barres, tubes). En production, les vitesses de contrôle vont
jusqu’à 2 m/s pour des défauts dont la profondeur est voisine de 0,1 mm.
D’autre part, les pièces à fortes concentrations de contraintes utilisées dans l’aéronautique font l’objet de visites
systématiques (contrôles d’impacts sur les aubes de compresseurs de turboréacteurs, recherche de criques de fatigue
sur des disques de compresseur).
Les courants de Foucault sont aussi utilisés pour la vérification de tubes soudés longitudinalement.
Mais le domaine de prédilection de ce CND reste les tubes de faible épaisseur utilisés dans les éléments combustibles
ou condenseurs et échangeurs de vapeur dans les centrales nucléaires.

7 – AVANTAGES, INCONVENIENTS, LIMITES DE LA METHODE :


71 – Défauts mis en évidence :
• fissuration
• piqûres de corrosion
• défauts de forme (coups,…)
• pertes de matière (érosion, corrosion)
72 – Contrôles des matériaux ferromagnétiques :
Les variations locales de perméabilité du matériau rendent le signal instable. Même avec saturation magnétique (afin
de restaurer la stabilité de la perméabilité) de la pièce par aimant permanent ou électro-aimant, les performances
restent moindres. L'encombrement de l'aimant peut rendre l'accès difficile.
73 – Avantages et inconvénients :
• méthode rapide et facilement automatisable

43
• vitesses de défilement élevées
• les bobines ne sont pas en contacts avec le produit
• enregistrement (numérique, graphique, magnétique)
• haute sensibilité en détection, mais indications parasites existantes
• appréciation de la profondeur possible
• appareillage relativement coûteux
• limitation aux matériaux conducteurs (métaux)
• méthode peu performante sur matériaux ferromagnétiques car la
• limitation aux défauts proches de la surface (même fermés) ou aux parois minces (exemple : aéronautique)
• la surface doit être propre et régulière (peinture OK)
• faible capacité de dimensionnement en profondeur
• sensibilité influencée par l’entrefer existant entre la bobine et le produit
• Interprétation des signaux délicate
74 – Autres applications :
Tri de métaux, mesure de dureté, de conductivité, mesure d'épaisseur de revêtement non conducteur (peinture,
protection plastique).
75 – Normes :
• NF A 49 872 : tubes en acier. Méthode de CND. Contrôle automatique par courants de Foucault, pour la
recherche des imperfections ou pour la vérification de l’étanchéité à l’aide de bobines encerclantes.
• NF A 49 892 : tubes en acier. Contrôle par courants de Foucault pour la recherche des imperfections. Classes
de contrôle et modalités d’application.
• NF A 09 150 : END. Courants de Foucault. Vocabulaire.
• NF A 09 150 : END. Courants de Foucault. Caractérisation de l’appareillage.
• NF A 09 150 : END. Courants de Foucault. Méthodes de caractérisation de l’appareillage.

44
1 – INTRODUCTION :
C’est une méthode de contrôle qui consiste à transmettre des
impulsions acoustiques de hautes fréquences (supérieures à 30 kHz)
appelées « ultrasons » dans un matériau.
Ces ondes se propagent dans le matériau.
La présence d’une discontinuité (défaut interne) sur le trajet des
ultrasons provoque la réflexion partielle des impulsions.
Le signal réfléchi est recueilli par un capteur appelé « transducteur
ultrasonore ».
Cette méthode permet de localiser les défauts internes avec
précision et d’en apprécier leur forme avec une bonne rapidité et
sans précautions particulières.
C’est une méthode comparative et donc tributaire du facteur humain.
Les applications les plus courantes sont la mesure d’épaisseurs, la
recherche de défauts internes et la mesure de couples de serrage.
2 – PRINCIPES PHYSIQUES :
21 – La matière :

La matière est constituée d’atomes. Les atomes sont les plus petites parties des corps
simples. Ceux-ci se combinent entre eux pour donner les corps composés.
Alors qu’il n’existe qu’une centaine de corps simples différents (donc d’atomes), il existe
une infinité de corps composés (molécules).
Dans la nature, on peut classer les corps en 3 catégories : les gaz, les liquide et les
solides

Les gaz : les molécules de gaz se trouvent très éloignées les unes des autres, ceci
explique les caractéristiques particulières des gaz (ex : compressibilité).

Les liquides : les molécules sont plus rapprochées que dans les gaz. Elles sont moins
mobiles car elles s’attirent réciproquement.

Les solides : les molécules sont très proches des unes des autres et s’attirent
fortement. Dans la majorité des cas, les corps solides sont dits « cristallisés » ; c’est-à-
dire que l’empilement des atomes est fait de façon ordonnée et régulière.

45
Résumé : on peut, pour la compréhension des phénomènes lors de la propagation des
US dans la matière, schématiser celle-ci de la façon suivante : les atomes sont reliés
entre eux par des forces assimilables à des « petits ressorts » ; ce qui donne cohésion
et résistance.

22 – Les défauts des solides :


La matière telle que schématisée précédemment présente souvent des défauts (manques
matières, inclusions, etc.).
Les pièces, en cours de service, sont soumises à des efforts. Les défauts peuvent alors
être à l’origine d’altération de la résistance du matériau et même de la rupture des
assemblages.
Un défaut peut se caractériser par :
• Sa nature (crique, soufflure, inclusion, etc.)
• Sa forme et son étendue,
• Sa place et son orientation dans la pièce,
• Le nombre de défaut par unité de volume.
Les défauts apparaissent dans les matériaux à différents moments de leur vie : élaboration (forgeage, laminage,
usinage, soudage), utilisation (corrosion, fatigue). Il faut donc les détecter le plus tôt possible après leur formation. La
détection par ultrasons fait partie des méthodes non destructives les plus employées.
23 – Les vibrations :
Les ultrasons sont un phénomène vibratoire. Selon la norme NFE 90-001, une vibration
est une variation avec le temps d’une grandeur caractéristique du mouvement ou de la
position d’un système mécanique lorsque la grandeur est alternativement plus grande et
plus petite qu’une certaine valeur moyenne ou de référence.
Le mouvement de la position de la masse en fonction du
temps peut se représenter comme sur la figure ci-contre.
La fréquence F d’un phénomène est le nombre de répétitions
(périodes) de ce phénomène en une seconde. La fréquence
s’exprime en Hertz.
La période T (en secondes) ou cycle de ce mouvement est le
temps qui s’écoule entre 2 passages du mobile dans le
même sens à un endroit donné. La période est constante.

La fréquence F est l’inverse de la période : F =1


T
On peut aussi définir d’une autre manière les vibrations. Cette
nouvelle façon de caractériser les phénomènes vibratoires est la
longueur d’onde λ  (lambda) qui est la distance qui sépare deux
oscillations voisines.

λ = V .T = V F
Remarque : les résultats précédents ont été décrits en faisant abstraction
des phénomènes de frottement. Dans la réalité, le système « ressort +
masse » va progressivement se freiner puis s’arrêter. Les courbes
enregistrées auront finalement l’allure ci-contre.

24 – Sons et Ultrasons :
Les sons sont des vibrations qui peuvent avoir pour support un solide, un liquide ou un gaz. Les sons sont classés
suivant leur fréquence : graves (sons de basse fréquence) ou aigus (sons de haute fréquence).

46
L’oreille humaine permet de capter les sons de fréquences comprises entre 20Hz et 20kHz. En dessous de 20 Hz, ce
sont les infrasons et au dessus de 20 kHz, les ultrasons.

Exemples de calcul de longueur d’onde :


Les sons se déplacent dans l’air à la vitesse de 340 m/s. La longueur d’onde d’un son de fréquence F = 500 Hz sera :
λ = V F = 340 500 = 0, 68m = 68cm
La vitesse de propagation des ultrasons dans l’acier est de 5850m/s. La longueur d’onde d’un ultrason de fréquence 3
MHz sera : λ = 5850 300000 = 0, 00195m = 1,95mm
On constate que les ultrasons ont une longueur d’onde de l’ordre du millimètre. Cet ordre de grandeur des ultrasons est
très important. En effet, lors de la détection de défauts par ultrasons, le plus petit défaut détecté aura en théorie comme
dimension la ½ longueur d’onde.
Dans l’exemple précédent, on ne pourra détecter que des défauts de dimensions supérieures à 1,95/2 ≈ 1mm.
Plus la fréquence augmente et plus la sensibilité de détection augmente. Dans le contrôle industriel par ultrasons, les
fréquences utilisées vont de 0,5 à 10MHz.
25 – Propagation des ultrasons :
Un corps solide peut être assimilé à un ensemble d’atomes réunis entre eux par des forces d’attraction schématisées
par des ressorts. Ceci est également vrai pour les liquides mais on considère que dans ce cas les ressorts sont plus
« mous » que les pour les solides : c’est l’élasticité.
Les matériaux solides sont caractérisés par les physiciens par 4 paramètres principaux :
• La masse volumique ρ,
• Le module d’élasticité (E) ou module de Young,
• Le module de rigidité (G) ou module de Coulomb,
• Le coefficient de poisson δ
Les ultrasons correspondent à un ébranlement
communiqué à l’édifice « atomes + ressorts ».
Un mouvement oscillatoire appliqué au premier rang des
atomes sera transmis aux atomes voisins par
l’intermédiaire des liaisons « ressort ».
De proche en proche, la vibration se propagera au travers
de la pièce. Il est intuitif de dire que, plus les ressorts
seront rigides, plus le mouvement se transmettra
rapidement et inversement.

Il existe différents types d’ondes ultrasonores :


Les Ondes Longitudinales (OL) appelées également
ondes de compression : l’oscillation engendre une
vibration des particules dont le déplacement élémentaire
est parallèle à la direction de propagation.
La vitesse de propagation est définie par :

E (1 − δ )
VL =
ρ (1 + δ )(1 − 2δ )

47
Les Ondes Transversales (OT) appelées également
onde de cisaillement : le déplacement des particules est
perpendiculaire à la direction de la propagation.
La vitesse de propagation des ondes transversales est
définie par :

E
VT =
2 ρ (1 + σ )
Atténuation des ondes ultrasonores : l’amplitude d’une vibration qui se propage dans un milieu n’est pas constante
durant sa progression. Elle va s’atténuer jusqu’à disparaître. Les causes de cette atténuation sont :
• La perte d’énergie par effet thermique (vibration = chaleur),
• La densité du matériau qui va faciliter plus ou moins le passage de l’énergie,
• La taille des grains (structure cristalline) qui va créer une dispersion.
Ces causes sont essentiellement liées au matériau proprement dit. Cependant, la fréquence des vibrations est
également un facteur qui influe sur cette atténuation.
Exemple :
• 1MHz dans l’acier donne une longueur d’onde λ = 6mm.
• 10MHz dans l’acier donne une longueur d’onde λ = 0,6mm
Pour parcourir 6mm d’acier, il faudra 10 oscillations au signal de 10MHz, alors qu’il n’en faudra qu’une pour un signal
de 1MHz. L’énergie consommée par l’onde de 10MHz sera donc plus importante que celle de 1MHz.
Dans l’ordre des atténuations croissantes, on trouve, parmi les matériaux utilisés industriellement l’aluminium, l’acier,
les fontes, les matériaux cuivreux et les matériaux plastiques.
L’atténuation de l’onde sera fonction :
• De la fréquence de l’onde,
• Du matériau,
• De la distance parcourue par l’onde.
A un instant donné, l’onde possède une amplitude A0.
Lorsqu’elle aura parcouru une distance d, l’amplitude restante
sera A.

L’amplitude à comme équation : A = A0 .e −α .d .


• A0 : amplitude la vibration émise,
• A : amplitude la vibration qui a parcouru la distance d,
• d : distance parcourue,
• α : coefficient dépendant du matériau et de la fréquence
élevée au carré (α = KF2)
En résumé :
• Plus la fréquence est élevée, plus l’onde sera atténuée rapidement,
• Plus la fréquence est basse, plus elle pénétrera dans un matériau,
• Plus les grains du matériau seront importants et irréguliers, plus l’onde sera atténuée et inversement.
Remarque : ne pas oublier, par contre, que plus la fréquence est basse et moins les petits défauts sont considérés
comme réfléchissants (loi de la ½ longueur d’onde).
Les phénomènes physiques impliqués dans l’atténuation sont :

• La diffraction: divergence du faisceau ultrasonore

48
• La diffusion: réfraction et réflexion par des
discontinuités internes multiples

• L’absorption: perte d’amplitude provoquée par des


frictions internes (transformation de l’énergie
cinétique de la vibration en énergie thermique)

Impédance acoustique :
Chaque matériau est caractérisé, en ce qui concerne son action sur la
propagation des ondes ultrasonores, par son impédance acoustique « Z » ;
Z=p
c’est à dire sa résistance au passage des ultrasons :
ν = ρ .V
• Z : impédance acoustique
• p : pression acoustique
• ν : vitesse de la particule
• ρ : densité du matériau
• V : vitesse de l’onde
Les matériaux ayant de grandes impédances acoustiques sont dits « durs » et les matériaux ayant de faibles
impédances acoustiques sont dits « mous ».
Interface entre 2 matériaux : l’écho :
On considère une onde ultrasonore arrivant perpendiculairement sur l’interface entre deux
matériaux caractérisés par leurs impédances Z1 et Z2.
Il se produit au niveau de cette interface une brusque variation d’impédance. Une partie de
l’onde sera transmise (ou réfractée) et une partie de l’onde sera réfléchie : c’est l’écho
ultrasonore.
On peut dire que : ONDE INCIDENTE = ON REFLECHIE + ONDE REFRACTEE.
La proportion de l’onde qui sera réfléchie (donc inversement celle qui sera transmise)
dépend de l’écart des valeurs d’impédances acoustiques.
Dans le cas d’une incidence droite :
( Z 2 − Z1 )2
• Energie réfléchie (%) :
( Z 2 + Z1 ) 2

4 Z 2 Z1
• Energie réfractée (%) :
( Z 2 + Z1 ) 2

49
En général, on définit le coefficient de réflexion qui sera donné en % par :

( (Z1 − Z 2) (Z1 + Z 2)) x100


L’écho est donc proportionnel au coefficient de réflexion. Selon les matériaux
en présence, on aura apparition d’échos d’amplitudes différentes
(proportionnelles aux coefficients de réflexion).

Métal

Sur Vide Air Eau Métal


Exemple interface acier / silicate d’aluminium :

coefficient.de.réflexion = (45000000 − 15000000) = 50%


(45000000 + 15000000)
50% de l’onde incidente sera réfléchie, en faisant abstraction des pertes dues à l’atténuation. On pourrait dire que
l’écho aura une amplitude de moitié de l’émission.
Les défaut dans une pièce ne sont ni plus ni moins, pour la propagation des ondes, que des interfaces. La réflexion
ultrasonore de ces défauts dépendra de la nature de ceux-ci. Une crique, donc une interface acier / air, réfléchira mieux
qu’une inclusion acier / manganèse par exemple.
Cas particuliers :
• Si Z1 = Z2, onde réfléchie = 0 il y a transmission totale
• Si Z1>>Z2 (exemple interface acier /air), onde réfléchie = onde incidente, il y aura réflexion totale de l’onde
ultrasonore.
Ceci explique qu’il faille coupler acoustiquement le palpeur à une pièce à contrôler par un milieu autre que l’air (huile,
eau, glycérine, etc.).
26 – Réflexion et réfraction :
Précédemment, l’onde ultrasonore arrivait perpendiculairement à l’interface des 2 matériaux. En incidence oblique, il se
produit également des phénomènes de réflexion et de réfraction (transmission)
Réflexion : soit une onde incidente longitudinale (OL) arrivant
obliquement sur l’interface en faisant un angle d’incidence « i » (angle
entre l’onde et la perpendiculaire à l’interface). Cette onde va se
réfléchir en se dédoublant en 2 types d’ondes :
• Une onde longitudinale L faisant un angle de réflexion RL tel
que RL = i
• Une onde transversale T faisant un angle RT tel que RT < RL

Réfraction : en plus du phénomène de réflexion, il se produit un


phénomène de transmission dans le second milieu, appelé réfraction,
avec dédoublement de l’onde incidente en deux ondes (L et T). De
même que précédemment, l’angle de réfraction en Ol : rl sera toujours
supérieur à l’angle de réfraction en OT : rt.
La loi de SNELL - DESCARTES va permettre de relier entre elle les
différentes valeurs d’angles : i, RL, RT, rl, rt.

50
Loi de SNELL – DESCARTES :
La loi de SNELL - DESCARTES permet de relier entre eux les angles
et les vitesses des différentes ondes.
Sin (α i ) Sin (α1L ) Sin (α1T ) Sin (α 2 L ) Sin (α 2T )
= = = =
Vi V1L V1T V2 L V2T
Remarques :
• Certaines composantes réfléchies ou réfractées peuvent ne
pas exister, ou véhiculer une énergie négligeable.
• La réflexion et la réfraction n'ont aucun impact sur la
caractéristique fréquentielle.

• α 2 L et α 2T augmentent avec α i .

• Quand α i = arcsin(Vi V ) = α1 (premier angle critique), α 2 L = π 2 et l'onde L réfractée suit l'interface (onde
2L
rampante).

• Quand α i = arcsin(Vi V ) = α 2 (second angle critique), α 2T = π 2 et l'onde L réfractée suit l'interface (onde
2T

de surface). Elle se propage à une vitesse Vs légèrement inférieure à V2T V2T.

• Si α i > α 2 , toute l'énergie incidente est réfléchie.

Effet de l'état de surface de l'interface :


• surface lisse : maintien des orientations des rayons
réfléchis et réfractés
• surface rugueuse : dispersion des rayons

Effet de la géométrie de l'interface :


• surface plane : maintien de l'orientation des rayons
• surface concave : focalisation si V2 > V1 (et
inversement)
• surface convexe : défocalisation si V2 > V1 (et
inversement)

51
Valeurs numériques :

3 – LA PRODUCTION DES ULTRASONS :


Le but est de créer une vibration mécanique de haute fréquence. Des oscillations mécaniques rapides sont difficiles à
mettre en œuvre. Par contre, des oscillations électriques sont beaucoup plus aisées à réaliser.
31 – Le phénomène piézo-électrique :
Dans un cristal de quartz, une pression (ou une traction)
exercée sur ses faces crée sur celles-ci une tension
électrique. Cette tension s’inverse en polarité si la pression
devient une contraction.
Une des particularités du cristal de quartz est la réciprocité
du phénomène.
Cette réciprocité entraine que l’application d’une tension
entre deux faces du cristal va le comprimer et l’inversion de
tension va le dilater.
L’application d’une tension alternative va donc permettre au
cristal de vibrer mécaniquement.
Et si le cristal reçoit une vibration, il créera une tension qui
sera l’image de cette vibration. La lame de quartz est en fait
un traducteur, puisqu’elle transforme une énergie électrique
en énergie mécanique et inversement.
Si la fréquence du signal électrique est appropriée, la
vibration mécanique engendrée sera susceptible de générer
des vibrations mécaniques ultrasonores. On aura alors un
émetteur ultrasonore. Inversement le cristal recevant des
ultrasons donnera un signal électrique, on aura alors un
récepteur ultrasonore.
Le plan de taille du cristal déterminera la manière dont celui-ci vibrera.

52
Principe :
• Les faces métallisées d'une pastille céramique
piézoélectrique transforment une décharge électrique en
vibration mécanique.
• L'onde se propage dans la semelle et pénètre dans le
matériau à travers une couche liquide assurant le
couplage acoustique.
• Transformation inverse de l'énergie en réception
32 – Le faisceau ultrasonore.
Les ondes ultrasonores émises par le palpeur dans un matériau
sont « contenues » dans le faisceau ultrasonore. En dehors de
ce faisceau, la matière n’est pas mise en vibration. Il est
important de noter que le faisceau diverge au sein du matériau.
Pour un palpeur circulaire, la forme du faisceau n’est pas un
cylindre mais un tronc de cône.
Plus le diamètre du palpeur est important, moins le faisceau
divergera.
Sur l'axe (x) de symétrie, il y a interférences d'intensité dans le
champ proche (N), et décroissance quadratique inverse dans le
champ éloigné. Hors axe, le faisceau est divergent (θ) et
décroissance gaussienne de l'intensité en s'éloignant de l'axe.
D2 K .λ
N= sin θ =
4λ D
K = 0,51 pour une chute de 6 dB ; 0,87 pour une chute de 20
dB ; 1,22 pour une chute totale de l’intensité acoustique.

33 – Répartition de l’intensité acoustique :


Non seulement le faisceau
diverge dans le matériau à
contrôler, mais de plus, il
n’est pas homogène.
L’énergie ultrasonore
contenue dans ce faisceau
n’est pas uniformément
répartie. C’est au centre de
celui-ci que ce se situe
l’intensité maximale.
En d’autres termes, un défaut
situé sur l’axe du faisceau
renverra un écho plus
important que s’il se trouve Défaut sur l’axe du faisceau Défaut en bordure du faisceau
sur le bord de ce faisceau.
Dans la pratique, une fois un défaut détecté par l’apparition d’un écho, il suffira de rechercher, en déplaçant le palpeur,
l’endroit où l’écho sera d’amplitude maximale pour localiser précisément le réflecteur que constitue le défaut.
34 – Visualisation des échos ultrasonores :
Il existe plusieurs façons de visualiser les échos créés par les défauts dans une pièce. La plus employée est celle qui
consiste à représenter l’écho sur un écran (type oscilloscope), en fonction du temps que mettent les ultrasons à
parcourir l’aller et retour entre le palpeur et l’interface que représente le défaut en question.

53
Principe :
Soit une pièce qui comporterait deux défauts : d1 et d2.
Le processus d’examen se compose de 2 étapes : l’émission puis la réception.
• L’émission : le palpeur est mis en vibration pendant un cours instant.
Une vibration prend naissance dans la pièce au niveau du contact avec le
palpeur et va se propager vers la face opposée. Cette vibration après un
certain temps de parcours, va rencontrer le défaut d1. Une réflexion d’une
partie du faisceau va se produire pendant que les restant de la vibration
va poursuivre son chemin pour rencontrer un peu plus tard d2 (où une
seconde réflexion se produira) puis sur le fond de la pièce (où une
troisième réflexion se produira).
• La réception : l’onde ultrasonore réfléchie par d1, d2 puis par le fond, va
se propager vers le palpeur. La première vibration que le palpeur recevra
sera celle provenant de d1 (puisque celle-ci a le moins de chemin à
parcourir) puis suivra celle venant de d2 et puis celle venant du fond
(appelé écho de fond).
Ces différentes vibrations (appelées échos) vont donc rencontrer la surface où est posé le capteur, traverser
l’agent couplant (huile) et venir faire vibrer l’élément piézoélectrique qui donnera des signaux électriques au fur
et a mesure de l’arrivée des échos. La face arrière de la pièce étant une interface matériau/air, il y a réflexion
totale.
Par contre, pour les vibrations réfléchies par les défauts d1 et d2,
rencontrant à leur tour l’interface pièce / palpeur, une partie de leur
énergie sera renvoyée dans la pièce vers la face arrière. Un
nouveau phénomène de réflexions sur d1 et d2 se produira. Leurs
échos, plus faibles que les premiers, arriveront sur le palpeur après
les précédents. Il y aura donc différentes réflexions provenant des
mêmes défauts : ce sont des réflexions multiples.
Le nombre de ces réflexions multiples dépendra bien sûr de
l’atténuation due au matériau. Plus le matériau sera absorbant,
moins il y aura de réflexions multiples.
Les signaux électriques transmis par le palpeur ne sont pas en fait tels que représentés sur le schéma ci-dessus. Ils
sont électroniquement mis en forme pour donner sur l’écran une information telle ce celle ci-dessus.
4 – LES TECHNIQUES DE CONTROLE PAR ULTRASONS :
41 – Configuration d’examen :
Réflectivité des défauts :

Défaut plan d’orientation quelconque


Pas de défaut plan

Défaut plan normal à l’onde incidente Défaut volumique

Pour pouvoir détecter des défauts plans d’orientations diverses, il faut utiliser plusieurs capteurs il faut utiliser plusieurs
capteurs d’angles différents.

54
42 – Le contrôle par contact :
C’est la méthode la plus employée. On déplace le traducteur directement en contact
avec la pièce, en assurant la transmission des ondes US par un couplant (huile, eau,
etc.).
Dans cette technique, on distingue 3 méthodes :
• Méthode par résonance (méthode peu utilisée et réservée à la mesure
d’épaisseur)
• Méthode par réflexion,
• Méthode par transmission,
Méthode par réflexion :
C’est la méthode la plus utilisée dans le contrôle US. L’onde US se propage dans la pièce, se réfléchit sur le fond de
celle-ci ou éventuellement sur le défaut. La visualisation de l’amplitude de l’écho de fond et de l’écho de défaut, donne
une indication quand à l’importance de l’anomalie, ainsi que sur sa position dans la matière.

Détermination de la profondeur du
défaut dans le cas d’un capteur
droit à ondes longitudinales :

VL .t
p=
2 .

Détermination de la profondeur du
défaut dans le cas d’un capteur
d’angle :

p = V .t
2
⇒ h = p.cos α
⇒ x = p.sin α
Méthode par transmission :
On utilise 2 palpeurs : un émetteur et un récepteur. La visualisation sur l’écran de l’amplitude de l’écho transmis permet
d’avoir une indication quant à l’importance du défaut (% d’atténuation de l’écho d’émission), mais ne permet pas de
positionner ce défaut dans la matière. De plus il faut avoir accès des deux cotés de la pièce.

55
Transmission :
La détection s’effectue par perte du signal. Il est à noter que dans ce cas, les 2
capteurs sont solidaires (E + R). Ce type de contrôle nécessite l’accès aux 2 faces
de la pièce.
Ce type de méthode est insensible à l’orientation du défaut.

Pitch & Catch :


La détection s’effectue par perte du signal. Il est à noter que dans ce cas, les 2 capteurs sont solidaires (E + R).
Ce type de méthode est insensible à l’orientation du défaut.

Tandem :
La détection s’effectue par apparition du signal. Il est à noter que dans ce cas, les 2 capteurs sont solidaires (E + R).
Ce type de méthode est sensible à l’orientation du défaut.

56
43 – Le contrôle par immersion :
La pièce et le traducteur sont complètement immergés dans une cuve contenant un
liquide de transmission.
Le traducteur est situé à une certaine distance de la pièce. Le couplage est en
général assuré par le liquide de transmission (généralement de l’eau).
Ce système est réservé aux pièces de faibles dimensions et aux contrôles en série.

44 – Exemple de défauts recherchés par US :


Lors de la fabrication des tôles, des défauts peuvent apparaître, ce sont
généralement des dédoublements de tôles. Pour effectuer le contrôle, on
utilise un traducteur droit avec pour objectifs de détecter les dédoublements
de tôle et d’évaluer leurs dimensions.
Le soudage de deux tôles bout
à bout entraîne l’apparition de
nombreux défauts.
La recherche de ces défauts
permet d’assurer la fiabilité de la
soudure (durée de vie et
résistance). Il existe plusieurs
méthodes de contrôle des
soudures par US. C’est la
destination de la pièce (donc les
défauts non tolérables) qui
imposera la méthode de
contrôle.
45 – Localisation d’un défaut :
• Positionnement : dès l’apparition d’un défaut, l’opérateur devra affiner la position de son palpeur pour obtenir
un maximum de réflexion ; l’axe du faisceau coïncidant alors avec l’axe du réflecteur découvert. Il devra alors
effectuer la lecture de la distance sur le cadran de l’écran, en mm de matière, et noter la position du palpeur sur
la pièce.
• Dimensionnement : pour trouver la dimension du
défaut, on utilise la méthode dite des « -6dB ». Elle
consiste à déplacer le traducteur tout autour du
défaut, et à noter les points par lesquels l’amplitude
HD reçue (amplitude défaut) est égale à la moitié
de celle obtenue lorsque le traducteur est à la
position où cette amplitude HD est maximale.
On considère que les limites du défaut sont
atteintes par l'axe du palpeur quand le signal du
défaut à diminué de 50%.

 h/2
−6dB = 20.log10  
 h 
• Identification d’un défaut : un défaut est détecté et localisé. Encore faut-il l’identifier car sa nature peut être
extrêmement variable et son incidence sur la résistance de la pièce sera elle-même différente. Il s’agit là plus
qu’ailleurs d’une question de métier et d’expérience. Les défauts peuvent être classés en deux familles : les
défauts volumiques (inclusions, soufflures, etc.) et les défauts plans (collages, fissures, etc.)

46 – Détermination du type de défaut :


Le défaut étant détecté et positionné, pour en déterminer sa nature, il suffira de faire effectuer au palpeur un
déplacement, de part et d’autre de sa position de détection, en visant le défaut. Selon que l’écho reste à peu près

57
constant ou au contraire, « disparaît », le défaut sera considéré comme volumique ou plan.
• Défaut volumique : l’écho reste à peu près • Défaut plan : l’écho disparaît (au moins inférieur
constant (au moins supérieur à h/2). à h/2).

Critères de rebut des pièces : il est impossible de donner ici des critères précis et généraux de rebut des pièces
contrôlées. Chaque pièce examinée aura, selon sa destination finale, ses propres critères d’acceptabilité fixés par le
cahier des charges. Ces critères fixeront les dimensions maximales autorisées et la densité tolérable de défauts par
unité de longueur ou de surface.
5 – PERFORMANCES :
Détection de défauts :
• Très bonne performance sur défauts volumétriques & plans (particulièrement ceux débouchant en paroi
opposée)
• Risque d’indications parasites
• Risque de masquage d’un défaut par un autre
Localisation & caractérisation de défauts :
• Très bonne performance (y compris en profondeur)
Dimensionnement de défauts :
• Bonne performance en longueur et en hauteur
Remarque : risque de dégradation des performances si technique inadaptée.
Applicabilité :
• Tous matériaux (suffisamment compacts)
• Méthode très flexible
• Surface propre et non accidentée
• Présence d’une zone morte (exempte de défauts)
• Absence de trace (sauf en cas d’automatisation) après contrôle
Mise en œuvre :
• Adjonction de liquide de couplage acoustique
• Etalonnage préalable et périodique
• Combinaison de plusieurs capteurs
• Méthode complexe
Coût :
• Durée de balayage
• Coût élevé (personnel formé & équipement)

58
6 – LES EQUIPEMENTS :
L'appareillage de contrôle comprend principalement : un appareil émetteur / récepteur, un ou plusieurs traducteurs
reliés à l'appareil par un ou plusieurs câbles de liaison.
Le traducteur comporte un ou plusieurs éléments sensibles appelés transducteurs qui convertissent l'énergie électrique
du signal d'émission en énergie acoustique (vibration ultrasonore) et inversement.
L'appareil de contrôle par ultrasons comporte principalement les ensembles fonctionnels suivants :
• Le circuit d'émission (générateur d’impulsions) qui fournit au transducteur l'énergie électrique nécessaire pour
le mettre en vibration pendant un temps très bref,
• Le circuit de réception qui recueille (amplification) et met en forme les signaux (échos) reçus par le
transducteur (traitement),
• Le circuit de balayage (visualisation) qui synchronise les différentes fonctions de l'appareil et génère la base
de temps pour la visualisation des échos sur le tube cathodique
• Le tube cathodique qui permet la visualisation des échos ultrasonores en fonction de leur date d'arrivée
Les transducteurs sont fabriqués dans une grande variété
de modèles afin de répondre aux multiples applications.
Les transducteurs sont classés suivants différents critères :
à contact ou par immersion, simple (E+R dans le même
boîtier) ou « dual » (E+R séparés), faisceau normal ou
incident. Le choix d’un transducteur se fait en fonction du
type d’application, de sa bande de fréquences et de sa
taille.

59
7 – AVANTAGES, INCONVENIENTS, LIMITES DE LA METHODE :
71 – Avantages et inconvénients :
• Détection des défauts localisés dans le volume de la pièce
• Grande sensibilité, mais qui dépend de l’orientation de la surface du défaut vis-à-vis de la direction principale
du signal acoustique
• Peut s’utiliser aussi bien sur des chantiers que dans un atelier
• Méthode qui se prête bien à l’automatisation
• Nécessité d’interposer un milieu de couplage intermédiaire entre le traducteur et la pièce afin d’assurer une
continuité de la propagation
• Nécessité d’un personnel expérimenté et qualifié afin d’interpréter correctement la nature des défauts et leurs
dimensions
72 – Normalisation :
Norme NF A 09-300 : vocabulaire utilisé en CND par ultrasons
Une norme sur les principes généraux du contrôle par ultrasons est en cours d’élaboration.

60
1 – PRINCIPE :
Lorsqu’une structure est soumise à une force extérieure (contrainte, changement
de température, etc.), elle émet des ondes acoustiques (ondes vibratoires) en
provenance d’un défaut (fissure, déformation plastique) qui est activé et / ou qui
progresse. Ces ondes se propagent dans la structure à une vitesse qui dépend du
type de matériau et du mode de propagation vibratoire de la pièce. Ces ondes,
connues sous le nom d’émissions acoustiques (EA), sont détectées à l’aide de
transducteurs attachés à la surface de la structure. Ces signaux sont
généralement faibles. Des capteurs de grande sensibilité et un système de
préamplification électronique sont donc souvent requis afin de pouvoir les détecter
et les analyser.
L’émission acoustique résulte donc d’une libération d’énergie sous forme d’ondes
élastiques transitoires au sein d’un matériau comportant une dégradation active EQUIPEMENT PORTATIF
ou se propageant sous l'effet d'une sollicitation externe.
Différents phénomènes physiques peuvent être générateurs d’EA :
• propagation de fissures
• déformation plastique
• relaxation de contraintes dans les soudures
• corrosion
• frottements
• fuites (de liquides ou de gaz)
Le principe de mesure de l’émission acoustique réside dans la détection des
ondes ultrasonores générées par l’activité de la structure. La détection est
généralement réalisée par des capteurs de type piézoélectrique placés au contact
de la structure. L’acquisition et le traitement des données enregistrées sont alors
réalisés par le système proprement dit. SONDES

61
Les matériaux fragiles (céramiques, verres, métaux) produisent
des EA de fréquence élevée (MHz).

Dans les plastiques, les EA émises ont de plus


faibles fréquences (kHz).
2 – AVANTAGES, INCONVENIENTS, LIMITES DE LA METHODE :
21 – Domaine d’application :
La principale application industrielle de l’émission acoustique est le contrôle des équipements métalliques sous
pression et des réservoirs de stockage. Ces équipements sont en général des structures de taille importante pour
lesquelles un suivi périodique est réglementé (décret du 13 décembre 1999 et arrêté modifié du 15 mars 2000).
L'émission acoustique est aussi appliquée sur les matériaux composites.
En effet, la requalification périodique ou la réception pour les équipements neufs comporte une épreuve hydraulique
souvent problématique (arrêt de production, corrosion et surcharge pendant l’épreuve, etc.). Cette épreuve hydraulique
peut être remplacée, dans certains cas, par d’autres types d’essais tels qu’une épreuve pneumatique couplée à des
mesures complémentaires. Le contrôle par émission acoustique est particulièrement adapté pour satisfaire à ces
exigences réglementaires.
Le contrôle peut être réalisé aussi bien durant une épreuve hydraulique que pneumatique. Une surpression de 10% par
rapport à la pression de service vue par l'appareil au cours des 6 derniers mois permet d’obtenir des résultats d’EA
probants. Dans certains cas, un suivi en service (ou lors des changements de process) peut suffire à évaluer l’intégrité
l’un appareil. On peut aussi contrôler des structures munies d’un revêtement (calorifuge par exemple) ou des structures
enterrées.
Les capteurs EA classiques supportent des températures de l’ordre de 100°C. Si nécessaire l’utilisation de capteurs
haute température permet de contrôler des structures jusqu’à quelques centaines de degrés.
22 – Principaux secteurs d'applications :
• Le suivi d’épreuves hydrauliques ou pneumatiques d’équipements sous pression : sphères de stockage,
réservoirs, réacteurs chimiques, tuyauteries, condenseurs, échangeurs, autoclaves, colonnes (crackers),
réacteur à paroi froide, etc.
• Le contrôle des bacs de stockage : la maintenance des fonds des bacs de stockage est une opération longue
et coûteuse. Elle nécessite une vidange complète, un nettoyage et un examen du fond (la surface à contrôler
peut varier d’environ 100m² à plus de 2000m² suivant le diamètre du bac). L’émission acoustique présente
l’avantage d’évaluer l’état des fonds de bac sans aucune préparation préalable. Seule une interruption de
service de 24 à 48 heures est nécessaire. Ce contrôle a pour objet principal d’évaluer la présence de fuites et
de corrosion active au niveau du fond de bac (durée d’écoute acoustique de 1 à 3 heures). Cette opération peut
être réalisée avant les interventions de maintenance et permet d’évaluer les réparations à prévoir (dimensions
et emplacement des tôles de fond à remplacer).
• Le contrôle des citernes de gaz GPL chez les particuliers

62
23 – Avantages et inconvénients :
Avantages :
• Evaluation globale de l’état d’un appareil lors d’essais de pressurisation,
• Suivi de l’évolution des sources d’émission acoustique sans interrompre l’exploitation de l’équipement
concerné,
• Localisation des sources d’émission acoustique générées par des défauts de la structure.
L’utilisation de I’émission acoustique lors du suivi des épreuves sur équipements sous pression présente les avantages
évidents que sont :
• le suivi en temps réel de l’évolution des indications, d’où une amélioration de la sécurité des installations et des
personnels,
• l’évaluation de l’intégrité globale d’une structure
• le temps de réalisation,
• la possibilité de surveiller une structure, sans arrêt de process ou de vidange, ni démontage ou qui est
inaccessible à des contrôles non destructifs conventionnels.
Inconvénients :
• Applicable uniquement à des pièces sous contraintes
• Etalonnage délicat
• Instrumentation complexe

63
1 – PRINCIPE :
La radiographie peut être décrite comme étant un examen qui utilise un faisceau de radiations électromagnétiques
pénétrantes dirigé vers la pièce à inspecter. Suivant la nature et la géométrie de la pièce, une portion du faisceau est
absorbée et/ou déviée.
En créant une image à partir de l’intensité de la radiation derrière la pièce, des variations d’intensité sont donc
observées. Ces variations correspondent à l’ombrage produit par les différentes structures (internes et externes) de la
pièce inspectée.

64
2 – PRINCIPES PHYSIQUES :
21 – Les sources de rayonnement :
• Radiation: transport d’énergie sous forme d’ondes électromagnétiques (photons) ou de particules.
• Radioactivité: propriété de certains atomes d’émettre des radiations ionisantes suite à la capture d’électrons
ou à une désintégration spontanée.
• Radiation ionisante: rayonnement capable de produire des ions (arracher des électrons à un atome) lors de
son passage à travers un matériau.
Deux sources de radiations sont principalement utilisées en CND : les rayons X (photons), les rayons γ (photons). Ces
rayonnements sont des rayonnements électromagnétiques (donc de nature identique à celle de la lumière). Ils se
propagent donc à la vitesse de la lumière, soient 300000 km/s. Ils sont caractérisés par leur longueur d’onde et par leur
énergie libérée.
22 – Spectre électromagnétique de la lumière :

• Vitesse de propagation de la lumière : V = 3.108 m.s −1


• Longueur d’onde « λ (m) » d’un rayonnement en fonction de sa fréquence « f (Hz) » de rayonnement : λ =V f

• Constante de Planck : h = 6, 62.10−34 J .s


• Energie libérée « E (J) » : E = h. f
23 – Les radiations GAMMA ( γ) :
Ce sont des radiations, de très haute énergie, émises suite à la désintégration nucléaire d’un radio-isotope avec
émission de particules α (hélium) ou β (électrons). Leur longueur d’onde varie de 10-10 à 10-13 m.
• Isotope : en physique nucléaire, un isotope
est un corps simple ayant le même numéro
atomique qu'un autre, des propriétés
chimiques presque identiques (même élément
chimique), mais une masse atomique
différente. Les différences physiques entre
isotopes d'un même élément sont dues à la
différence de constitution du noyau de
l'atome : le nombre de protons, correspondant
à son numéro atomique Z, reste toujours
inchangé ; c'est le nombre de neutrons N qui
diffère d'un isotope à l'autre d'un même
élément.
• Radio-isotopes : contraction de radioactivité et d'isotope, appelés encore radionucléides. Ce sont des
atomes dont le noyau est instable. Cette instabilité peut être due soit à un excès de protons ou de neutrons,
soit à un excès des deux. Les radio-isotopes existent naturellement ou sont produits artificiellement en

65
bombardant de petites quantités de matière avec des neutrons, usuellement produits dans un réacteur
nucléaire. La majorité des radio-isotopes utilisés en radiographie industrielle sont produits artificiellement.
Pour activer des radio-isotopes, des matériaux stables sont soumis à
une source de neutrons à l’intérieur d’un réacteur nucléaire. Exemple :
un matériau stable (le cobalt 60), sous l’action d’un bombardement
neutronique, perd une particule β- (électron) pour former un isotope du
nickel : le nickel 60.
Suite à leur activation,
les radio-isotopes
émettent
continuellement des
radiations γ.

24 – Notion de temps de demi-vie des rayonnements Gamma :


Le temps de demi-vie T1/ 2 d'un nucléide radioactif est la durée au bout de laquelle le nombre de noyaux radioactifs est
divisé par deux.
Le nombre N de noyaux non désintégrés à l'instant t est lié au nombre de noyaux N0 initialement présents à l'instant t0
− λ .t
par une relation exponentielle : N (t ) = N 0 .e . λ est la constante radioactive qui caractérise un radionucléide.

N0 1
A t = T1/ 2 , N = N 0 / 2 = N 0 .e − λ .T1 / 2 = e − λ .T1 / 2 −λ .T1/ 2 = − ln 2 λ .T1/ 2 = ln 2
2 2
T1/ 2 = ln 2 / λ .
On définit τ = 1/ λ comme la constante de temps radioactive du radionucléide en s-1. T1/ 2 = τ .ln 2
L'activité (A) d'une source se mesure en curies (Ci) ou becquerels (Bq). Elle décroît dans le temps.

L’activité radioactive est définie par : A(t ) = − dN (t ) / dt = λ .N 0 .e − λ .t = λ .N (t )


A t = T1/ 2 , A(T1/ 2 ) = λ .N 0 / 2 . Si A0 = λ .N 0 , A(T1/ 2 ) = A0 / 2
Au bout d'un temps égal à la demi-vie, l'activité d'un radionucléide est divisée par deux. Suivant l’isotope utilisé, les
temps de demi-vie varient de fractions de seconde à plus de 10000 ans.
Ex : Ir192 = 74 jours ; Co60 = 5,3 ans ; Th170 = 129 jours.
Durée de vie des rayonnements

1000

900

800

700

600
Activité

500

400

300

200

100 Demi vie


0
0 2000 4000 6000 8000 10000 12000 14000 16000 18000 20000
Temps

25 – Production des rayons GAMMA :


Les rayonnements γ sont émis par la désintégration spontanée et continue des atomes radioactifs d'un isotope (Ir192,
Co60, Th170, etc.).
Une pastille d'isotope est scellée dans une capsule appelée source puisque suite à leur activation, les radio-isotopes
émettent continuellement des radiations.
De façon à limiter les fuites, le matériel irradié et encapsulé et est attachée à une tresse flexible (« pigtail »).
66
Un mécanisme d'éjection permet de positionner la source à l'endroit requis pour l'exposition.

Caractéristiques d'un équipement à rayons GAMMA :


• Isotope utilisé (et demi-vie)
• Activité de l’isotope à la mise en service

67
26 – Les radiations X :
Ces sont des radiations produites par le
bombardement d’une cible de cuivre ou de
tungstène par des électrons de haute énergie. En
passant près des noyaux métalliques de charge
positive, les électrons sont déviés en raison de leur
charge négative. Cette déflection impose une
diminution de l’énergie de l’électron ; énergie qui
est émise sous la forme d’un rayonnement X.

Contrairement aux rayons γ, les rayons X sont produits, à la demande


par un générateur.
Un très haut potentiel électrique (plusieurs centaines de kV) est établi
entre deux électrodes (la cathode négative source d’électrons et
l’anode positive source des rayons X). Les électrons sont accélérés par
la tension entre les électrodes.
La production du faisceau électronique génère de la chaleur (99%) et
des rayons X (1%).
De façon à éviter la formation d’arcs électriques entre les deux
électrodes, celles-ci sont placées dans un tube à vide.
Exemple de tube à rayons X :

Caractéristiques principales des générateurs de rayons X :


• Voltage : valeurs max usuelles de 100 à 300 kV, accélérateurs linéaires jusqu'à 10 MeV
• Courant : valeurs prédéfinies ou réglables, valeurs usuelles de 1 à 10 mA
• Directivité de rayonnement : faisceau latéral ou axial
• Pénétration dans l'acier : gamme de 10mm (mini) à 100mm (maxi)

68
27 – Pouvoir de pénétration des rayons ionisants :
Par leur énergie, les rayonnements ionisants sont pénétrants, c’est-à-dire qu’ils peuvent traverser la matière.
Cependant, le pouvoir de pénétration est différent pour chacun d’entre eux, ce qui définit des épaisseurs différentes de
matériaux pour se protéger. Lorsqu’un rayonnement pénètre la matière, il interagit avec elle et lui transfère de l’énergie.
• Particules alpha : pénétration très faible dans l’air. Une simple feuille de papier est suffisante pour arrêter
les noyaux d’hélium.
• Particules bêta moins : électrons : pénétration faible. Parcourent quelques mètres dans l’air. Une feuille
d’aluminium de quelques millimètres peut arrêter les électrons.
• Rayonnements X et gamma : pénétration très grande, fonction de l’énergie du rayonnement : plusieurs
centaines de mètres dans l’air. Une forte épaisseur de béton ou de plomb permet de s’en protéger.
• Neutrons : pénétration dépendante de leur énergie. Une forte épaisseur de béton, d’eau ou de paraffine
arrête les neutrons.

28 – Synthèse :

69
3 – LES FILMS :
Un film radio est en général composé comme le montre la figure ci-
contre. La couche d'émulsion est impressionnée par les
rayonnements X et γ, et la lumière.
Les films sont conditionnés en pochettes prêtes à l'emploi. Ils se
différencient par la qualité d'image (grosseur de grain, contraste) et la
rapidité.
Un standard EN définit les types C1 à C6.
Des écrans (feuilles de Pb, Cu, Ni, etc.) intégrés dans la pochette
renforcent l'effet de l'irradiation sur le film.
Le temps de pose, c'est-à-dire le temps de l'exposition externe
durant lequel la source radioactive est sortie de son conteneur
pour la prise d'un cliché nous est donné par la formule :

Q.d 2 .k .10−6
T=
37.N
• T = temps de pose en heures
• Q = facteur fonction de la densité fixée par le cahier des
charges du client et de l'épaisseur d'acier à traverser
• (tableau ci-après). La densité souhaitée conditionne le
contraste recherché
• d = distance source / film en mètres
• k = coefficient de rapidité du film utilisé (fourni par le
fabricant du film)
• N = activité résiduelle en becquerels

Exemple :
70
Une source d'iridium 192 a une activité de 925 MBq (25 curies) au 1er mars 2004. Le cliché est pris le 10 juin 2004 avec
un film ayant un facteur k = 4 pour une densité recherchée de 2,5.
La soudure à radiographier est un tube de 508 x 5 en acier. La source radioactive est disposée dans l'axe du tube.
• Calcul de l'activité résiduelle au 10 juin 2004 : 925 x 0,392 = 362,6 MBq = 362,6 106 Bq
• Epaisseur de l'acier : 5 mm donc Q = 950 (densité voulue 2,5)
• Distance source film en mètres : d =0,26 m
• Coefficient de rapidité du film = K = 4

950 x0, 26 x0, 26 x 4.10−6


Temps de pose : T = = 0, 019h ≈ 1min
37 x362, 6 x106
Le développement des films s’effectue par traitement des films exposés par bains successifs (révélateur, neutralisant,
fixateur + lavage / séchage), manuel ou automatisé. Le film obtenu est un négatif.
La Visualisation et l’interprétation s’effectuent
sur négatoscope :
• repérage
• vérification de qualité d'image
• recherche / analyse de défauts
La qualité de l'image radiographique dépend
de nombreux facteurs :
• Taille de grain : caractéristique du film
• Contraste : dégradé par la grosseur
de grain et par un rayonnement γ

• Flou géométrique U : étendue du


manque de netteté dû à la dimension
du foyer. Il est à évaluer dans la
position la plus Pénalisante. Les
appareils à micro foyer réduisent le
flou.

U ≈ F .t / d

La nature et la géométrie de la pièce examinée affectent aussi le résultat, d'où l'intérêt d'une
mesure globale de la qualité d'image. Des Indicateurs de Qualité d'Image (IQI) permettent
de s’en assurer :
• fils, trous, etc. de dimensions étagées
• modèles divers adaptés à des cas types
• placés pendant l'irradiation sur la pièce, du même côté que la source de
rayonnement (dans la position la plus pénalisante)
• Si « t » est l'épaisseur de la pièce, et φmin le diamètre du dernier fil visible sur le film
exposé, la sensibilité est : S (%) = φmin / t

4 – PERFORMANCES, LIMITES DE LA METHODE :


Détection de défaut :
• très bonne performance sur défauts volumétriques
• très bonne performance sur défauts plans parallèles au tir
Localisation et caractérisation de défaut :
71
• très bonne performance, limitée à la vue en plan
Dimensionnement de défaut :
• très bonne performance de dimensionnement en longueur
• pas de dimensionnement en hauteur
Applicabilité :
• technique convenant à tout matériau (métaux, plastiques, béton,...)
• peu affectée par l'état de surface (rugosité, propreté, peinture,...)
• accès requis aux deux côtés de la pièce examinée
• pas de liquide entre source et film
Mise en œuvre :
• délai entre exposition et diagnostic
• mesures de protection contre les radiations ionisantes
• équipements assez lourds et volumineux
Coût :
• équipements, matériel accessoire et consommables onéreux
• travail fréquent hors horaires normaux
• subsistance du film pour archivage
Sécurité :
La réalisation d'un CND conduit à s'entourer de précautions particulières compte tenu de l'emploi de produits nocifs ou
encore d'appareils électriques.
Dans la cas de la radiographie X ou y, les risques encourus sont particulièrement importants puisque l'action des
rayonnements sur les organismes vivants est nocive et peut avoir des conséquences fatales à plus ou moins long
terme.
Des règles ont donc été instaurées pour veiller à la sécurité des travailleurs concernés mais aussi du public. La
réglementation en vigueur en France est régie par le décret N°86-1103 du 2octobre 1966. Ces textes prévoient les
équivalents de dose maximaux admissibles pour diverses catégories de personnels ainsi que les mesures de
surveillance médicale et de suivi administratif.
Cette réglementation est complétée par un arrêté du 2 mai 1977 créant le certificat d'aptitude à manipuler les appareils
de radioscopie et de radiographie industrielle (CAMARI). Tous les opérateurs en contrôle doivent être titulaires de ce
CAMARI ou en avoir obtenu la dispense dans des conditions définies elles aussi par arrêté ministériel.
Tous ces textes sont rassemblés dans un document intitulé « Hygiène et Sécurité - protection contre les rayonnements
ionisants « qui est publié au journal officiel.

72
1 - LES vibrations :
11 – Notions de vibrations :
La vibration fait partie de la vie de tous les jours. Elle peut être :
Utile : rasoir électrique, haut parleur,…
Agréable : balançoire, instrument de musique,…
Désagréable : marteau-piqueur, mal de mer,…
Fatigante ou nuisible pour l’homme, les machines, les bâtiments : transports, tremblement de terre,…
Une vibration est un mouvement autour d’une position d’équilibre.
12 – Origine des vibrations sur les machines tournantes :
L’analyse vibratoire est utilisée en MPC pour la surveillance des machines tournantes. Les machines tournantes sont
des systèmes dans lesquels peut se distinguer :
Un rotor ;
Une structure ;
Des liaisons.
Liaison Ligne de rotation

Ω : vitesse de rotation

Coussinet
Rotor Palier Structure
Stator

Le rotor tourne autour d’une ligne de rotation par l’intermédiaire de liaisons ayant pour support la structure de la
machine. La rotation du rotor engendre des forces qui dépendent de l’état des machines. Ces efforts vont se répercuter
sur tous les éléments de la machine.
Des vibrations vont être créées si ces efforts rencontrent une mobilité (un jeu ou un élément peu rigide). Une vibration
peut donc être vue comme :

73
Les machines réelles ne sont jamais
parfaites : défauts de fabrication, jeux de Axe réel de
fonctionnement, paramètres de rotation
fonctionnement (température, vitesses de
rotation,…).
Une machine réelle peut être décrite par le
schéma ci-contre où les défauts ont été
exagérés.
La vibration dépend des conditions de
fonctionnement. Le signal vibratoire
contient des informations sur les efforts
TOUTE MACHINE TOURNANTE VIBRE.
engendrés par le fonctionnement de la
machine, mais aussi sur l’état mécanique
des structures.
Il permet par conséquent d’avoir une image des contraintes internes et de diagnostiquer un certain nombre de défauts
de fonctionnement.
Mais en raison même de la richesse des renseignements qu’il peut apporter, il n’est en général pas directement
utilisable. Il contient trop d’informations qu’il faut traiter et trier.
Le matériel de mesure enregistre le signal vibratoire. En fonction des besoins de l’analyse, on défini ensuite des
indicateurs calculés à partir de ce signal. L’évolution de ces indicateurs renseigne sur l’usure de la machine.
C’est ce qui montre la figure de la page suivante.
En conclusion, les vibrations et les bruits sont des indicateurs objectifs de l’état de santé des matériels
comportant au moins une pièce en mouvement.
Ces indicateurs sont en étroite corrélation avec les balourds, les désalignements, les défauts d’engrainement,
les usures, les déformations, etc.
Ainsi, le suivi vibratoire apporte la connaissance de l’état réel de la machine. A tout moment, il permet de
suivre son évolution donc de programmer l’arrêt du système en tenant compte :
• De la production
• De la disponibilité de l’équipe d’intervention
• De l’approvisionnement des pièces de rechange.
En outre, ce suivi permet :
• De supprimer les arrêts pour inspections et visites
• De détecter précocement les risques de défaillance
• De mieux planifier les interventions
• De réduire la durée et l’importance des interventions donc l’indisponibilité de l’outil de production.
• Donc par conséquent de réduire les coûts directs et indirects de maintenance.

74
Machine

Un milieu Une
perturbation
(Structure)
(Effort)

Effets

Solide Fluide

Vibrations Bruit

Grandeurs • Déplacement Grandeurs • Fluctuation de


mesurées • Vitesse mesurées pression
• Accélération • Intensité

Rayonnement

Mesures

Informations sur : • Contrôle


• Efforts • Surveillance
• Structures • Maintenance

75
13 – Matériel de mesure :
La première méthode de mesure des vibrations est
l’homme.
Cette méthode a ses limites dues à la précision de
mesure de nos sens.
C’est pourquoi on préférera utiliser un capteur.
Le but de ce capteur est de transformer la vibration
en un signal exploitable que l’on va pouvoir traiter.

Les 3 grandeurs que l’on est amené à mesurer en technique vibratoire sont le déplacement, la vitesse et l’accélération.
En analyse vibratoire des machines tournantes, on utilise principalement des accéléromètres que l’on dispose au
niveau des paliers comme indiqué sur la figure suivante.
Les capteurs correctement positionnés sont les capteurs A (position
« radial ») et C (position « axial »).
Le capteur B est trop loin du palier.
Le palier D n’est pas sur une structure rigide.
Les vibrations dépendant des mobilités des structures (jeu, manque de
rigidité), il faut les positionner au plus près des paliers sur des structures
rigides.
Les capteurs peuvent être fixés de différentes façons sur les structures.
La solution donnant le résultat le plus fidèle à la réalité est la fixation par
goujon. C’est en effet la solution de montage la plus rigide donc provoquant le
moins de pertes du signal de départ.

Augmentation de la gamme de

Les signaux sortant des capteurs doivent être enregistrés et traité par un collecteur et un analyseur de vibrations.
On distingue alors 2 types de surveillance : la surveillance On Line et la surveillance Off line.
En « On Line », la machine est surveillée en permanence par un moniteur de vibrations.
En « Off Line », les mesures sont effectuées lors de rondes à intervalles réguliers. On utilise alors un collecteur de
données. Les collecteurs modernes permettent également d’analyser les mesures.

76
On peut également analyser les mesures sur des ordinateurs équipés de logiciels spécifiques en y transférant les
mesures effectuées.

77
14 – Méthodologie de mise en œuvre :
Début

Diagnostic initial

Contrôle périodique

oui
Seuil
d’alerte

Super contrôle :
analyse spectrale

Grav Peu
e Diagnostic grave

Pronostic : déterminer la Programmer la


durée résiduelle de bon réparation lors d’un
fonctionnement (DRBF) arrêt périodique

Peu urgent Très urgent


DRBF ?

Surveillance Arrêt immédiat


renforcée :
contrôles plus
rapprochés

Réparation

Contrôle
vibratoire

78
2 – Rappels mathématiques :
21 - Le signal vibratoire :
Définition de la norme NFE 90-001 : Une vibration est une variation avec le temps d’une grandeur caractéristique du
mouvement ou de la position d’un système mécanique lorsque la grandeur est alternativement plus grande et plus
petite qu’une certaine valeur moyenne ou de référence
Le mouvement vibratoire le plus simple à étudier est celui traduisant le déplacement d’un point (A) situé sur un cercle et
tournant à une vitesse de rotation ω.

x(t)

A
D
ω
0 π/2 π

Période

La rotation de A entraîne une variation sinusoïdale de sa projection X qui répond à la relation : X(t) = A sin (ω t).
La fréquence est le nombre de fois qu’un phénomène se répète en un temps donné.
Lorsque l’unité choisie est la seconde, la fréquence s’exprime en hertz.
Une vibration qui se produira 50 fois par seconde aura une fréquence de 50 hertz.
1 hertz = 1 cycle / seconde
La période T du signal correspond à la durée d’un cycle.
Si la fréquence d’un phénomène est de 50 hertz, c’est à dire 50 cycles par seconde, la durée d’un cycle (c’est à dire la
période T) est de 1/50e de seconde.
La fréquence est donc l’inverse de la période :
1
f =
T
Le signal vibratoire obtenu précédemment est une sinusoïde de période T.
La période T est fonction de la vitesse de rotation : plus on tourne vite (ω grand) et plus la période sera petite, donc
plus la fréquence sera grande. Donc il existe un lien entre la fréquence et la vitesse de rotation :
N
ω = 2 πf et f = avec ω en rad/s, f en Hz et N en tr/min
60
Sur les machines tournantes industrielles, on utilise souvent le tour par minute pour exprimer une vitesse de rotation,
parfois noté CPM (cycle par minute) ou RPM (rotation par minute).
1 CPM 1 RPM 1 tr / min
1Hz = = =
60 60 60
22 – Amplitude du signal vibratoire :
Une vibration se caractérise principalement par sa fréquence, son amplitude et sa phase.
On appelle amplitude d’une onde vibratoire la valeur de ses écarts par rapport au point d’équilibre.
On peut définir :
L’amplitude maximale par rapport au point d’équilibre appelée également amplitude crête (Ac).
L’amplitude double, aussi appelée amplitude crête à crête (Acc) ou « peak to peak » en anglais.
L’amplitude efficace (Aeff), aussi appelée RMS (root mean square en anglais).

79
D’autres calculs peuvent être effectués à partir de l’amplitude vibratoire. On retiendra principalement la valeur
moyenne et le facteur de crête.
T représente ici la durée d’analyse du signal vibratoire.
23 – Grandeurs associées à l’amplitude :
Si l’on observe un système mécanique simple constitué d’une masselotte « M »
suspendue à un ressort, on constate que le mouvement de la masselotte se
traduit par :
Un déplacement. La position de la masselotte varie de part et d’autre Limite supérieure
du point d’équilibre, de la limite supérieure à la limite inférieure du
mouvement.
Une vitesse de déplacement. Cette vitesse sera nulle au point haut et
au point bas du mouvement de la masselotte et sera maximale autour
M Position d’équilibre
du point d’équilibre.
Une accélération. Celle-ci permet à la masselotte de passer de sa Limite inférieure
vitesse minimale à sa vitesse maximale.

On peut en déduire, par analogie avec ce système masse-ressort, qu’une vibration est caractérisé par 3 grandeurs :
le déplacement,
la vitesse,
l’accélération.
24 – Détermination des fréquences d’un signal :
La rotation de l’arbre d’une machine tournante est le phénomène donnant naissance aux vibrations. Cette rotation étant
par nature périodique, les vibrations enregistrées le sont aussi.
Or, tout signal périodique peut, selon Fourier, se décomposer en une somme de sinusoïdes que l’on appelle série de
Fourier.
Si « S » (S peut désigner l’accélération, la vitesse ou le déplacement) est une fonction périodique du temps, on peut
écrire :

S (t ) = ∑ S .sin(ω .t + ϕ)
n n

80
Les figures ci-dessous montrent le résultat de la somme de 2 signaux sinusoïdaux

La représentation graphique du signal vibratoire en fonction du temps reste assez « illisible ». Elle ne permet pas
l’analyse car tous les termes sont superposés. On a donc besoin d’un outil mathématique supplémentaire.
La transformée de Fourier, lorsqu’elle s’applique à une fonction du temps comme l’accélération, la vitesse ou le
déplacement, donne pour résultat une autre fonction dont la variable est la fréquence. Cette nouvelle fonction est
appelé spectre.
Le spectre est une représentation de l’amplitude d’une grandeur en fonction de la fréquence.
Ex : le spectre d’un signal sinusoïdal est un pic à la fréquence du signal.

Un signal vibratoire étant la somme de plusieurs sinus, son spectre sera une succession de pic aux différentes
fréquences caractéristiques du signal de départ.
Ci-dessous, le signal temporel est la somme de 3 sinus. Le spectre est donc constitué de 3 pics dont les fréquences
sont celles des 3 sinus.

81
Les pics observes sur les spectres ne sont pas tous des defauts. sur les systemes, il existe des l’origine du
balourd, du desalignement, des moteurs imparfaits, des pics d’engrenement, etc.
3 – Déséquilibre : défaut de « balourd » :
31 – Equilibrage statique :
Imaginons un rotor parfaitement en équilibre. Ajoutons en un
endroit de ce rotor une masse M.
Force centrifuge
Le rotor présentera un déséquilibre. Même à l'arrêt, le rotor
reviendra à une position d'équilibre. Il s'agit d'un déséquilibrage
statique.
Dès que le rotor sera en rotation, la masse M exercera une force
radiale proportionnelle à la vitesse de rotation selon la relation
F=M.r.ω².
On mesure l’amplitude de l’accélération du signal vibratoire au
point P1 et P2.
Au point P1, l’amplitude vibratoire sera maximale lorsque la
masse sera en haut du rotor.
Elle sera minimale lorsqu’elle sera en bas du rotor, et ainsi de
suite, à chaque tour du rotor.
Il se passe la même chose au point P2. On voit que les efforts
exercés sont en phase.
Le signal vibratoire a donc une période de 1 tour.

Pour trouver la fréquence de ce signal, il faut répondre à la


question suivante :
Combien de fois ce signal sera t’il au maximum en 1 seconde ?
Si on tourne à 1500 tours / minute, le signal sera à son maximum
1500 fois par minute.
La fréquence du signal sera :
N 1500
f = = = 25 tr / s = 25 Hz
60 60
32 – Equilibrage dynamique :
Reprenons l'exemple
précédent en remplaçant
la masse M par 2 masses
identiques mais décalées
de 180° et placées à
chaque extrémité du
temp
rotor.
L’analyse temporelle des
amplitudes du signal
vibratoire montre que les
signaux en P1 et P2 sont
déphasés.
temp
En effet, les deux paliers supportant le rotor vont subir des efforts centrifuges de façon alternée. Le déphasage est en
théorie de 180°.
33 – Spectre d’un déséquilibre pur :

82
Un déséquilibre va donc induire une vibration dont la fréquence
principale est celle de la vitesse de rotation du rotor. Amplitude
Le spectre de ce signal va donc avoir une composante de
prépondérante à la fréquence de rotation du rotor.
Dans le cadre d’un spectre réel, le spectre aura une
composante à la fréquence prépondérante ainsi que des
« harmoniques » à 2 fois et 3 fois la fréquence de rotation :
Amplitude de
l’accélération

Fo Fréquence

Spectre théorique d’un défaut de


Fo 2 Fo 3 Fo Fréquence déséquilibre

La figure ci-contre montre le spectre réel de


l’amplitude de l’accélération (exprimée en dB)
mesurée sur un ventilateur tournant à 2925 tr/min.
2925 tr/min correspond à 2925/60 = 48,75 Hz
On observe sur le spectre un pic à la fréquence de
48,75 Hz traduisant donc la présence d’un
balourd.

Spectre réel d’un ventilateur tournant à 2925 tr/min


4 – Défaut d’alignement :
41 – Origine du défaut :
Un défaut d’alignement peut apparaître lorsqu’un arbre doit entraîner un autre arbre, souvent par l’intermédiaire d’un
accouplement. Il y a 2 types de désalignements :
le décalage d’axe : les axes sont parallèles mais non concentriques ;
le désalignement angulaire : les axes ne sont pas parallèles.
Dans la réalité, les défauts d’alignement sont une combinaison du décalage d’axe et du désalignement angulaire.
Décalage d’axe

Moteur
Désalignement angulaire

Un désalignement peut également être la conséquence :


d’un défaut de montage d’un palier
d’un mauvais calage des pattes de fixation
d’une déformation du châssis (par exemple à la suite de contraintes thermiques) qui se traduit par une flexion

83
de l’arbre du rotor. Dans ce cas, les deux paliers ne sont pas concentriques.
Le défaut d’alignement est l’une des principales causes de réduction de la durée de vie des équipements. Il crée des
efforts importants qui vont entraîner la dégradation rapide du système d’accouplement et des paliers.
Dans la plupart des cas, on peut y remédier facilement par un lignage. Ce genre de prestation est réalisé à l’aide de
matériels utilisant la technologie laser. Pour la plupart des applications, un lignage effectué par du personnel qualifié et
expérimenté n’immobilise la machine que quelques heures
42 – Signature du défaut d’alignement :
Le signal temporel d’un défaut de d’alignement aura l’allure suivante :
1/2 tour

temps

1 tour

On retrouve un phénomène périodique à la fréquence de


rotation (période = temps pour faire 1 tour) mais également des Amplitude
phénomènes se répétant chaque ½ tours et ⅓ tour. de
Cela se traduira le plus souvent par la présence de
composantes d’ordre 2, 3 ou même 4 de la fréquence de
rotation avec des amplitudes supérieures à celles de la
composante d’ordre 1.
Les composantes multiples d’une fréquence dans un spectre
sont appelées les harmoniques de cette fréquence.
Un défaut d’alignement est donc révélé par un pic d’amplitude
prépondérant à généralement 2 fois la fréquence de rotation Fo 2 3 Fréquence
(parfois 3 ou 4 fois)

Spectre théorique d’un défaut d’alignement


La figure ci-contre montre le spectre réel de l’amplitude de
l’accélération, mesuré sur un compresseur tournant à 1500
tr/min.
1500 tr/min correspond à une fréquence de 1500/60 = 25 Hz.
Donc Fo = 25 Hz, 2.Fo = 50 Hz et 3.Fo = 75 Hz
On observe sur le spectre un pic à la fréquence de 25 Hz (point
A) et un pic plus important à 50 Hz soit 2 fois Fo traduisant la
présence d’un désalignement.

Spectre réel d’un compresseur à 1500

84
5 – Défaut de desserrage et de jeu :
Par desserrage, on entend par exemple un manque de rigidité de montage sur
une structure. Cela peut être du effectivement à un desserrage des vis de
fixation de la structure mais également à une fissuration d’ancrage ou de bâti.
Des défauts comme le balourd vont entraîner le bâti à se désolidariser de la
structure.
Cela entraîne un signal temporel écrêté.

Amplitude
de 4
Fo
FFT 3
2 5

Le signal est écrêté à cause de l’impact


0,5 x Fo 1,5 x Fo 2,5 x Fo 3,5 x Fo Fréquence
Le spectre fait apparaître des harmoniques de la fréquence de rotation, comme les autres défauts, mais également des
sous-harmoniques à ½, ⅓ de la fréquence de rotation.
Le phénomène de jeu va avoir pratiquement la même signature vibratoire.
Le jeu se retrouve en général dans le roulement. Il peut s'agir de jeu entre la bague extérieure et le palier, entre la
bague intérieure et l'arbre ou un jeu excessif entre les billes/galets et les cages interne et externe.
Pour les paliers lisses, le jeu signifie un espace trop important entre l'arbre et le palier.
La figure ci-dessous montre la différence entre un spectre de la vitesse vibratoire d’un jeu de fondation (desserrage) et
d’un jeu dans les roulements.

85
6 – Défauts de transmission par courroies :
C’est un défaut peu évident à localiser et seule l’expérience acquise permet une bonne analyse de ce type de défauts.
Le principal défaut rencontré dans ce type de transmission est lié à une détérioration localisée de la courroie (partie
arrachée, défaut de jointure,…) impliquant un effort ou un choc particulier à la fréquence de passage de ce défaut (Fc).
Le calcul de Fc ci-dessous n’inclue pas d’éventuels glissements.

N
Direction
D de la D

N
Courroie de longueur L
N1 et N2 vitesses de rotation des roues n°1 et 2 en tr/min.
N1 π.D1 N2 π.D2
Fc1 = . ; Fc2 = .
60 L 60 L

L’image vibratoire donne un pic d’amplitude importante à la fréquence de passage des courroies, ou de ses
harmoniques.
7 – Défauts de denture d’engrenages :
71 – Généralités :
Un engrenage est composé de deux roues dentées possédant en certain nombre de dents (noté Z) tournant à des
vitesses différentes.

Z2 F2
F2 Z1
=
F1 Z2

F1 Z1

Un réducteur ou un multiplicateur peut être composé de plusieurs engrenages. L’engrènement se fait au rythme
d’engagement des dents selon une fréquence d’engrènement Fe égale à la fréquence de rotation multipliée par le
nombre de dents :
Fe = Z x Frot
Ici, l’arbre n°1 tourne à la fréquence de rotation F1. Donc Fe1 = Z1 x F1.
L’arbre n°2 tourne à la fréquence de rotation F2. Donc Fe2 = Z2 x F2.
Or F2 et F1 sont lié par le nombre de dent. Donc :
Z1 .F1
Fe2 = Z 2 . = Z1 .F = Fe1
Z2
Fe2= Fe1. Il n’y a qu’une seule fréquence d’engrènement pour un
engrenage. Fe = Z2 . F2= Z1 . F1
72 – Signature d’un engrenage :

86
Si la denture est correcte et si aucun phénomène parasite ne
vient perturber l’engrènement, le spectre vibratoire est constitué Amplitude
de composantes dont les fréquences correspondent à la de
fréquence d’engrènement Fe et ses harmoniques.
Les défauts pouvant apparaître dans les engrenages sont de 2
sortes :
Détérioration d’une dent
Excentricité d’un pignon

Fe 2 3 Fréquence

Spectre théorique d’un engrenage sain


73 – Signature d’une détérioration de dent :
Si l’une des roues possède une dent
détériorée, il se produit un choc Amplitude de
périodique à la fréquence de rotation l’accélération
de la roue considérée.
Le spectre montrera donc, non
seulement la fréquence d’engrènement,
comme précédemment, mais aussi et
surtout un pic à la fréquence de rotation F1 F1
(par exemple F1 si le défaut est sur le
roue 1) et de nombreuses
harmoniques.
Les nombreuses harmoniques de la
fréquence constituent ce que l’on
F1 Fe Fréquen
appelle un peigne de raie.
Elles sont dues au phénomène de
chocs. Dès qu’un défaut se traduit par
Spectre théorique d’un engrenage présentant une dent détériorée
des chocs, cela se retrouve sur le
spectre par un peigne de raie dont la
fréquence est celle du défaut.
74 – Défaut d’excentricité :
Si l’arbre ou le pignon présente un défaut d’excentricité, ou de faux rond, il va apparaître une modulation d’amplitude du
signal par la fréquence de rotation due à la modulation de l’effort d’engrènement.

Signal d’un engrenage Signal d’un engrenage traduisant une Augmentation de la modulation d’amplitude qui
sain modulation en amplitude. traduit une évolution du défaut d’excentricité.

87
L’image vibratoire théorique de ce type
de défaut présente autour de la Amplitude de
fréquence d’engrènement ou de ses l’accélération
harmoniques, des raies latérales dont
le « pas » correspond à la fréquence de
rotation de l’arbre qui porte le défaut.
C’est ce qu’on appelle des bandes
latérales de modulation d’amplitude. F1 F1 F1 F1
Les amplitudes des bandes latérales
sont généralement très faibles devant
l’amplitude de la fréquence
d’engrènement.
F1 Fe Fréquen

Spectre théorique d’un engrenage présentant un défaut


d’excentricité
Le spectre ci-dessous a été mesuré sur un engrenage au niveau d’un pignon tournant à 1500 tr/min et comportant 33
dents.

On retrouve un pic à la fréquence d’engrènement de 25Hz x 33 = 825 Hz. Pour distinguer les bandes latérales, il faut
faire un zoom du spectre précédent autour de la fréquence d’engrènement.

On aperçoit ici les bandes latérales autour de la fréquence d’engrènement traduisant un défaut engendrant une
modulation d’amplitude.
75 – Gravité des défauts :
La difficulté, concernant les engrenages, est de juger de la gravité des défauts. En effet, même sur une machine en bon
état, on obtient ce type d’images.

88
Seule l’augmentation des amplitudes des raies décrites ci-dessus permet de diagnostiquer une dégradation de
l’engrènement.
On peut néanmoins retenir 2 règles toujours vérifiées :
Si les amplitudes du peigne de raies ne dépassent pas celle de la fréquence d’engrènement, l’engrènement
peut être considéré comme en bon état ;
Un zoom présentant une image dissymétrique des modulations autour de la fréquence d’engrènement est
caractéristique d’un engrènement dégradé.
8 – Défauts électriques :
Pour bien des machines électriques, les fréquences significatives d’une anomalie électromagnétique seront des
multiples de la fréquence du courant d’alimentation Fa.
Pour ce type de moteur, la plupart des défauts se traduiront par un pic important à 2 fois la fréquence du courant
d’alimentation (2 x 50 = 100Hz).
Afin de bien l’identifier, il est parfois nécessaire de faire un zoom sur cette fréquence pour la différencier d’une
harmonique de la fréquence de rotation (1500tr/min correspond à 25Hz ; la 4ème harmonique est alors égale à 100Hz).

Sur le spectre ci-dessus, le rotor à une fréquence de 24,8 Hz. La 4ème harmonique est donc à 4 x 24,8 = 99,20 Hz. Il
faut donc faire un zoom pour la différencier du pic à 100Hz traduisant un défaut d’origine électromagnétique.
L’apparition d’un pic à 100Hz déclenchera alors une étude plus approfondie des fréquences caractéristiques du moteur
afin de diagnostiquer l’origine du défaut. Cette étude ne sera pas développée dans ce cours.
Il est à noter que le pic à 2Fa existe tout le temps.
9 – Circuits hydrauliques / ventilateurs :
91 – Passages d’aubes :
Le passage des aubes devant le bec de la volute d’une pompe ou le passage des pales d’un ventilateur provoque un
pic à la fréquence « f aubes » : f aubes = n · fr.
Ce défaut n’est pas directionnel, il se repère aussi bien en radial qu’en axial.
L’origine peut être :
mécanique : mauvais calage axial de l’impulseur ou jeu de bec de volute insuffisant ;
hydraulique : débit trop bas ;
encrassement des aubes ou des pales qui peut aussi provoquer du balourd.
92 – Cavitation :
Dans les circuits hydrauliques contenant des machines (pompes, turbines hydrauliques, ...) on cherche à éviter le
phénomène de cavitation qui se manifeste par l'apparition de bulles de vapeur dans l'écoulement du liquide.
Celles-ci, lorsqu'elles se retrouvent sur les rotors des pompes ou sur les aubages des turbines, peuvent imploser
entraînant alors l’érosion des pièces en métal. Les dégâts créés peuvent être assez importants, voire dangereux.
Le phénomène de cavitation se traduit par une augmentation générale du bruit de fond. Il n’y a pas de raie
caractéristique. Toutes les fréquences sont excitées de manière aléatoire.
10 – Défauts spécifiques aux roulements :
101 – Durée de vie des roulements :

89
La durée de vie théorique des roulements est donnée par la formule suivante :
L10 = durée de vie en 106 tours
L10= (C / P)p C: charge nominale (donnée constructeur)
P: charge dynamique appliquée au roulement
p = 3 pour les roulements à billes, 3.33 pour les
roulements à rouleaux
La durée de vie d’un roulement sera fortement réduite en fonction des efforts dynamiques auxquels il sera soumis.
C’est pour cette raison qu’il est important de corriger les problèmes tels que le délignage, le balourd, le serrage, etc. qui
conduisent à une augmentation très forte des efforts dynamiques.
102 – Processus de dégradation d’un roulement :

Lorsqu’un roulement tourne, les contacts


métalliques entre les éléments roulants et les
cages émettent des bruits de fond aléatoires.
Ce bruit de fond créé un spectre plat

La plupart des usures de roulements débutent


par une fêlure qui se transforme en craquelure.
La craquelure va produire des impacts
énergétiques en haute fréquence.

Au fur et à mesure que l’usure progresse:


Les défauts tendent à se lisser
Il y a moins d’impacts;
Le bruit de fond de la bonne piste devient
modulé;
Dès que le défaut est significatif, les billes
vont éroder la cage interne en sautant.
103 – Fréquences caractéristiques :
Pour chaque type de roulement, et en fonction de ses cotes de fabrication, on peut considérer 4 fréquences
caractéristiques.

90
BPFO = Ball Pass Frequency Outer Race = fréquence de passage d’une bille sur un défaut de piste externe.
BPFI = Ball Pass Frequency Inner Race = fréquence de passage d’une bille sur un défaut de piste interne.
FTF = Fundamental 1 train Frequency = fréquence de passage d’un défaut de cage.
BSF = Ball Spin frequency = fréquence de passage d’un défaut de bille sur la bague interne ou externe.
Remarque :
FTF dépend du montage des roulements. Si la bague externe est fixe et que la bague interne tourne, la formule de
FTF est celle vue précédemment.
Si la bague interne est fixe et la bague externe tourne, la fréquence de rotation de la cage est :
DB
FTF = 0,5. fr.(1 + .cos β)
DR
104 – Modulation d’amplitude de BPFI :
Principalement pour les défauts de bagues internes et externes, les vibrations du défaut sont modulées par les efforts
appliqués au système, notamment par leur direction.
Nous n’étudierons que le cas de la bague interne montée serrée donc solidaire de l’arbre.
Considérons le cas d’une charge dont la direction est constante. Le défaut sur la bague interne tourne à la vitesse de
rotation. La charge appliquée sur le roulement reste toujours dans la même direction
Ceci provoque une augmentation de l'amplitude de la force agissant sur le défaut de la bague interne et de la vibration
lorsque le défaut passe dans la zone la plus chargée.

BPFO
(bague
externe)
Temp

BPFI
(bague
interne)

Temp

105 – Modulation de BPFO :


Considérons maintenant le cas où la direction de la charge tourne avec la bague intérieure.
Le défaut sur la bague externe est fixe. Le balourd tourne à la vitesse de rotation. Ceci provoque une augmentation de
l'amplitude de la force agissant sur le défaut et de la vibration lorsque le défaut passe dans la zone la plus chargée.

91
BPFO
(bague
externe)
Temp

BPFI
(bague
interne)

Temp
106 – Signatures vibratoires des défauts d’écaillage :
Les défauts de type écaillages vont être modulés en amplitude par la vitesse de rotation.
Cela se traduira sur le spectre par un pic à la fréquence du défaut (Fdéfaut = BPFI ou BPFO ou FTF ou BSF) et des
bandes latérales à la fréquence de rotation de l’arbre.
De plus, les défauts d’écaillage se traduisent par des chocs. Le spectre va donc faire apparaître un peigne de raie à la
fréquence du défaut (Fdéfaut = BPFI ou BPFO ou FTF ou BSF).

Amplitude de
l’accélération

Fo Fo Fo

Fo Fdéfaut 2.Fdéfaut k.Fdéfaut H

Spectre théorique d’un défaut d’écaillage d’un roulement

92
Le spectre de la figure ci-contre est pris sur un roulement
dont la fréquence de bague externe est de 138,80 Hz.
On observe bien sur ce spectre un peigne de raies à la
fréquence du défaut (1, 2, 3, 4, …) traduisant les chocs
périodiques.
Le spectre est extrêmement étendu et présente un peigne
de raies dont l’amplitude est faible.
De ce fait, le peigne de raie est souvent noyé dans le
bruit de fond, donc non identifiable par une analyse
spectrale classique.

Le spectre de la figure suivante est pris sur un roulement


dont la fréquence de bague intérieure est égale à 148,5
Hz.
On observe bien un pic à cette fréquence mais il est noyé
dans le bruit de fond.

Des outils plus performants que la simple analyse spectrale peuvent être utilisés pour établir un diagnostic et faire
ressortir du spectre les fréquences qui nous intéressent.
107 – Rupture de cage :
Lorsque la cage d'un roulement casse, les billes ne sont plus maintenues à une distance égale les unes des autres et
elles vont se regrouper.
Cela entraîne une excentricité de l'arbre et un balourd tournant à la vitesse de rotation de la cage.
Ce type de défaut apparaît donc sur le spectre par une raie unique à la fréquence de la cage FTF.
En général, FTF est égale à 0,4 x la vitesse de rotation.
En réalité, une rupture de cage est très difficilement détectable car un roulement dont la cage est rompue se détériore
très rapidement
108 – Défaut de billes :
Un défaut de billes génère une image
typique dans le spectre.
Il y aura plusieurs groupes de pics qui
apparaissent composés d'un pic central et
de modulations autour de ce pic central.
Dans la grande majorité des cas, ce pic
central correspond au défaut de billes et la
modulation correspond au défaut de cage
La fréquence à laquelle les billes tournent
autour de leur propre axe dans la cage est
BSF.

Spectre théorique d’un défaut de bille d’un roulement


109 – Défauts de déversement :
Le déversement de bague interne ou externe peut être la conséquence d’un désalignement.

93
Spectre réel d’un défaut de déversement de bague externe

1010 – Quand changer les roulements ?


L'information la plus importante, pour réaliser une évaluation de la gravité du défaut et une estimation de la durée de vie
restante du roulement, reste la courbe de tendance.
En général, s'il y a peu de différences entre deux mesures, il n'est pas nécessaire de prendre des actions
Le remplacement d'un roulement dépend également et surtout des circonstances : quelle est l'importance de la
machine, sa disponibilité pour la maintenance, ...
Il est préférable de ne pas chercher à atteindre la durée de vie maximale du roulement. Quand un défaut est clairement
détecté, il faut procéder à son remplacement pour éviter toute perte de production.

94
11 – Les indicateurs :
111 – Surveillance et diagnostic :
On distingue communément 2 principales activités :
La surveillance : le but est de suivre l’évolution d’une machine par comparaison des relevés successifs de ses
vibrations. Une tendance à la hausse de certains indicateurs par rapport à des valeurs de référence,
constituant la signature, alerte généralement le technicien sur un dysfonctionnement probable. La valeur de
référence est souvent une signature établie lors de la première campagne de mesure sur la machine neuve ou
révisée.
Le diagnostic : Il met en œuvre des outils mathématiques plus élaborés. Il permet de désigner l’élément de la
machine défectueux suite à une évolution anormale des vibrations constatée lors de la surveillance. Le
diagnostic n’est réalisé que lorsque la surveillance a permis de détecter une anomalie ou une évolution
dangereuse du signal vibratoire.
La surveillance peut être confiée à du personnel peu qualifié. Le diagnostic demande de solides connaissances
mécaniques et une formation plus pointue en analyse du signal.
112 – Décibels, niveaux de référence, alerte et danger :
Soit A l’amplitude de l’accélération. A est une fonction de la fréquence (pour une mesure réalisée lors d’une campagne)
et du temps (la valeur évolue d’une campagne de mesure à l’autre).
On nomme Ao la première mesure de cette grandeur. C’est celle qui fait référence.
Pour les mesures suivantes, on pourra mesurer l’accélération en m/s² ou en g, mais on pourra également la mesurer en
décibel (dB). Le décibel est défini par la formule suivante :
A
A( dB ) = 20.log
A0
Afin de définir les seuils d’alerte et de danger, on pourra utiliser le tableau suivant :
Niveau Référence Alerte Danger
A/Ao 0,10 0,32 1 1,12 1,41 2,00 2,51 3,16 10,00
A (dB) -20 -10 0 1 3 6 8 10 20
Si lors d’une mesure, l’amplitude vibratoire est 2 fois plus importante que celle de la valeur de référence, cela
correspondra à une mesure de 6 dB. Si l’amplitude vibratoire est 10 fois plus grande que la valeur de référence, cela
correspondra à 20 dB.
La définition de ces seuils peut ensuite être affinée en fonction des connaissances du cycle de vie de la machine
acquises avec l’expérience.
113 – Indicateurs de surveillance : détection des défauts :
Ce sont des indicateurs utilisés régulièrement pour surveiller les installations. Leurs évolutions permettent d’alerter le
technicien d’une dégradation. On distingue :
Les indicateurs scalaires ou niveaux globaux (NG)
Les indicateurs spectraux de forme ou spectres.
Indicateurs basses fréquences :
Déplacement crête à crête entre 10 et 100Hz : Dcc [10-100Hz] (en µm).
C’est l’indicateur utilisé par l’API (American Petroléum Industrie). Il est utilisé par tout industriel intervenant en
pétrochimie et est sensible aux phénomènes dits « basses fréquences ».
Le niveau acceptable maximal est donné, quelle que soit la vitesse par la formule suivante :
Dccmax = 25,4.(12000/N)0,5
Avec N : vitesse de rotation en tr/min et Dcc, déplacement crête à crête en µm.

95
Vitesse efficace entre 10 et 1000 Hz : Veff [10-1000Hz] en mm/s
Cet indicateur est lui aussi révélateur de phénomènes « basses fréquences » (BF). Ces phénomènes sont les plus
énergétiques donc les plus destructeurs.
Une augmentation du balourd, un défaut d’alignement, se traduiront par une augmentation anormale de cet indicateur
qui est pris comme référence dans la norme ISO 10816.
Cette norme définit l’emplacement des points de mesures et des seuils d’alerte et de danger en fonction du type de
machine :
Groupe 1 : Petite machines tournantes (<15kW).
Groupe 2 : Machines de taille moyenne (de 15
à75kW).
Groupe 3 : Grosses machines motrices avec
masses en rotation montées sur des assises
lourdes et rigides.
Groupe 4 : Grosses machines motrices avec
masses en rotation montées sur des assises qui
sont relativement souples dans le sens de
mesurage des vibrations (par exemple,
turboalternateur et turbines à gaz de capacités
supérieure à 10 MW.

Indicateurs hautes fréquences :


Accélération efficace entre 2 Hz et 20 kHz : Acceff [2 - 20000Hz] (en g ou mg)
C’est un indicateur révélateurs dits phénomènes dits « hautes fréquences » (HF) tels que les défauts de roulements, de
dentures, etc.
Une élévation anormale de l’accélération sera en général, sur une machine simple, révélatrice d’une dégradation
avancée des roulements. En effet, le peigne de raies créé par les défauts de type roulements va surtout apparaître en
haute fréquence. En basse fréquence, il est masqué par les autres phénomènes comme le balourd ou le délignage.
L’unité de Acceff [1000-10000Hz] est le g ou le mg : g est l’accélération de la pesanteur. 1g = 9,81 m/s². 1 mg = 10-3 g.
Indicateurs spécifiques aux roulements :
Facteur de crête entre 1 kHz et 20 kHz : FC [1000-20000Hz] (sans unité)
Il est défini à partir des valeurs crête et efficace de
l‘accélération :
FC

Acccrête 12
Fc =
Acceff
Le défaut majeur de cet indicateur est de présenter
environ les mêmes valeurs à l’état neuf et en fin de vie 3
du roulement.
Seule l’évolution dans le temps de cet indicateur est
utilisable. Si FC augmente, la situation n’est pas
Ecaillage Ecaillage Temps
alarmante, si FC diminue, le roulement est en fin de localisé généralisé
vie.
Facteur K entre 1 et 20 kHz : K [1000-20000Hz] (en g² ou mg²)
Il est également défini à partir des valeurs crête et efficace de l‘accélération :

K = Acccrête Acceff
Le facteur K est plus sûr pour effectuer une analyse ponctuelle des roulements. Sa valeur est directement liée à l’état
du roulement.

96
K (g²)
Rupture
8 Fin de vie

0,8 Bon état

Temps
Les valeurs indiquées sur le graphe ne sont que des ordres de grandeurs.
114 – Le facteur défaut roulement :
Le Facteur de Défaut Roulement est un traitement spécifique du signal temporel adapté à la surveillance des
roulements :
FD=a.FC+b.ARMS avec Fc = Ac / Arms Facteur de crête
Combinant les indicateurs Facteur de Crête (FC) et Valeur efficace (ARMS), il présente les avantages suivants :
Détection précoce
Peu sensible aux conditions de fonctionnement
Valeur croissante sur les 3 phases de la dégradation
Utilisation simple et adaptée au diagnostic automatique

L’augmentation du niveau du Facteur de Défaut peut être liée à un défaut de graissage du roulement.
Aussi, en l’absence d’historique d’évolution, on procédera à un test de graissage du roulement : Le Facteur de Défaut
chute généralement de manière importante de façon instantanée.
Si le niveau du F.D reste stable à cette valeur dans les heures qui suivent l’opération, il s’agit sans doute d’un
problème de graissage.
97
Dans le cas contraire, il s’agit vraisemblablement d’une usure du roulement.
115 – Exemple d’utilisation d’un niveau global :
On considère ici l’indicateur vitesse efficace Veff [10-1000Hz]. Le dépassement repéré peut avoir plusieurs origines :
Balourd mécanique ou thermique ;
Desserrage de la machine ;
Délignage.
Veff [10-1000Hz]
(mm/s) Niveau de danger
Dépassement du
seuil le 23/11/2003
Niveau d’alerte

Date

Le niveau global utilisé fait apparaître un problème. On se doute de sa gravité mais on n’en connaît pas l’origine. Dans
le cas présenté ici, il s’agissait d’un délignage que l’on a diagnostiqué par une mesure de spectre. Après réglage, le
défaut d’alignement a disparu, ce qui a eu pour conséquence de faire baisser le NG.
116 – Effet de masque :
L’effet de masque est le danger le plus sérieux de ce type de suivi. Généralement, ce sont les amplitudes efficaces des
indicateurs qui sont mesurées. Le niveau global est tel que :
NG = [ a² + b² + c² +d² + …]½
Avec a, b, c, d, … les amplitudes respectives des composantes mesurées. Du fait de l’élévation au carré, les défauts
dont l’amplitude est élevée vont être prépondérants dans le calcul. Les défauts d’amplitude moindre, mais pas de
gravité moindre, risque d’être complètement masqués. L’exemple ci-dessous en est l’illustration :

Déséquilibre

5 mm:s

Mauvais serrage

1 mm:s 5,3 mm/s

Mauvais engrenage

1 mm:s

Mauvais palier

1 mm:s

NG = (5 mm / s) 2 + (1 mm / s) 2 + (1 mm / s) 2 + (1 mm / s) 2 = 5, 29 mm / s
Une variation de 20 % du déséquilibre donnera :
NG = ( 6 mm / s) 2 + (1 mm / s) 2 + (1 mm / s) 2 + (1 mm / s) 2 = 6, 25 mm / s
Soit une variation de 18 % du NG pour une gravité moyenne du déséquilibre
Alors qu'une variation de 100 % du palier donnera :
NG = (5 mm / s) 2 + (1 mm / s) 2 + (1 mm / s) 2 + ( 2 mm / s) 2 = 5, 56 mm / s
Soit une variation de 5 % du NG pour une gravité extrême du roulement.
98
Conclusion : seule une variation du déséquilibre fera varier significativement le niveau global. Un défaut de roulement
risque d’être complètement masqué.

99
12 – Outils de diagnostic :
Le principal outil de diagnostic est l’examen approfondi du spectre de l’amplitude vibratoire en accélération.
121 – Résolution spectrale :
Avec la technologie actuelle, on mesure les spectres d’amplitude en utilisant des appareils numériques. Ces appareils
numériques décomposent le spectre en un certain nombre de ligne, dépendant de la capacité de l’appareil.
Les collecteurs actuels peuvent décomposer généralement les spectres réels en 800 lignes. Le spectre obtenu sera
donc une courbe passant par 800 points régulièrement espacé en fréquence.
On distingue différents spectres:
les spectres Basses Fréquences (BF) entre 0 et 200Hz.
les spectres Moyennes Fréquences (MF) entre 0 et 2000Hz.
les spectres Hautes Fréquences (HF) entre 0 et 20000 Hz.
Les zooms haute résolution [f1-f2], f1 et f2 définissant la gamme de fréquence analysée.
Soit ∆f la largeur du spectre. Le plus petit écart mesurable sur le spectre sera égal à ∆f/800 si la résolution du collecteur
est de 800 lignes.
Un spectre BF [0-200Hz] aura une résolution spectrale de 200/800 = 0,25 Hz.
Un spectre HF [0-20000Hz] aura une résolution spectrale de 20000/800 = 25 Hz.
Pour distinguer 2 défauts dont la fréquence est proche, on aura alors recours à un spectre de type zoom. Un spectre
zoom [98-102Hz] aura une résolution spectrale de 4/800 = 0,005 Hz.
122 – Les échelles de fréquence :
Représentation d’un spectre en échelles linéaires d’amplitude et de fréquence.

Seuls les défauts "haute fréquence" sont repérables. La


basse et la moyenne fréquence qui représentent les
phénomènes les plus importants et nombreux ne ressortent
pas.

Ce type d’échelle de fréquence est intéressant quand la gamme d’analyse est restreinte. Elle est inadaptée aux
spectres étendus.

100
Représentation d’un spectre en échelles linéaires d’amplitude et logarithmique de fréquence.

Les phénomènes
basses et moyennes
fréquences sont bien
visibles. La HF reste
cependant discernable.

L’échelle logarithmique de fréquence est utilisable sur de grandes gammes de fréquence.

123 – Les échelles d’amplitude :


Représentation d’un spectre en échelles linéaires d’amplitude et logarithmique de fréquence.

Seuls les phénomènes


induisant de fortes
amplitudes sont
visibles.

Tous les pics ont la même importance. Les défauts induisant des faibles amplitudes sont souvent masqués.
L’augmentation du bruit n’est pas mise en évidence.

101
Spectre en échelles logarithmique de fréquence et d’amplitude.
Les pics de faibles importances apparaissent parfaitement. Certains phénomènes qui étaient difficilement repérables en
échelle linéaire d’amplitude sont visibles, notamment les modulations de chocs périodiques. L’importance du bruit de
fond est aussi visible.
L’échelle logarithmique d’amplitude et de fréquence est la représentation de base à utiliser pour visualiser tous les
phénomènes.

13– Indicateur Intermédiaire :


L’analyse spectrale nécessitant des
connaissances, un temps de
traitement et une taille de mémoire
important, des outils intermédiaires
ont été développés. Il s’agit des Valeur de l’amplitude crête dans
indicateurs bandes fines et du spectre la bande fine autour de la
PBC.
fréquence de rotation : Ici, 90 dB
Nous ne développerons ici que
l’indicateur bande fines. Il s’agit de
venir mesurer l’amplitude vibratoire
sur un spectre à une fréquence
donnée.
On défini alors des seuils de la même
manière que pour les indicateurs
globaux.
Ici, on a placé une bande fine autour
de la fréquence de rotation. Le
dépassement des seuils d’alerte ou
de danger de cette bande fine nous
indiquera une élévation de la
composante fondamentale de la
vitesse de rotation, et donc
l’aggravation possible d’un défaut de
balourd.
La difficulté réside alors dans le choix de la largeur de la bande fine. Il ne faut pas qu’elle soit trop petite : risque de
passer à côté du défaut. Il ne faut pas qu’elle soit trop grande : risque de détecter plusieurs défauts.
Les bandes fines sont calculées à partir des spectres. Souvent, les constructeurs conseillent de prendre une largeur de
bande fine égale à ± 2 fois la résolution spectrale.

102
I – MISE SOUS SURVEILLANCE D’UN
PONT ROULANT :
Dans cette entreprise sidérurgique, le pont
roulant est un élément stratégique. Il est
donc décidé de mettre sous surveillance
vibratoire la partie « levage » dont la chaîne
cinématique est donnée ci-après.

TRAVAIL DEMANDE :
1. Déterminer tous les éléments caractéristiques du mécanisme en complétant le tableau (pages 2 & 3)
2. Sur la chaîne cinématique, définir les différents points de mesure

103
Tr / min Hz
Moteur
Fréquence de rotation 710
Fréquence d’alimentation
Fa
2Fa
Fréquence de
synchronisme
Nb de paires de pôles
Glissement
Roulement AV SKF 22222 C
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage
Roulement AR SKF NU 2222E
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage
ACCOUPLEMENT 6 doigts
ARBRE 1
ROULEMENTS AV & AR SKF 24122 C
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage
ARBRE 2
ROULEMENTS AV & AR SKF 24034 C
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage
ARBRE 3
ROULEMENTS AV & AR SKF 23048 C
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage

104
ARBRE 4
ROULEMENTS AV & AR SKF 23052 C
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage
TAMBOUR
ROULEMENT SKF 22238 C
Fréquence de la bague
interne
Fréquence de la bague
externe
Fréquence de l’élément
roulant
Fréquence de la cage
ENGRENEMENT 1/2
Fe
2Fe
3Fe
ENGRENEMENT 2/3
Fe
2Fe
3Fe
ENGRENEMENT 3/4
Fe
2Fe
3Fe

105
II – GROUPE MOTO VENTILATEUR :

Calculer les fréquences suivantes puis les identifier sur le spectre :


Elément Fréquence
Rotation du moteur
Alignement moteur / multiplicateur
Rotation du compresseur
Fréquence de passage des billes sur la piste du
roulement
Effet d’aubes du rotor du compresseur
Engrènement roue / pignon du multiplicateur

106
III – SUIVI D’UNE INSTALLATION :
31 – Surveillance :
Sur un site pétrochimique, les pompes centrifuges font l’objet d’un suivi vibratoire afin de permettre au service
maintenance d’intervenir avant une grave défaillance.
Le suivi se fait selon la fiche ci-dessous.

Les derniers relevés de mesure sont en date du 2/8 et donnent les valeurs suivantes :
Point A : 2,8 mm/s
Point B : 0,8 mm/s

Définir les décisions à prendre par rapport à ce relevé.


32 – Diagnostic du défaut :
Afin de déterminer la cause de cette évolution au point A, l’entreprise réalise un relevé spectral à la date du 2/8 afin de
le comparer à la signature de référence de la pompe.
1. Repérer sur les spectres ci-dessous la fréquence de rotation (23,25 Hz) ainsi que ses harmoniques.
2. D’après la table d’identification donnée, déterminer le ou les défauts ainsi que les interventions de
maintenance à mener.

107
108
Refaire le même travail pour le spectre ci-dessous :

109
110
111
112
1 – Introduction :
11 – Notions de température et de chaleur :
Dans un matériau, les molécules sont agitées
d’un mouvement permanent, à une certaine
vitesse. La température dépend de la vitesse
moyenne de déplacement des molécules. La
chaleur dépend de la vitesse moyenne de
déplacement des molécules ainsi que de leur
nombre (chaleur = énergie).
Au zéro absolu, il n’y a plus d’agitation
moléculaire.
La température d’un corps est une grandeur
physique qui caractérise le niveau énergétique
de ce corps : celle-ci s’exprime en degrés
Celsius (°C) ou en Kelvin (K). L’échelle en
Kelvin est référencée au zéro absolu qui vaut -
273,15°. A cette température, tout corps à une
valeur énergétique nulle.
La Chaleur s’exprime en Joules (J) ou en
calories (cal) avec 1cal = 4,18J.
Un Joule correspond à la quantité de chaleur nécessaire pour élever de 1°C, un gramme d’un corps dont la chaleur
massique est égale à celle de l’eau à 15°C sous pression de 101325 pascals.
Plus un corps à une surface importante, plus son nombre de molécules est important. Donc il rayonne beaucoup plus
de chaleur qu’un corps d’une surface plus faible.
12 – Les transferts de chaleur :
La conduction :
Du côté de la flamme, les molécules s’excitent, bougent de plus en plus rapidement et se cognent avec leurs voisines.
Elles échangent de l’énergie. De proche en proche, l’agitation moléculaire se développe. Le flux de chaleur diffuse.
Dans les solides et les liquides, les molécules sont ordonnées et la distance moyenne entre elles est bien plus faible
que dans un gaz. On comprendra alors que dans un gaz, la conduction soit quasiment nulle.
Exemple en thermographie infrarouge : Surveillance de réfractaire. On observe le transfert de chaleur entre les
briques afin de vérifier d’éventuels problèmes.

La convection :
Le transfert thermique se fait par un milieu « fluide » (ex : air).
Exemple de convection forcée sur un système de ventilation sur la vitre avant d’une voiture.

Le rayonnement :
Tous les corps de l’univers émettent un rayonnement d’ondes électromagnétique. Ce rayonnement se propage à la
vitesse de la lumière. Il ne nécessite pas de milieu matériel. Il existe dans le vide.

113
Exemple : plaque électrique dans une pièce noire :

La plaque est alimentée.


Même si on ne « voit » pas la chaleur émise, on la
« sent » progressivement.
Si la plaque est à la puissance maximum, et si on ne
met pas de casserole dessus, elle va devenir rouge.
Au fur et à mesure que la température augmente, les
caractéristiques du rayonnement changent. Une
caméra de thermographie peut « voir » les
changements imperceptibles à l’œil !
13 – Mesure de température et thermographie infrarouge :
La température se mesure à l’aide de thermomètres, par contact ou par rayonnement.
La mesure par contact nécessite, comme l’indique la définition, un contact entre l’élément dont on veut mesurer la
température et l’appareil de mesure.
La mesure au moyen de thermomètres à rayonnement ne nécessite aucun contact : ces appareils mesurent des
rayonnements émis par tout corps dont la température est supérieure à -273,15°C ou zéro K : ces rayonnements ont
des longueurs d’onde qui se situent dans l’infrarouge et sont proportionnels à la température des corps.
Un calculateur intégré au thermomètre convertit les rayonnements en températures sur la base d’un étalonnage
référentiel spécifique réalisé en laboratoire.
Le thermomètre à rayonnement se compose en fait d’un radiomètre et d’un calculateur : le radiomètre mesure la
puissance de rayonnement émis et le calculateur la transcrit en températures.
Si on associe à l’observation d’une même scène thermique un système radiométrique de captation spatiale adjoint à un
calculateur qui à la fois convertit les rayonnements infrarouges en points lumineux et en températures, on obtient une
caméra infrarouge. Cet équipement permet de visualiser et de quantifier les températures d’une scène thermique : cette
technique est appelée « Thermographie Infrarouge ».
La théière contient encore du thé à 50% de sa
capacité. Ce thé est toujours chaud : il émet
du rayonnement infrarouge qui échauffe la
porcelaine.
La théière rayonne à son tour : cette émission
est directement influencée par la source de
chaleur initiale. La caméra infrarouge mesure
tous les rayonnements émis par la surface du
récipient et les restitue sous forme de
thermogramme : cette image thermique est
composée par des niveaux de couleurs ou de
gris (thermogramme N&B), lesquels sont en
corrélation avec les niveaux de T° mesurés
(échelle des températures).
Dans ce cas, le thermogramme nous indique
le niveau de thé restant ainsi que sa situation
thermique avant consommation.

114
14 – La caméra infrarouge :
L’énergie infrarouge est similaire à la lumière, excepté qu’elle n’est pas visible à l’œil. L’énergie visible du soleil stimule
l’œil. L’énergie infrarouge du soleil est absorbée (par la peau par exemple) : les caméras de thermographie mesurent
cette énergie.

Tous les objets émettent du rayonnement infrarouge. La quantité émise est d’autant plus grande que la température est
élevée. Seuls les objets très chauds émettent du rayonnement « visible » à l’œil. Les caméras de thermographie ne
sont pas sensibles dans le visible. Une caméra de thermographie reçoit et mesure un flux thermique infrarouge d’une
façon similaire à l’impression que laisse un radiateur.

Les couleurs ne sont qu’apparence. Les températures « colorisées » ne sont


qu’apparence.

La caméra infrarouge capte au travers d’un milieu transmetteur (ex : l’atmosphère) les rayonnements émis par une
scène thermique. Le système radiométrique convertit la puissance de rayonnement en signaux numériques ou
analogiques : ceux-ci sont transcrits en température par le calculateur et transformés en points lumineux sur un écran.
L’image ainsi obtenue s’appelle « Thermogramme ».

115
2 – LOIS DU RAYONNEMENT INFRAROUGE :
21 – Le spectre électromagnétique :
La lumière visible, les ondes radio, TV, les rayons X sont des rayonnements électromagnétiques.

Le domaine visible s’étend des longueurs d’onde allant de 0,4 à 0,8 µm.
La bande infrarouge s’étend de 0,8 à 1000 µm et peut-être divisée en plusieurs sections :
• l’infrarouge proche : 0,8 à 3 µm ;
• l’infrarouge moyen : 3 à 6 µm ;
• l’infrarouge éloigné : 6 à 15 µm ;
• l’infrarouge lointain : 15 à 1000 µm.
En thermographie infrarouge, on travaille généralement dans une bande spectrale qui s’étend de 2 à 15 µm et plus
particulièrement dans les fenêtres 2-5 µm et 7-15 µm.
Il faut savoir que classiquement, les applications de la thermographie infrarouge s’effectuent dans un milieu ambiant
naturel ou atmosphère naturelle : celle-ci constitue un milieu semi-transparent (ou « hublot ») entre les rayonnements
émis par un corps quelconque dont on veut mesurer la température et la caméra thermique. Ce milieu transmet donc
en partie le rayonnement émis par une scène thermique.
Pour optimiser la qualité d’imagerie et de
mesures thermiques, il faut que la
transmission des rayonnements
infrarouges soit optimale.
Dans ce contexte, les fabricants de
matériels infrarouges ont analysé la
transmission atmosphérique des ondes
infrarouges et ont relevé 2 bandes
spécifiques où la transmission est
maximale mais non optimale
(transmission inférieure à 100%) :
• La bande 2-5 µm appelée ondes
courtes (SW, Short Waves).
• La bande 7-15 µm appelée ondes
longues (LW, Long Waves).
C’est principalement la vapeur d’eau et le
gaz carbonique contenus à l’état gazeux
dans l’atmosphère naturelle qui atténuent
les rayonnements.
22 – Lois théoriques du rayonnement :
Le corps noir est le corps de référence dans la théorie du rayonnement infrarouge : celui-ci est capable d’absorber tout
rayonnement incident quelque soit sa longueur d’onde et d’émettre à son tour des radiations à toutes les longueurs
d’onde. Ce corps référentiel cède à l’environnement l’énergie captée jusqu’à l’établissement d’un équilibre

116
thermodynamique : le corps noir est un radiateur idéal.
Trois lois définissent le rayonnement d’un corps noir
:
• la loi de Planck ; 2π hc 2
W λb = 5 hc / λ kT x10−6 Watts / m 2 µ m 
( )
• la loi de Wien ;
• la loi de Stefan-Boltzmann. λ e −1
Max Planck a calculé les flux de puissances
électromagnétiques émis par un corps noir.
• ʎ : Longueur d’onde en m;
• Wʎ : luminance ou flux de puissance émis par un corps noir à la longueur d’onde ʎ en W/m2µm;
• c : Vitesse de la lumière = 3x108 m/s ;
• h : Constante de Planck = 6,62x10-34 J.s ;
• k : Constante de Boltzmann = 1,38x10-23 J/K;
• T : Température absolue du corps noir en Kelvin.
Ces formulations mathématiques complexes sont représentées par les courbes ci-dessous. Les longueurs d’ondes sont
exprimées en micromètres et les puissances de rayonnement sont exprimées en luminances (nb : l’échelle des
luminances est logarithmique).

Ce graphe montre que :


• Le spectre d’émission du corps noir est continu.
• La puissance électromagnétique émise croît avec la température du corps noir.
• L’émission de rayonnement passe par un maxima : ce maxima se produit à des longueurs d’onde de plus en plus
faibles lorsque la température du corps noir croît.
• A partir d’une température de l’ordre de 520°C, l’émission du rayonnement infrarouge apparaît dans le domaine
spectral visible (0,4-0,8µm) : les objets chauffés au moins à cette température deviennent donc visibles par l’œil
humain de par leur couleur rouge sombre. En-dessous de cette température, on ne « voit » pas les
températures car l’émission de rayonnement se fait au-delà de la bande spectrale sur laquelle sont calibrés les
yeux. Dès lors, pour visualiser des corps dont la T° est inférieure à 520°C, il faut utiliser des appareils dont le
seuil de détection est inférieur à celui de l’œil humain.

117
Par dérivation de la loi de Planck, on obtient
la loi de Wien :
• ʎ max Longueur d’onde à laquelle se
produit l’émission maximale ;
• T Température absolue du corps en
Kelvin.

La courbe définie par cette équation est


représentée en pointillé sur la figure ci-
contre.
Celle-ci est modélisée par les maxima des
courbes de Planck. Elle indique que lorsque
la température croît, le maximum d’énergie
émis se déplace vers les faibles longueurs
d’onde.
Plus simplement, cette loi exprime le fait
que la couleur d’un objet chauffé à haute
température varie du rouge sombre au
blanc.
Par intégration de la loi de Planck, on
obtient la loi de Stefan-Boltzmann. Celle-ci
détermine le flux de puissance total émis
par un corps noir.

σ Constante de Stefan-Boltzmann = 5,7x10-


12 (Watts/cm2/K4);
T Température absolue du corps noir en
Kelvin.
Le flux de puissance total émis par un corps noir est proportionnel à la quatrième puissance de sa température absolue.
Pour information, le flux de puissance émis par le soleil dans le spectre visible n’est que de 25% du flux total.
On peut aussi démontrer que l’énergie comprise entre ʎ = 0 et ʎ = ʎmax représente seulement 25% du total. Il y a donc
75% de l’autre côté du maximum.

23 – Bilan radiatif :
Le corps noir est un corps parfait au sens physique : il émet un maximum de puissance de rayonnement à une
température donnée.
La réalité est toute autre : en effet les corps réels rencontrés ne sont généralement pas des radiateurs idéaux.
L’objet réel émet toujours moins de rayonnement que le corps noir, quelle que soit la température ou la longueur
118
d’onde. Ainsi, les lois décrites ne sont applicables qu’avec certaines corrections.
On considère un objet placé dans le vide avec :
• Ri Rayonnement incident en provenance d’un autre
élément ;
• Ra Rayonnement absorbé par l’objet ;
• Rt Rayonnement transmis par l’objet ;
• Re Rayonnement émis par l’objet ;
• Rr Rayonnement réfléchi par l’objet.
L’objet reçoit du rayonnement incident Ri en
provenance d’une source quelconque.
Ri est directement restituée en partie au milieu
extérieur par réflexion : c’est le rayonnement réfléchi
Rr.
L’objet absorbe une partie de Ri : c’est le rayonnement
absorbé Ra.
Cette énergie absorbée échauffe donc l’objet jusqu’à obtenir un équilibre thermodynamique avec le milieu extérieur :
l’objet finit alors par émettre autant de puissance qu’il n’en absorbe.
Le rayonnement absorbé est donc égal au rayonnement émis : Ra = Re.
L’objet transmet une partie de Ri : c’est le rayonnement transmis Rt.
Bilan des rayonnements :
Ri = Rr + Ra + Rt
Avec Ra = Re Ri = Rr + Re + Rt 1 = {Rr / Ri} + {Re / Ri} + {Rt / Ri}
• {Rr / Ri} Facteur de réflexion « r » ; τ Transmission
• {Re / Ri} Facteur d’émission (ou émissivité) « ε » ;
• {Rt / Ri} Facteur de transmission « t » ;

ε R
Emission Réflexion Energie
incidente
Cette formulation est l’équation de base du bilan radiatif. C’est la loi de Kirchhoff.
24 – Bilan radiatif du corps noir :
Le corps noir, comme défini ci-dessus, est un radiateur idéal : il absorbe intégralement tous les rayonnements incidents
et les restituent complètement au milieu environnant :
• Le facteur de réflexion est nul : r = 0 ;
• Le facteur de transmission est nul : t = 0 ;
• L’émission est maximale : ε = 0.
25 – Bilan radiatif du corps réel :
En thermographie infrarouge classique, on s’intéresse principalement à la visualisation et à la quantification de T° de
surface de divers objets dits « opaques » aux rayonnements infrarouges captés par la caméra thermique.
Le facteur de transmission est nul : t = 0

Remarques :
Le miroir parfait réfléchit intégralement tous les rayonnements incidents Le facteur d’absorption ou d’émission
est nul : ε = 0.
Certains objets transmettent en partie le rayonnement incident : c’est le cas des gaz (atmosphère) ou des hublots. Ces
corps semi-transparents sont des milieux de propagation des rayonnements IR que l’on retrouve généralement entre
l’objet opaque sur lequel on désire réaliser une mesure de température et la caméra thermique.

119
Pour les gaz, le facteur de réflexion est nul : r = 0.

Le vide est le milieu parfaitement transmetteur :

Notre environnement est composé d’objets qui émettent tous du rayonnement IR. Parmi ceux-ci, il existe des sources à
très hautes températures telles que le soleil, les lampes à incandescence, etc.
Ces sources, principalement d’éclairage, émettent des rayonnements qui sont partiellement réfléchis par chaque objet :
l’œil humain voit ainsi ces objets grâce aux rayonnements qu’ils réfléchissent dans le spectre visible.
La nuit ou lorsque nous éteignons la lumière, il n’y a plus de source d’émission de rayonnements assez puissante que
pour percevoir les objets situés dans notre environnement. Dans ce cas, seuls les éléments portés à plus de 520°C
sont vus par l’œil humain.
26 – Remarque importante :
En thermographie infrarouge, l’émission de rayonnement par un
corps quelconque est le facteur correctif de mesure essentiel.
Le flux de puissance total émis par un corps réel pourrait s’assimiler à :

• ε Emissivité du corps réel ;


• σ Constante de Stefan-Boltzmann = 5,7.10-12 (Watts/cm2/K4);
• T Température absolue du corps noir en Kelvin.
Seulement, l’émissivité d’un corps réel n’est pas systématiquement constante dans tout le spectre électromagnétique,
ce qui rend aléatoire l’application de la formule de Planck.
En thermographie infrarouge on distingue trois types de corps dont l’émissivité respective a un comportement particulier
dans le spectre de la lumière :
• le corps noir : Le corps noir est le radiateur idéal : son émissivité est maximale et constante à toutes les
longueurs d’ondes : ε = 1 = Constante.
• le corps gris : Le corps gris est un objet dont l’émissivité n’est pas maximale mais « constante à toutes les
longueurs d’onde » : ε < 1 = Constante.
• le corps sélectif ou radiateur sélectif.
En thermographie infrarouge classique, on considère que les objets réels sur lesquels on réalise de l’image et de la
mesure de T° sont des corps gris.
Cette hypothèse tient compte du fait que les bandes spectrales ou fenêtres infrarouges utilisées par les caméras
thermiques sont étroites par rapport au spectre électromagnétique de la lumière.
Le radiateur sélectif est un corps dont l’émissivité n’est pas maximale et varie avec la longueur d’onde : ε < 1 =
Variable.
Courbe d ’émission d ’un corps noir
Courbe d ’émission d ’un corps gris, à la même température
Courbe d ’émission d ’un corps sélectif, à la même température

120
3 – Grandeurs d'influence pour la mesure de T° par thermographie :
31 – Cas général de mesure de T° par thermographie IR :
Mesure de la température d’un corps réel « opaque » dans une atmosphère classique à une distance d.

La caméra capte tout le rayonnement qu’elle « voit » :


• Une partie du rayonnement émis par l’objet.
• Une partie du rayonnement émis par une source environnante et partiellement réfléchi par l’objet. Chacune de
ces fractions est transmise au travers de l’atmosphère, donc atténuée de par la transmission atmosphérique
non optimale.
• Le rayonnement émis par l’atmosphère.
Le système radiométrique doit corriger le rayonnement capté afin de calculer avec précision la valeur de la température
du corps. Cette correction tient compte d’une série de paramètres influant directement la mesure exacte de
température. Ces paramètres sont appelés « Grandeurs d’influence ».
32 – Le facteur d’émissivité :
L’émissivité d’un corps représente l’aptitude de ce corps à émettre du rayonnement infrarouge.
C’est le rapport entre le flux de puissance émis à une longueur d’onde par un corps réel porté à une température T et le
flux de puissance qui serait émis à la longueur d’onde par un corps noir porté à la même température T.

• Wʎ Flux de puissance émis par un corps réel à la longueur d’onde ʎ ;


• Wʎo Flux de puissance émis par un corps noir à la longueur d’onde ʎ.
• Les corps noir et réel sont à la même température.

121
Facteurs d’influence de l’émissivité :
Le matériau constituant le corps et son état de surface : plus la surface est rugueuse ou oxydée, plus l’émissivité est
élevée.
La longueur d’onde : l’émissivité d’un corps est sélective : comme on travaille dans des bandes spectrales étroites, un
objet sélectif peut-être assimilé à un corps gris dont l’émissivité est constante.
La direction de l’émission : l’émission du rayonnement infrarouge varie avec l’angle d’observation d’une même surface
d’un corps. L’émissivité reste constante jusqu’à plus ou moins 50° par rapport à la normale : au-delà, celle-ci chute
fortement.
La température du matériau : la variation de l’émissivité est due dans ce cas à la modification de l’état de surface du
matériau par la température.
Variation de l’émissivité en fonction de l’angle Variation de l’émissivité en fonction de l’état de surface du
d’observation matériau : ex du

10° 20°
1.0
30°
.9
40°
.8
.7 50°
.6
60°
.5
.4
70°
.3
.2 80°
.1
0
cuivre
Détermination du facteur d’émissivité :
Nous n’aborderons pas dans ce paragraphe les méthodes de déterminations pratiques de l’émissivité de corps réels du
fait de leur complexité. Il faut savoir que la quantification précise de l’émissivité d’un matériau est une opération
particulière qui est généralement réalisée en laboratoire à l’aide de matériel spécifique.
Ces mesures spéciales contribuent à l’élaboration d’abaques classiquement utilisés en thermographie infrarouge. On
trouve ainsi dans la littérature technique des tables d’émissivités de divers matériaux : celles-ci sont approximatives et
peuvent-être utilisées, avec précaution, afin de dégrossir les calculs de température.
Il existe cependant quelques méthodes pour déterminer l’émissivité d’un matériau :
• Tableau de valeur : bonne approximation mais
attention aux conditions de validité, à utiliser avec
précaution (cf. exemples page
suivante) ;Expérience : pas de problème sur
câbles, manchons, isolants, plastiques,
caoutchouc, délicat sur métaux polis (mieux s’ils
sont oxydés) ;
• Peinture de « référence » : méthode par
approximations successives ;Thermocouple à
contact et Sonde PT100 de référence : délicat,
mais peut donner une bonne approximation.

122
33 – Le facteur de réflexion {r} & la température environnante {T°env} :
L’objet réel réfléchit en partie du rayonnement en provenance de sources de chaleur environnantes.
La quantité de rayonnement réfléchi dépend de la quantité d’énergie émise par la source auxiliaire et le coefficient de
réflexion de la surface de l’objet.
Dans le cas général de mesure par thermographie, le facteur de réflexion vaut :

La quantification du rayonnement émis par la source « parasite » est assimilée à celui qui serait émis par un radiateur
idéal ou corps noir : on mesure donc à l’aide du même appareil de mesure infrarouge la température de la source
environnante en considérant donc son émissivité égale à 1.
Cette température appelée température environnante intègre ainsi dans le calculateur de la caméra infrarouge le
rayonnement qui se réfléchit partiellement sur la surface de l’objet.
34 – La température atmosphérique T°{atm} et la distance de mesure {d} :
L’atmosphère dans laquelle on réalise la thermographie émet des rayonnements infrarouges qui perturbent également
la mesure de la température d’un corps.
Les rayonnements émis par l’atmosphère doivent être déduits par le calculateur de la caméra thermique : ceux-ci
123
dépendent de la température atmosphérique et de son émission.
L’atmosphère est un milieu semi-transparent aux rayonnements infrarouges : celle-ci propage tous les rayonnements
en provenance de l’objet réel (émis & réfléchis).
Cette propagation n’est pas optimale et est régie par le facteur moyen de transmission atmosphérique.
Ce facteur, assimilé aux fenêtres spectrales utilisées par les caméras thermiques, dépend de la distance de mesure
entre la caméra et l’objet et du taux d’humidité atmosphérique.
Le graphe ci-dessous donne les courbes du facteur moyen de transmission de l’atmosphère en fonction de la distance
de mesure, pour une atmosphère à 50% d’humidité relative.

35 – Récapitulatif des grandeurs d’influence :


1. {ε} ou Emissivité de surface du corps réel. L’émissivité détermine le facteur de réflexion du corps : r = 1 - ε.
2. {T°env} ou Température environnante. Celle-ci se réfléchit partiellement sur la surface du corps.
3. {T°atm} ou Température atmosphérique.
4. {d} ou distance de mesure entre l’objet et la caméra. Celle-ci détermine suivant la bande spectrale utilisée le facteur
moyen de transmission atmosphérique dans des conditions d’humidité relative déterminées : soit τatm. Le paramètre
de transmission atmosphérique détermine l’émissivité de l’atmosphère et autorise le calcul du rayonnement
atmosphérique à déduire : εatm = (1 - τatm) (pour les corps gazeux semi-transparents).
4 – LA CAMERA INFRAROUGE :
La caméra infrarouge moderne ressemble extérieurement de plus en plus à un caméscope. Si son aspect s’assimile à
celui d’une caméra vidéo normale, son mode de fonctionnement en est tout différent.
41 – Les détecteurs :
Il existe 2 types de détecteurs :
• Les détecteurs thermiques : ceux-ci sont basés sur la détection d’une augmentation de température au niveau du
détecteur. La variation de température fait varier l’une des propriétés physiques du matériau détecteur
(résistance électrique par exemple) et provoque une variation du signal délivré. Ce type de détecteur a un
temps de réponse relativement long.
• Les détecteurs quantiques : ceux-ci sont constitués de semi-conducteurs où l’absorption d’un photon (particule
d’énergie lumineuse) provoque la libération ou le transfert d’électrons. Ce type de détecteur à une sensibilité
élevée et un temps de réponse extrêmement faible. On utilise principalement les détecteurs quantiques dans
les appareils de thermographie travaillant dans les bandes spectrales 2 à 5µm et 8 à 13µm (pour les raisons
définies préalablement).
42 – Les systèmes de mesure des caméras infrarouges :

124
La caméra à mono
détecteur ou système à
balayage spatial : comme
le nom l’indique, l’appareil
est muni d’un détecteur
unique couplé à un
système optomécanique à
balayage horizontal (ligne)
et à balayage vertical
(trame). L’addition des
deux balayages à des
fréquences spécifiques
autorise l’analyse d’une
scène thermique par
l’image successive du
détecteur ou de la surface
élémentaire {dS}.

La caméra à plan focal :


celle-ci est équipée d’une
matrice de détecteurs.
L’image de chaque
détecteur couvre de façon
permanente une surface
élémentaire dans le champ
scanné. La scène
thermique est ainsi
quadrillée et analysée
simultanément en tout
point par le « détecteur
matriciel ». On peut trouver
sur le marché des caméras
à plan focal avec une
matrice de 240x320
éléments détecteurs.

Dans chaque cas, les détecteurs influencés par les rayonnements émis par une scène thermique délivrent un « thermo
signal » ou réponse thermique individuelle : celle-ci est amplifiée dans une unité de traitement et ensuite convertie en
points lumineux sur un écran.
Généralement, l’intensité lumineuse délivrée sur l’écran est en corrélation avec l’intensité des rayonnements
infrarouges captés : la visualisation d’une scène thermique est donc réalisée par transcription des rayonnements
électromagnétiques suivant une échelle de gris ou de couleurs dont les intensités lumineuses varient de manière
proportionnelle avec les intensités du rayonnement infrarouge.
La quantification de l’intensité thermique en température est possible en chaque point de l’image grâce à l’étalonnage
du système de détection et au calculateur intégrant les grandeurs d’influence.
L’étalonnage d’une caméra infrarouge est réalisé en laboratoire sur un corps noir référentiel (Emissivité égale à 1) : il
consiste à établir la relation entre la température et la puissance de rayonnement ou luminance captée par le détecteur.

125
43 – Exemple : Thermacam E45 :

126
127
5 – Principe et méthode, cas des équipements électriques :
51 – Principe de détection :
Tout équipement conducteur parcouru par un courant électrique s’échauffe : c’est l’effet Joule (Physicien anglais (1818-
1889) qui étudia la chaleur dégagée par les courants électriques dans les conducteurs) :
Formule de Joule :

• W Energie calorifique dissipée en Joule(s) ;


• R Résistance électrique de l’équipement en ohm(s) ;
• I Courant électrique en ampère(s) ;
• t Temps de passage du courant en seconde(s).
Loi de Joule :
Dans un équipement conducteur parcouru par un courant, la quantité d’énergie calorifique dissipée par échauffement
est proportionnelle à la résistance électrique de l’équipement au carré du courant et au temps pendant lequel passe ce
courant.
L’appareillage électrique en charge (parcouru par des courants) s’échauffe donc jusqu’à ce que l’énergie calorifique
produite par les courants soit égale à l’énergie dissipée dans l’espace environnant : il y a dans ce cas équilibre
thermodynamique.
Une installation électrique est composée de nombreux appareillages par lesquels transitent des courants. Ces appareils
sont reliés entre eux par des éléments conducteurs : l’ensemble des liaisons génère des milliers de connexions.
• Dans des conditions identiques de fonctionnement, les équipements et connexions similaires doivent avoir le
même comportement thermique.
• Dans des conditions spécifiques de fonctionnement, l’appareillage électrique doit se comporter thermiquement
dans des limites nominales déterminées.
Dans chaque cas, la thermographie infrarouge met en évidence des anomalies de comportement thermique par des
mesures de températures relatives ou absolues.
Ces anomalies plus communément appelées « points chauds » identifient des défauts ou dégradations locales par des
élévations anormales de température.
Les points chauds trouvent généralement leur origine suite à la variation de la résistance de passage du courant.
Les défauts thermiques les plus souvent détectés sont (par ordre décroissant) :
• Problème de serrage.
• Usure, oxydation ou corrosion de contacts.
• Positionnement incorrect de contacts mobiles.
• Problème de calibration de l’appareillage.
• Déséquilibre des charges entre phases.
• Ventilation insuffisante de tableaux ou locaux électriques.
• Problème de conception des installations (Problèmes d’induction).

128
52 – Méthode d’inspection :
L’opérateur est muni d’une caméra infrarouge classique, portable, avec une résolution thermique faible afin de mettre
en évidence de faibles écarts de température.
Les installations électriques doivent impérativement fonctionner en régime permanent sans nécessairement disposer de
la pleine charge : tout le système doit-être en équilibre thermodynamique.
Les équipements uniquement sous tension sont incontrôlables par thermographie : seuls les courants génèrent les
échauffements à analyser.
L’inspecteur analyse les composants des cellules haute-tension (HT), basse-tension (BT), coffrets et tableaux
électriques divers.
Le contrôle par infrarouge est réalisé en trois temps :
1. La visualisation du comportement thermique global des éléments d’un même tableau : celle-ci met en
évidence des points dont les températures sont plus élevées.
2. L’opérateur doit interpréter la scène thermique afin de différencier les échauffements normaux (bobines de
contacteurs, résistances, selfs, transformateurs) des échauffements anormaux : ces derniers sont facilement
identifiables par comparaison entre composants identiques fonctionnant dans des conditions similaires. Cette
opération implique une connaissance « certaine » de l’appareillage électrique ainsi que de bonnes notions
pratiques dans l’application de la thermographie infrarouge :
• beaucoup de composants électriques ont une émissivité faible (cuivre, aluminium), donc un pouvoir
réfléchissant très élevé. L’opérateur ne doit pas confondre un point anormalement chaud avec « un
point chaud fantôme » résultant de la réflexion d’une source de chaleur environnante, voire l’image
thermique de l’analyste sur le composant.
• Le technicien doit assurer constamment son interprétation en éliminant au maximum les phénomènes
de réflexion par modification de l’angle d’observation de la caméra infrarouge ou par masquage des
sources de chaleur environnantes.
3. Pour la quantification des températures des points chauds, l’opérateur cherchera toujours à réaliser la mesure
des points chauds sur des parties de bonne émissivité (boulons oxydés, isolants) afin d’éliminer la prise en
compte des rayonnements perturbateurs réfléchis et ainsi diminuer les temps d’analyse. Les mesures dans
ce cas sont dites « relatives » : la mise en évidence d’un point chaud se fera par comparaison des
températures mesurées sur l’élément défectueux et sur un élément similaire fonctionnant dans des conditions
identiques (élément de référence). C’est la différence de température ou dT° qui caractérise le défaut
thermique : si l’émissivité intégrée n’est pas tout à fait correcte, l’erreur de mesure se vérifie à la fois pour le
point chaud et pour le point référentiel, leur différence reste sensiblement la même. Dans le cas ou le
technicien analyste ne peut comparer deux éléments, il doit réaliser des mesures dites « absolues » : cette
technique nécessite la prise en compte de toutes les grandeurs d’influence en vue de la quantification des
températures réelles ou vraies. Cette méthode s’applique généralement sur des équipements fonctionnant
au-dessus de leurs limites nominales définies par les fabricants d’équipements électriques (appareillage sous
calibré, installation non ventilée, etc.).
53 – Conditions de mesure :
Résolution spatiale : La résolution spatiale
est la capacité à mesurer avec précision la
température de petits objets. Il faut que
l’objet soit plus gros que ce qu’il est
nécessaire pour le voir.
La mesure est affectée par la taille des
objets visés. Les facteurs d’influence sont
:
• La matrice (nombre de pixels) ;
• L’objectif et la qualité du système
optique ;
• La distance.
Un objet se projette sur le capteur
matriciel, en une taille effective.

Cas idéal : image de l’objet de même taille que le détecteur et Cas réel : image de l’objet de même taille que le
alignement parfait. détecteur mais alignement imparfait.
Réponse à 100% sur le détecteur I. Réponse correcte sur aucun pixel Pas de
129
mesure exacte.

Conclusion : L’objet doit être assez gros pour couvrir au


moins un pixel complètement.
• Théorie : 2 x 2.
• Réalité : 3 x 3 proposé chez FLIR.
Distance de Plus petit objet
travail mesurable

300 mm 2,5 x 2,5 mm2

500 mm 4,2 x 4,2 mm2

750 mm 6,25 x 6,25 mm2

1000 mm 8,3 x 8,3 mm2

2000 mm 16,6 x 16,6 mm2

Règle pratique: On regarde le viseur de la caméra. Si dans


cette surface, la température est homogène, la taille de l’objet
est correcte.

Angle de visée : l’émissivité variant avec l’angle de visée, il est important pour des mesures normales sur des
composants ayant une bonne émissivité de ne pas dépasser un angle de 45 °

130
Effet du vent : Le vent « refroidit » les défauts. La correction dépend donc de la vitesse du vent (entre 1 et 8 m/s). Ce
phénomène est valable en extérieur et augmente inversement à l’épaisseur des objets.

La réflexion : Un corps réel n’est pas un corps noir. Il n’émet qu’une fraction de ce qu’émettrait un corps noir porté à la
même température : c’est l’émissivité. Considérant la loi de Kirchhoff, un corps réel réfléchit donc également de
l’énergie provenant de son environnement. Ceci constitue le problème majeur des mesures en extérieur ou en
environnement rayonnant.
Exemple de réflexion de l’opérateur sur une connexion électrique :

54 – Classement des défauts :


Conditions de température absolue :
Si le composant peut être touché par un opérateur habilité, sa température de surface ne doit dépasser :
• sans précaution, le seuil continu de douleur soit environ 60°C,
• avec précaution, le seuil limite fixé par le constructeur.
• ainsi que en électrique, la température du composant ne doit normalement pas excéder l’ambiance de +40°C.

131
Conditions d’écart de température.
La température d’un composant supposé défectueux est comparée avec celle d’un composant sain identique travaillant
dans des conditions similaires.

Si on admet qu’un défaut est de nature résistive, l’écart brut de température doit être compensé en fonction du carré de
la charge.
DT effectif = DT brut x (Inominal / Imesuré)2
L’écart effectif est à considérer pour la classification du défaut
Exemple : on mesure un écart de 9°C entre deux phases d’un disjoncteur de calibre 100 ampères, alors que le courant
mesuré est de 30 ampères. Considérant l’écart brut (9°C), il ne s’agit pas d’un défaut.
DT effectif = DT brut x (Inominal / Imesuré)2
DT effectif = 9 x (100 / 30 )² = 100 °C
Défaut critique: Il faut intervenir immédiatement.
Sans considération de la charge, on aurait pu croire à un défaut mineur.
55 – Le rapport d’analyse :
Le dossier synthèse doit contenir la liste des installations diagnostiquées avec leur mode de fonctionnement. Les
équipements présentant des anomalies thermiques sont identifiés textuellement et visuellement par une photo
classique et un thermogramme de la scène thermique où se situe le point chaud. Ceux-ci sont complétés par les
conditions et les résultats des mesures, les causes probables des défaillances et les interventions correctives
recommandées. Ces interventions sont suggérées dans certains délais établis sur base de la gravité des anomalies
thermiques. La gravité d’un défaut dépend principalement pour l’opérateur des différences de températures mises en
évidence.
Néanmoins, de faibles écarts de températures peuvent-être très significatifs : ceux-ci dépendent du type d’équipement,
de ses conditions d’exploitation et de sa « hiérarchie technique » au sein des installations. Dans ce contexte, l’ultime
décision de réparer les équipements défectueux doit-être prise par le personnel responsable des installations.
56 – Avantages de l’analyse infrarouge des installations électriques :
• Contrôle Non Destructif (CND).
• Technique de contrôle « on stream » : les installations fonctionnent normalement pour la réalisation de la
thermographie.
• Analyse sans contact sur des équipements soumis à des contraintes non maximales.
• Rapidité & Précision du diagnostic des installations.
• Mesures fiables de par la précision des scanners IR modernes : sensibilités accrues.
• Sécurité d’analyse : visualisation et quantification des températures avec respect des distances de sécurité.
• Maintenance conditionnelle : interventions uniquement sur les éléments défectueux repérés par l’analyse
infrarouge.
Conséquences :
• diminution des frais directs d’entretien;
• augmentation de la fiabilité des installations.
• Maintenance préventive : prévention d’anomalie potentielle avec optimalisation de l’évaluation de la gravité des
défauts par adaptation de la fréquence d’analyse (suivis évolutifs, préventions des dégradations, ...).
• Coût peu élevé (proportionnellement aux coûts d’entretien classique et aux coûts d’arrêt de production).

132
EXPLOITATION D’UN THERMOGRAMME :
Dans une entreprise de sidérurgie la fonte est élaborée
dans des hauts fourneaux. L'obtention de la température
élevée, nécessaire pour la réduction du minerai de fer,
est facilitée par un apport important d'air chaud. Des
réchauffeurs d'air ou cowpers, alimentent par des
conduites la ceinture des tuyères d'injection.
Entre deux arrêts programmés pour révision, la
thermographie infrarouge est utilisée comme un outil de
maintenance préventive conditionnelle pour détecter les
défauts des garnitures réfractaires notamment sur les
conduites reliant les cowpers aux tuyères d'injection.
L'exploitation des thermogrammes, véritables cartes des
températures issues de la thermovision, renseigne sur
l'état de la conduite : un point chaud correspond
généralement à une amorce de fissuration qui peut, en
fonction de sa gravité, déclencher une intervention
consistant à injecter du béton réfractaire.
Chaque conduite est divisée en quatre zones Z1, Z2, Z3
et Z4 (cf. figure ci-dessous) visitées régulièrement avec
une périodicité de contrôle thermographique qui dépend
des dernières températures maximales relevées. Les
valeurs de ces températures sont reportées sur un
graphique permettant de suivre, par zone, leur évolution.

Pour une conduite donnée, le


dernier thermogramme représenté
ci-contre précise les zones
d'échauffement avec leurs
températures maximales.
Travail à faire
Reporter sur le graphique ci-
contre les valeurs de ces
dernières températures
maximales relevées.
Expliquer pourquoi, entre le
01/08 et le 01/09, il y a eu 4
visites.
Définir pour chacune des zones
de la conduite les actions à
entreprendre qui peuvent être :
• une nouvelle périodicité de visite,
• une intervention immédiate.

133
ANALYSE DE RAPPORTS :
But du contrôle par thermographie infrarouge :
Le contrôle des installations électriques par thermographie infrarouge a pour objectif de déceler et rechercher les
causes d'échauffements anormaux et/ou variations excessives d'échauffement qui pourraient entraîner :
• une dégradation des matériels considérés,
• un court-circuit,
• un début d'incendie
• un déclenchement intempestif de matériels et/ou d'installations et d'équipements associés,
• Un arrêt de production.
Ce contrôle, effectué dans un cadre réglementaire par une société extérieure, apporte les éléments de décisions
permettant une intervention corrective et/ou préventive adaptée sur les installations et matériels ainsi identifiés.
Le contrôle à réaliser est d'abord qualitatif (recherche de points chauds). En cas de découverte d'anomalie, la
quantification (valeur de l’échauffement) devra permettre d'évaluer les degrés d'urgence (risques) et de définir les
interventions, correctives et/ou préventives, nécessaires.
Le rapport de thermographie :
Ce document est la synthèse du contrôle effectué par le contrôleur sur le site .Le rapport est composé d'une liste
récapitulative des installations électriques à contrôler, établie par le client.
Cette liste est remplie par le contrôleur de la manière suivante :
• Aucune anomalie constatée sur les équipements contrôlés, la mention RAS (Rien A Signaler) est stipulée.
• En cas d’anomalies, chaque point d'échauffement décelé fait l'objet d'une fiche spécifique. Cette fiche contient les
valeurs mesurées et les conditions de fonctionnements relevées au cours du contrôle, les défauts et causes
probables des échauffements ainsi que les actions correctives préconisées .Elle est également imagée par une
photo de la scène thermique ainsi qu'une photo numérique permettant de localiser plus facilement le ou les
défauts à corriger.
• Chaque défaut constaté est associé à un degré de priorité d'intervention allant de 1 à 4 :
o Priorité 1 : Action immédiate
o Priorité 2 : Action à réception du rapport (3 semaines)
o Priorité 3 : Action sous 3 mois
o Priorité 4 : Matériel ou installation à surveiller
Les défauts constatés et les actions préventives et/ou correctives spécifiés pourront faire l'objet de mesures
complémentaires ou de décisions d'interventions relevant de la responsabilité du client.
Compléments :
Si le composant peut être touché par un opérateur habilité, sa température de surface ne doit dépasser :
• sans précaution, le seuil continu de douleur soit environ 60°C,
• avec précaution, le seuil limite fixé par le constructeur.
• ainsi que en électrique, la température du composant ne doit normalement pas excéder « l’ambiance +40°C ».
La température d’un composant supposé défectueux est comparée avec celle d’un composant sain identique travaillant
dans des conditions similaires.
Si on admet qu’un défaut est de nature résistive, l’écart brut de température doit être compensé en fonction du carré de
la charge.
DT effectif = DT brut x (Inominal / Imesuré)2
L’écart effectif est à considérer pour la classification du défaut
Ecart Sévérité Priorité
< 10°C Cela peut être un défaut. Dans l’incertitude, c’est à surveiller. 4
10 à 20°C Défaut « 1 » (avéré). Planifier une mesure corrective. 3
20 à 40°C Défaut 2 (sérieux). Mesures correctives urgentes à prendre (dans la semaine généralement). 2
> 40°C Défaut 3 (critique). Intervenir immédiatement. 1
Travail demandé :
• Analyser les fiches ci-après.
• Déterminer alors le défaut probable et la priorité.
• Proposer des préconisations.

134
135
136
CONCEPTS LIES A LA THERMOGRAPHIE :
Phénomènes de conduction :

Commenter ces 2 images :

Phénomènes de convection forcée :

Commenter ces 2 images :

137
Phénomènes de transmission :

Commenter ce thermogramme :

Lois de la thermographie :
Un corps noir de forme sphérique, ayant un rayon de 5
cm, émet un rayonnement de 230 W/m².
• Quelle est la température de ce corps ?
• Quelle est la longueur d’onde correspondant au
maximum d’énergie rayonnée?

Loi de STEPHAN Loi de WIEN

2898
λmax =
W = ε .S .σ .T 4
T
W : énergie rayonnée en W/m²
S : surface du corps en m²
σ : Constante de Stephan-Boltzmann = 5,6703.10-8 W/m-2/K4
T : température du corps en Kelvin (-273°C  0K)
ʎmax : longueur d’onde à laquelle se produit l’émission maxi en µm

138
Matrice d’acquisition :
L’IFOV ((Instantaneous Field Of View) correspond à la résolution spatiale d’une caméra en milli-radians (mrad) ; ce qui
correspond à une surface élémentaire en mm vue à une distance de 1 m (…mm@1m).
L’IFOV correspond à la résolution spatiale de la caméra, c’est à dire à la dimension de la zone que peut mesurer un
détecteur. Cette dimension dépend de la distance à laquelle se trouve la caméra de la cible.
Plus l’on est proche de la zone à inspecter, plus l’IFOV sera petit et la caméra percevra des objets de petite taille.
• Une caméra possède un IFOV de 2,18 mrad en direction horizontale comme en direction verticale.
• La plus petite zone mesurable correspond à 3 pixels, c'est-à-dire 3xIFOV.
• La distance mini à laquelle on peut effectuer la mesure, appelée distance de focalisation, est de 10 cm.
Déterminer la plus petite surface détectable par la caméra :

Quelle est la largeur de la plus petite zone mesurable par cette caméra ?

Quelle est la largeur de la plus petite zone mesurable par cette caméra à 50 cm ?

A quelle distance doit-on se positionner pour mesurer la température d’un câble de 2mm de diamètre ?

A quelle distance doit-on se positionner pour mesurer la température d’un câble de 5mm de diamètre ?

A quelle distance doit-on se positionner pour mesurer la température d’un câble de 10mm de diamètre ?
139
On cherche à déterminer la température d’un câble de1,5 mm2.
A l’aide d’un objectif standard, à quelle distance d1 doit-on se mettre pour effectuer une mesure correcte ?

Peut-on utiliser un objectif grand angle d’IFOV de 4,1 mrad ? Si oui, quelle est la distance à respecter ?

DEGRES D’URGENCE :
Déterminer les degrés d’urgence d’intervention des thermogrammes ci-après sachant que :
• Thermogramme 1 pris à 60 % de la charge nominale
• Thermogramme 2 pris à 90 % de la charge nominale
• Thermogramme 3 pris à 85 % de la charge nominale
• Thermogramme 4 pris à 40 % de la charge nominale
• Thermogramme 5 pris à 90 % de la charge nominale
• Thermogramme 6 pris à 100 % de la charge nominale

140
141
142
Phénomènes de conduction :
Thermogramme 1 :
Il s’agit de l’observation d’un réfractaire à l’aide d’une caméra infrarouge. A l’œil nu, on ne voit rien. Normalement, si la
cheminée était bien isolée, nous devrions avoir une température uniforme à la surface du réfractaire, donc une couleur
uniforme. Or nous pouvons voir verticalement un trait de couleur plus claire, donc de température plus chaude. On peut
conclure qu’il y a un défaut et que le réfractaire commence à se fissurer.
Thermogramme 2 :
Par conduction, la chaleur se propage le long du câble. On peut voir que le fil est chaud, mais il ne s’agit pas d’un
défaut, le problème est ailleurs ! Ainsi, il faut faire attention si l’on tombe sur un câble avec une température supérieure
lors de l’inspection, bien vérifier de part et d’autre du point chaud pour connaître l’origine exacte du défaut (c'est le point
le plus chaud qui est la source du problème).
Phénomènes de convection forcée :
Thermogramme 1
L’image ayant été prise par grand vent, l’air a uniformisé la température de surface des objets environnant. Or la
thermographie infrarouge est une technique de mesure de surface. Ainsi, rien ne pourra être observé à l’aide d’une
caméra et les problèmes éventuels ne pourront être détectés. D’où l’obtention d’une température uniforme à la surface
des objets et une couleur uniforme qui apparaît sur le thermogramme. Mauvaise interprétation de l’image, passage à
côté de problèmes.
Thermogramme 2
L’image a été prise par temps calme, sans influence de l’air environnant. La température de surface des objets
observés correspond donc bien à la température interne des objets. Des points chauds apparaissent ainsi, d’où une
couleur plus clair qui apparaît sur certaines parties du thermogramme. Interprétation correcte de l’image et du système,
mise en avant de problèmes.
Phénomènes de transmission :
Il s’agit d’une image thermographique d’un visage avec lunette. Nous observons que la température des lunettes est
plus froide que la température du visage de la personne.
En première conclusion, nous pourrions dire que les yeux de la personne sont plus froids que le restant de son visage.
Cette analyse est bien entendue fausse : il s’agit simplement d’un problème de transmission ! En effet, il n’est pas
possible d’observer et de mesurer des températures à travers un verre ! D’où cette mesure fausse !
Lois de la thermographie :

143
Matrice d’acquisition :

144
145
Degrés d’urgence :

146
147

Vous aimerez peut-être aussi