Vous êtes sur la page 1sur 54

Fiabilité

par Paul BLANQUART


Ingénieur en Chef des Télécommunications au Centre National d’Études
des Télécommunications (CNET) à Lannion
et Jean-Claude RONCIN
Ingénieur en Chef au Centre National d’Études des Télécommunications (CNET) à Lannion

1. Définitions.................................................................................................. E 1 420 - 2
2. Aspects expérimental et mathématique des caractéristiques
de fiabilité .................................................................................................. — 5
3. Classement des défaillances selon leur origine.............................. — 7
4. Fiabilité et conditions d'emploi. Données de fiabilité .................. — 11
5. Fiabilité des ensembles .......................................................................... — 15
6. Estimation de la fiabilité. Essais.......................................................... — 32
7. Fiabilité et gestion................................................................................... — 41
8. Amélioration de la fiabilité. Démonstrations et clauses
de fiabilité .................................................................................................. — 46
9. Tendances actuelles en fiabilité. Fiabilité dans le monde............ — 51
Références bibliographiques ......................................................................... — 53

a fiabilité est la discipline qui étudie les risques de défaillance d’un dispo-
L sitif quelconque : c’est un peu la science des défaillances, qui fait appel à
la fois à des théories mathématiques se perfectionnant sans cesse, à des
connaissances d’ordre technologique et à l’expérience.
En effet, il est certain que la fiabilité est née de l’introduction, dans des études
de pannes autrefois menées de façon trop empirique, des théories de statis-
tiques et de probabilités ; mais on ne doit pas perdre de vue que la fiabilité est
fondée sur l’expérience et qu’elle doit toujours s’appuyer sur la technologie.
Le présent article est consacré à la fiabilité des équipements électroniques et
traite à la fois de la technologie, c’est-à-dire des mécanismes de défaillance des
composants et également de la fiabilité des ensembles.
Nous verrons au cours de cet article que la fiabilité des systèmes fait appel
aussi à de nombreuses autres disciplines énumérées au paragraphe 9 et qu’elle
est étroitement liée à la maintenabilité (article Fiabilité. Maintenabilité [T 4 300]
3 - 1989

dans le traité L’entreprise industrielle).


La définition de la fiabilité a été étendue à une entité quelconque : elle n’est
donc plus limitée à un matériel (cela, pour prendre en compte la fiabilité des
logiciels). Par ailleurs, l’état de fonctionnement que l’on trouve dans les défini-
tions de la fiabilité (accomplir une fonction) doit être de plus en plus souvent
E 1 420

interprété comme un fonctionnement correct, comme l’exécution correcte des


tâches : autrement dit une exécution erronée de tâches est aussi grave (souvent
plus) que l’arrêt total de fonctionnement.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 1
FIABILITÉ _____________________________________________________________________________________________________________________________

Il faut donc comprendre la fiabilité comme la probabilité d'exécution cor-


recte des tâches sans discontinuité, sans défaillance : la défaillance est
l’apparition d’une réponse erronée ou bien l’arrêt de toute réponse. On dit par-
fois que la fiabilité est la mesure de la continuité de l’exécution correcte des
tâches.
Rappelons qu’une défaillance est une transition, et non un état, et que c’est
bien la continuité d’une fonction, d’une exécution correcte de tâches, d’un ser-
vice, que l’on mesure avec la fiabilité et tous les paramètres associés (souvent
plus pratiques) comme le taux de défaillance, le taux d’interruption, etc., alors
que la disponibilité et ses paramètres associés mesurent le fait de pouvoir dis-
poser d’un service, d’un système, etc., au moment où l’on en a besoin.
Cet article est consacré en particulier aux applications pratiques de la fiabilité
à l’électronique et aux composants : on admet donc un certain nombre de
résultats préliminaires sans les démontrer, et il est conseillé au lecteur qui
désire approfondir les bases mathématiques de se reporter aux articles :
— Probabilités [A 165] ;
— Statistiques [A 166] ;
dans le traité Sciences fondamentales.
Il pourra, en outre, consulter les articles :
— Fiabilité. Maintenabilité [T 4 300] dans le traité L'entreprise industrielle ;
— Maintenabilité des appareils électroniques [E 1 430] dans le présent traité,
ainsi que les ouvrages cités dans les références bibliographiques.

1. Définitions L’expression N (t )/N 0 est l’estimation à l’instant t de la fiabilité


d’une population de N 0 dispositifs mis en fonctionnement, s’il en
reste encore N (t ) en vie à l’instant t [N 0 expériences effectuées,
1.1 Caractéristiques principales N (t ) succès observés].

1.1.1 Fiabilité 1.1.2 Maintenabilité

La fiabilité est la probabilité pour qu’un appareil remplisse une Bien que la maintenabilité ne fasse pas l’objet de cet article
fonction donnée sans défaillance pendant un temps donné dans (article Fiabilité. Maintenabilité [T 4 300] dans le traité L’entreprise
des conditions d’emploi et d’environnement données. Nous la industrielle), il est indispensable de rappeler ici sa définition qui est
désignerons par R (t ). la probabilité pour qu'un appareil (ou un système) soit remis en
état dans un délai maximal donné dans des conditions spécifiées
d'entretien et de réparation. Cette notion est indispensable en effet
Dans cette définition, appareil peut désigner des objets de pour traiter la fiabilité des ensembles réparables et pour introduire
complexité variable : simples composants (bougie d’allumage, arbre la notion de disponibilité.
de transmission, transistor, etc.) ; organes de complexité moyenne
(moteur, boîte de vitesses, amplificateur, etc.) ; ensembles extrême-
ment complexes (systèmes d’armes comprenant des missiles, des 1.1.3 Disponibilité
radars de tir, des radars de détection, des équipements de transmis-
sion de voies téléphoniques, etc.).
Nous admettrons par la suite que le temps est la variable princi- La disponibilité est la probabilité pour qu’un appareil (ou un sys-
pale dont dépend la fiabilité. Pour certains appareils, il peut être tème) fonctionne correctement à un instant donné lorsqu’il est
plus normal de prendre une autre variable : nombre de cycles utilisé et entretenu dans des conditions spécifiées.
d’ouverture-fermeture pour un relais, nombre de tours pour un
moteur, nombre de kilomètres pour une voiture, etc.
La disponibilité est l’une des caractéristiques d’un système
On donne très souvent aussi au mot fiabilité un sens plus général réparable (§ 5.3.1). Elle ne prend en compte que l’état à l’instant
pour exprimer l’aptitude d’un dispositif à fonctionner jusqu’à un ins- considéré, que le système ait (ou non) été défaillant puis réparé
tant donné, la confiance que l’on a dans son bon fonctionnement ensuite. La fiabilité par contre caractérise la continuité de fonction-
ou la discipline qui regroupe toutes les méthodes pour acquérir cette nement sans défaillance jusqu’à l’instant considéré et ne prend pas
confiance. en compte les événements qui peuvent survenir après la première

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 2 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

défaillance. Ces deux caractéristiques se complètent : une voiture 1.2.2 Densité de probabilité de défaillance
automobile dont les pannes sont rares (donc fiable) mais longues à
réparer peut avoir une moins bonne disponibilité qu’une voiture dont
les pannes sont fréquentes mais très vite réparées. La densité de probabilité de défaillance est la dérivée par rap-
port au temps de la probabilité de défaillance.

1.1.4 Sécurité
Nous la désignerons par :
f (t ) = dF (t )/dt (2)
La sécurité est la probabilité d'éviter un événement à redouter
pour l'application considérée. La probabilité de voir un appareil cesser de fonctionner avant le
temps t est égale à F (t ), mais la probabilité de voir un appareil
cesser de fonctionner entre les temps t et t + dt est égale à f (t ) dt.
La sécurité ne fait pas l’objet de cet article, mais on constate que
sa définition coïncide avec celle de la fiabilité chaque fois que
l’événement à redouter est l’unique état de panne d’un système. En 1.2.3 Taux instantané de défaillance
outre, les domaines de ces deux techniques sont forcément
enchevêtrés, notamment lorsque l’on tient compte, en fiabilité, des
états de pannes multiples (§ 5.3.9) et des modes de défaillances. Le taux de défaillance est le rapport de la densité de défaillance
On peut citer une définition tirée de la spécification américaine à la fiabilité.
MIL STD 882 : c’est l’absence de conditions qui peuvent causer
blessure ou la mort de personnes, des dommages, des pertes de Nous le désignerons par :
biens.
Rappelons que les techniques de sécurité et de fiabilité sont f (t ) dF ( t ) dR ( t )
λ ( t ) = --------------- = ----------------------- = – ----------------------- (3)
souvent communes (à partir du moment où l’on distingue des R (t ) R ( t ) dt R ( t ) dt
défaillances critiques ou non). La redondance est par exemple utili-
sable en sécurité. Il est plus utile de donner à λ (t ) une signification en termes de
probabilité. En effet :
Rappelons aussi que la fiabilité et la sécurité ne sont pas
indépendantes : la sécurité est d’autant plus grande que la fiabilité f (t ) dt = R (t ) λ (t ) dt (4)
est grande, mais l’inverse n’est pas vrai : si la fiabilité est très
ce qui s’énonce : la probabilité f (t ) dt de voir un appareil cesser de
bonne, la probabilité de défaillance contraire à la sécurité est faible
fonctionner entre t et t + dt est égale au produit de la probabilité
(mais pas forcément suffisante). Par contre, si la sécurité est bonne,
de fonctionnement de cet appareil au temps t, soit R (t ), par la pro-
la probabilité de défaillance contraire à la sécurité est très faible,
babilité λ(t ) dt de voir cet appareil cesser de fonctionner entre t et
mais il y a peut être beaucoup de défaillances non contraires à la
t + dt, s’il a fonctionné jusqu’à t ; λ(t ) est donc une probabilité
sécurité. De même, si la sécurité est bonne, la disponibilité ne l’est
conditionnelle. Elle a toutefois un sens plus physique que f (t ) dt ou
pas forcément.
même F (t ). Il suffit pour le comprendre de considérer le type de
défaillance qui a une probabilité égale de se produire dans un inter-
valle dt quelconque à condition qu’elle ne soit pas produite avant :
1.1.5 Sûreté de fonctionnement par exemple, probabilité pour qu’un corps étranger mobile dans une
enceinte vienne occuper telle place où il provoquera une
Elle est utilisée de plus en plus. Ce n’est pas une probabilité mais défaillance : λ(t ) = λ 0 = Cte. La formule (3) nous apprend alors
un concept qui regroupe la fiabilité, la disponibilité, la maintenabilité que :
et la logistique de maintenance.
Nota : certaines équipes utilisent le mot sûreté avec le sens de sécurité. R (t ) = exp(– λ 0 t ) (5)
d’où F (t ) = 1 – exp(– λ 0 t ) (6)
et f (t ) = λ0 exp(– λ0 t ) (7)
1.2 Autres caractéristiques de fiabilité
f (t ) est une fonction décroissante de t. La défaillance a moins de
chance de se produire dans un intervalle dt au fur et à mesure que
1.2.1 Probabilité de défaillance le temps passe, non parce que la probabilité d’apparition de la
défaillance sur dt d’un appareil (supposé encore en état de marche)
Nous la désignerons par : diminue, mais parce que la probabilité de trouver un tel appareil
diminue.
F (t ) = 1 – R (t ) (1)
Cette caractéristique du taux de défaillance d’être une grandeur
Il est souvent plus utile de considérer cette grandeur que la fiabi- aisément compréhensible fait que l’on exprime très souvent la fiabi-
lité. En effet, par définition, un appareil est fait pour servir et, par lité par la fonction λ(t ).
suite, on recherchera toujours les fiabilités extrêmement voisines de Le taux de défaillance a les dimensions d’une probabilité par unité
1 et dont l’expression est alors confuse (R = 0,999 99). On est de temps [ou par cycles (§ 1.1.1) ]. Il est recommandé de l’exprimer
ainsi obligé d’exprimer la fiabilité (comme la pureté des corps) par en probabilité par heure (ordre de grandeur : 1 × 10–9 à 100 × 10–9/h
le nombre de 9 contenus dans le chiffre qui l’exprime, mais il est à pour les composants, 10–6/h pour un sous-ensemble). On trouve ce
la fois plus simple et plus suggestif de dire que la probabilité de taux quelquefois exprimé en pour-cent de chance par 1 000 h soit
défaillance est F = 10–5. Cela met en lumière un fait qu’il ne faut 10–5/h dans les anciennes publications anglo-saxonnes.
pas perdre de vue : la connaissance de la fiabilité coïncide avec celle
des défaillances ou des écarts à la normale. Si toutes les fiabilités
étaient égales à 1, il n’y aurait pas lieu d’en parler.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 3
FIABILITÉ _____________________________________________________________________________________________________________________________

La valeur estimée du taux de défaillance moyen vaut (figure 1) :


— dans l’intervalle de temps ∆t :
n
----------------------- (8)
N ( t ) ∆t
n étant le nombre de défaillances sur N (t ) pièces encore en vie.
Exemple : si l'on observe n = 5 défaillances dans l'intervalle de
temps ∆t = 100 h alors qu'il reste encore N (t ) = 1 000 pièces encore
en vie au début de l'intervalle ∆t, le taux moyen vaut :
5
---------------------------------- = 5 × 10 –5  h
1 000 × 100

— de l’instant initial à t 1 (taux cumulé) :


Figure 1 – Courbe de survie
N0 – N ( t1 )
-------------------------------
- (9)
Σ N ( t ) ∆t
qui, pour un intervalle infini tend vers :
(rapport du nombre total de défaillances observées à l’instant t 1 à
Σ N ( t ) ∆t
la durée cumulée obtenue par toutes les pièces ; une autre expres- θ = ----------------------------- (13)
sion de la durée cumulée est donnée au paragraphe 6.2.1). N0

— soit en considérant :
1.2.4 Moyenne des temps jusqu'à défaillance, Σnt
moyenne des temps entre défaillances θ = ------------- (14)
N0

La moyenne des temps jusqu’à défaillance et la moyenne des pour un intervalle infini, avec au numérateur la durée cumulée des
temps entre défaillances caractérisent respectivement les dispositifs pièces calculée au moment de leur défaillance ;
non réparables et les dispositifs que l’on répare. En pratique, on — soit dans l'intervalle ∆t :
confond souvent ces deux moyennes et on a pris l’habitude de les
considérer dans un intervalle de temps infini, ce qui les identifie N ( t ) ∆t
θ = ------------------------ (15)
donc à la durée de vie moyenne. n
Le temps moyen jusqu’à défaillance vaut alors : qui est l'inverse du taux estimé par l'équation (8) avec au numéra-
teur la durée cumulée dans ∆t.


t f ( t ) dt (10) Exemple : si l'on observe n = 5 défaillances dans l'intervalle de
0
temps ∆t = 100 h alors qu'il reste encore N (t ) = 1 000 pièces encore
moyenne des durées de vie individuelles de densité de répartition en vie, on observe en moyenne une défaillance toutes les 20 heures
égale à f (t ). pour l'ensemble des 1 000 pièces soit toutes les 20 × 1 000 h en
moyenne pour chaque pièce.
Pour les lois R (t ) pratiques, on montre (en intégrant par parties)
que cette moyenne vaut aussi :


∞ 1.2.5 Indisponibilité
R ( t ) dt (11)
0 L’indisponibilité est le complément à 1 de la disponibilité (donc
Nous recommandons l’usage du taux de défaillance plutôt que aussi une probabilité sans dimension). L’indisponibilité est
celui de cette moyenne jusqu’à défaillance. En effet, pour les dispo- recommandée plutôt que la disponibilité chaque fois que celle-ci est
sitifs courants, cette moyenne prend des valeurs peu pratiques (105 proche de 1 (selon l’explication donnée au paragraphe 1.2.1).
à 106 ) et l’on risque de faire une confusion avec une durée de fonc-
tionnement effective. De plus, contrairement au taux de
défaillance, cette moyenne ne s’additionne jamais dans les calculs 1.2.6 Intensité de défaillance
de fiabilité (§ 5.2.2). Enfin, ce qui est beaucoup plus grave, cette
moyenne calculée pour un intervalle infini ne peut absolument pas d N (t )
L’intensité de défaillance d’un organe est égale à --------------------- où N (t )
rendre compte de la réalité chaque fois que le taux instantané de dt
défaillance n’est pas constant (en particulier pour les systèmes non est la valeur moyenne (ou l’espérance mathématique) du nombre
réparés, § 5.2) : cette durée moyenne n’a alors aucune signification cumulé de défaillances de l’organe (sachant qu’à chaque défaillance
et donnerait des résultats faux (§ 5.2.1). l’organe est remplacé par un organe identique ou réparé ). Cette
On retrouve une valeur estimée de cette moyenne θ : caractéristique qui avait été proposée il y a plus de dix ans, mais
non utilisée, est maintenant quelquefois employée : elle est pratique
— soit en considérant, pendant l'intervalle de temps (0, t 1) : pour caractériser un organe unique comprenant des éléments d’âges
Σ N ( t ) ∆t différents et dont le taux de défaillance n’est pas constant. Elle
θ = --------------------------------- (12) coïncide avec le taux de défaillance dans le cas où celui-ci est
N0 – N ( t 1 )
constant.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 4 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

1.3 Notion de défaillance


1.3.1 Défaillance catalectique

La défaillance catalectique est la variation soudaine d’une


(ou des) caractéristique(s) d’un appareil (ou d’un composant)
rendant celui-ci complètement inutilisable.

Deux notions importantes sont superposées dans cette définition :


celle de variation soudaine (imprévisible même par une observation
minutieuse) et celle de complètement inutilisable . On conçoit
l’importance qui a été donnée à l’étude de ce genre de défaillance,
étant donné ce caractère doublement agressif. On imagine également
que de telles défaillances soient souvent à taux constant, étant donné Figure 2 – Taux de défaillance  en fonction du temps
le côté imprévisible de leur apparition, c’est-à-dire la multiplicité et pour le matériel électronique
la nature exceptionnelle de leurs causes.
d’usure (figure 2) échappe en général aux observations habituelles,
car t b est grand devant la période d’observation ou devant
1.3.2 Défaillance par dérive
1/ λ 0 (§ 2.1.3).

La défaillance par dérive est la défaillance qui résulte de la


variation progressive d’une caractéristique d’un appareil en 2.1.1 Défaillances précoces
dehors des limites requises pour son bon fonctionnement.
Les défaillances précoces proviennent soit d’erreurs de conception
(pour des matériels de conception récente : composants mal utili-
De telles défaillances doivent, en principe, pouvoir être évitées par sés, etc.), soit de composants excessivement fragiles ou insuffisam-
une maintenance adéquate. ment vérifiés (§ 3.2), soit de certaines erreurs de fabrication
Exemple : dans le domaine de l'automobile, une crevaison due à (remarques § 3.1.2).
un clou ou à un caillou est une défaillance catalectique ; le déréglage Durant cette période de défaillances précoces (période de rodage
du distributeur est une défaillance par dérive. en mécanique) et lorsqu’un dispositif n’a pas encore présenté de
défaillance, la probabilité de voir une défaillance apparaître diminue.
On améliore donc un lot de dispositifs en le soumettant à un essai
Remarque : il peut se faire qu’une dérive de composant puisse de durées couvrant les ta premières heures et en ne laissant subsis-
provoquer une défaillance totale (en fait catalectique) d’un appa- ter que les dispositifs qui ont survécu jusqu’à ta (§ 7.2.7 et 8.3.7).
reil ou même du composant lui-même chaque fois qu’il existe un Cette période peut durer de quelques dizaines à quelques centai-
seuil de fonctionnement possible (exemple : fonctionnement en nes d’heures pour les composants.
oscillateur).

2.1.2 Défaillances à taux constant

2. Aspects expérimental Ces défaillances apparaissent entre ta et tb ; cette période est


souvent appelée vie utile de l’appareil. Le fait que le taux λ (t ) soit
et mathématique des constant ( λ 0 ) entre ta et tb permet des calculs de fiabilité très faciles
et l’emploi de méthodes simples pour l’estimation de λ 0 . Il est
caractéristiques de fiabilité évident que l’on n’améliore pas la fiabilité d’un appareil dans cet
intervalle par un essai de fonctionnement préalable, puisque λ reste
le même ; on ne fait qu’en diminuer la vie utile.
2.1 Aspect expérimental
La plupart des défaillances à taux constant proviennent de l’exis-
tence simultanée de mécanismes internes de dégradation et d’erreurs
Il n’y a évidemment pas de loi absolue et l’on doit faire appel à
de fabrication (§ 3.1.2). L’existence de nombreux mécanismes à
l’expérience. Que nous apprend celle-ci ?
vitesses d’évolution très dispersées et le mélange de nombreux lots
Dans le cas d’un très grand nombre d’appareils de types divers, de production accentuent l’aspect aléatoire de l’apparition des
mais plus particulièrement sur les ensembles et les composants défaillances.
électroniques où ces variations ont été étudiées avec soin, l’allure
de la courbe donnant le taux de défaillance λ en fonction du temps
est indiquée sur la figure 2. Sur cette courbe (dite en baignoire 2.1.3 Défaillances systématiques (dites par usure )
dans les textes américains), on distingue trois parties, que l’on
associe à trois types de défaillances : précoces, à taux constant et
Les défaillances systématiques apparaissent au-delà de t b .
par usure systématique.
Contrairement aux défaillances précédentes qu’il convient d’attribuer
Cette courbe ne constitue qu’une moyenne et la réalité peut être à des erreurs de fabrication, c’est-à-dire à des causes multiples, la
variée : en général, la première période n’apparaît pas avec des cause des défaillances systématiques peut en général être détectée
fabrications stabilisées et convenablement maîtrisées. On a toutefois par le fabricant (usure des pneus d’une voiture, recristallisation du
observé récemment (1980), pour certaines familles de composants filament d’une lampe à incandescence, etc.). On ne peut reculer
(semi-conducteurs), un taux de défaillance diminuant constamment l ’ é p o q u e t b s a n s m o d i fi e r l a t e c h n o l o g i e i n t e r n e d u
et lentement même après plusieurs milliers d’heures. La période composant (§ 8.3.3).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 5
FIABILITÉ _____________________________________________________________________________________________________________________________

En tout état de cause, après le temps t b , le système se dégrade 2.2 Principaux modèles mathématiques
et il y a souvent intérêt à éliminer toutes les pièces survivantes pour
les remplacer par des neuves. La période comprise entre t a et t b est des lois de survie
donc celle qu’il faut prendre en considération dans les calculs
d’amortissement des frais de première installation.
Le tableau 1 et la figure 3 résument les principaux modèles
Il semble assez évident, a priori, que la plupart des appareils mathématiques utilisés pour rendre compte de l’expérience.
mécaniques seront sujets à ce type de défaillance ; c’est également
le cas des appareils dont le fonctionnement même entraîne une
réaction physico-chimique conduisant à la destruction (lampes à 2.2.1 Loi de survie exponentielle
incandescence, tubes à vide, condensateurs électrolytiques, batte-
ries, piles sèches). C’est en fait le cas général de tous les
La loi de survie exponentielle R = exp(– λ 0t ) (figure 3 I) est la
composants (§ 3.1), mais le temps t b est souvent inaccessible à
plus utilisée puisqu’elle rend compte du cas très général où le taux
l’observation. En effet, on doit remarquer que la période d’usure
de défaillance est constant (§ 1.2.3), c’est-à-dire du palier de la
systématique n’apparaît que si t b est petit devant 1/ λ0 : le calcul
courbe en baignoire. C’est le seul cas où la moyenne des temps de
montre qu’il ne reste plus que 1 % de pièces survivantes au bout
fonctionnement sans défaillance ait une signification car elle ne
du temps 4,6/ λ 0 par le simple jeu des défaillances à taux constant.
dépend pas alors de l’intervalle considéré [étant égale à l’inverse
La probabilité pour qu’une pièce vive nettement plus longtemps que
du taux instantané de défaillance constant selon l’expression (15)].
1/ λ0 est donc très faible, indépendamment de toute dégradation
Le taux de défaillance est cependant à préférer (§ 1.2.4).
systématique (après 50 000 h, il ne reste presque rien d’une popu-
lation de pièces dont le taux de défaillance λ vaut 10–4/h). Cette loi de survie exponentielle est à la fois la plus générale et
la plus simple : elle rend possibles certaines méthodes simples de
calcul de fiabilité des ensembles notamment (processus de
Remarques Markov,§ 5.3.5).
— Avec les productions automatiques de composants, le
comportement de groupe est prépondérant : des lots à faible
durée de vie peuvent apparaître (§ 3.1.2c ), mais le résultat peut 2.2.2 Loi de Weibull
être très différent si ces lots sont mêlés à la population normale
qui devient alors une population avec période de jeunesse très La loi de Weibull (figure 3 II) présente l’avantage de dépendre de
accentuée. trois paramètres : t 0 est un paramètre de décalage de l’origine, β
— On doit distinguer l’usure au sens statistique d’une popula- un paramètre de forme (positif) et η est un paramètre d’échelle
tion de pièces et l’usure individuelle d’une pièce qui peut être homogène à un temps. On constate d’après l’expression du taux de
responsable de défaillances à taux constant (§ 3.1.2b ). Il peut défaillance (tableau 1 et figure 3 II b ) que cette loi permet de
même arriver que l’usure statistique résulte d’événements rendre compte de l’une ou l’autre des trois périodes de vie de la
aléatoires : c’est le cas notamment de dispositifs ayant une courbe en baignoire (β < 1 pour les défaillances précoces où le taux
redondance interne sans réparation (§ 5.2), la perte de de défaillance λ décroît, β > 1 pour les défaillances d’usure où le
redondance (§ 5.1) ressemblant d’ailleurs à un vieillissement. taux de défaillance λ croît et β = 1 pour un taux constant). La loi
On peut citer aussi une pièce mécanique subissant des impacts exponentielle est donc un cas particulier (β = 1) de la loi Weibull.
aléatoires et perdant progressivement sa rigidité.
— Lorsque le taux de défaillance est constant, il n’y a pas
d’usure au sens statistique : pour une même population, une 2.2.3 Loi normale
pièce encore en vie a autant de chance d’être défaillante entre
1 000 et 1 100 h qu’entre 10 000 et 10 100 h (§ 1.2.3). Il revient La loi normale (figure 3 III) peut être utilisée pour rendre compte
alors au même de faire un essai de fonctionnement de 1 000 de la période d’usure (la loi de Weibull avec β voisin de 3 est
pièces pendant 10 000 h ou de 10 000 pièces pendant 1 000 h. voisine d’une loi normale). Cette loi étant définie de – ∞ à + ∞, il
— La durée de vie utile n’a pas de définition officielle, et l’on convient de limiter son utilisation au cas où la moyenne des durées
doit toujours préciser la proportion cumulée de pièces défaillantes de vie µ est grande (plus de trois fois) devant l’écart type σ 0 .
correspondantes : les durées à 10 % ou à 50 % peuvent être très
différentes selon la dispersion.
2.2.4 Loi log-normale

Cette loi (figure 3 IV) est utilisée lorsque le logarithme de la durée


de vie suit une distribution normale : c’est le cas de la plupart des
mécanismes de défaillance dans les semi-conducteurs. Cette loi est
donc très utilisée dans la technique des essais accélérés (§ 6.4).
(0)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 6 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Tableau 1 – Principales lois de survie


Loi
Loi de Weibull Loi normale Loi log-normale
exponentielle

 
Fiabilité (loi (t – t 0 ) ∞ ∞
β
de survie) : R (t ) ............ exp (– λ0 t )  
exp – ---------------------
η  1
 1 (t – µ) 2
------------------------- exp – ------ ----------------------
σ 0 2π

1
 1 ( In t – µ ) 2
------------------------- exp – ------ -----------------------------
σ 0 2π 2 
t 2 σ2 0
t 2 σ0

Densité des β (t – t 0 ) (t – t 0 ) 1 (t – µ) 2 1 ( In t – µ ) 2
défaillances : f (t ).......... 
λ0 exp (– λ0 t ) ------ ---------------------
η η 
β–1
 
exp – ---------------------
η
β

1

------------------------- exp – ------ ----------------------
σ 0 2π 2 2  t σ0 2 π
1

----------------------------- exp – ------ -----------------------------
2 2 
σ0 σ0

Taux instantané de β ( t – t0 )
défaillance : λ (t ) ........... λ0 
------ -------------------
η η
- β – 1 f (t )/R (t ) f (t )/R (t )

Durée de vie moyenne :


 
1 2
t 0 + η Γ 1 + ------ σ0
θ ..................................... 1/λ0 β
(1) µ

exp µ + --------
2
- 
Écart type : σ ................. 1/λ0 1⁄2
  2
1
η Γ 1 + ------ – Γ 2 1 + ------
β β   (1) σ0 2
exp ( 2 µ + 2σ 0 ) – exp ( 2µ + σ 0 )  1 ⁄ 2
2

(1) Γ est la fonction eulérienne de deuxième espèce ; les valeurs sont données dans l’article Fiabilité. Maintenabilité [T 4 300] du traité L’entreprise industrielle.

Figure 3 – Principales lois de survie

3. Classement de fonctionnement et d’environnement, les méthodes de fabrication


et de contrôle. Le tableau 2 classe les défaillances en cinq caté-
des défaillances gories selon leur origine (notamment selon qu’il y a ou non une
dégradation interne) et leur mode d’apparition.
selon leur origine Le tableau 3 complète le tableau 2 et montre qu’il y a une très
grande similitude entre la fiabilité du logiciel et les défaillances des
L’examen statistique des défaillances du paragraphe 2 n’est pas composants ou des matériels dues à des défauts cachés. Le but de
suffisant : l’analyse des origines des défaillances des équipements ce tableau est de rappeler quelques termes utilisés, d’une part, en
et des composants est indispensable afin d’optimiser les conditions informatique et, d’autre part, dans le domaine des composants.(0)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 7
FIABILITÉ _____________________________________________________________________________________________________________________________

Tableau 2 – Différents types de défaillances des composants


Dégradation
Origine des défaillances associée associée
Excès
seule à une erreur à une erreur Défaut caché
de fragilité
collective isolée
Mode d’apparition

systématique aléatoire aléatoire ou systématique

Caractéristiques de fiabilité

Actions correctrices Durée d’un lot Taux Taux ou durée


Durée ou dérive
défectueux de défaillance d’un lot défectueux

Exemples

Électromigration Mauvaise Gain à froid


Électromigration Corrosion
+ rayures soudure insuffisant
NON OUI OUI OUI OUI
Réduction
Processus, des aléas précision des processus, propreté,
technologie automatisation, pureté des matériaux
Pendant
la Technologie OUI (1) OUI (1) OUI (1) OUI (2) NON
fabrication NON NON OUI OUI OUI (4)
À l’unité
Contrôle (3) (examen visuel) (en partie)

Essais NON OUI NON NON NON


destructifs (sauf pour
une première OUI NON OUI NON
(prélèvement) qualification
Après Contrôle
la Mesures NON NON (5) NON NON
fabrication OUI
Essais mesures
Tri unitaire ou mesures NON NON (7) NON (6) OUI poussées
(1) Réduction de la vitesse de dégradation ou suppression (pour l’électromigration, remplacement de l’aluminium par de l’or).
(2) Technologie plus robuste ou plus appropriée (soudure, etc.).
(3) Contrôle des pièces constitutives.
(4) Exemple : court-circuit à chaud entre deux fils.
(5) À l’exception des corrélations possibles entre mesures et état interne.
(6) Effet possible dans le cas de défaillances précoces (fonctionnement préalable).
(7) Effet possible mais un essai sur prélèvement suffit.

(0)

Tableau 3 – Comment naissent les défaillances


Transition vers l’état de non fonctionnement
ou de réponse erronée = défaillance




















Logiciel Faute Erreur latente Erreur activée


Donnée erronée sollicitée
Défaut franc mais latent Fonction manquante sollicitée
(défaut caché )
Matériel Incident de fabrication Défaut latent = fragilité Défaillance en cas d’apparition d’une surcharge
substance, objet étrangers
et composants (pendant la fabrication) Défaut latent → détérioration
plus ou moins rapide sous Destruction ou fonctionnement impossible
les contraintes normales

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 8 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

3.1 Défaillances de composants 3.1.2 Défaillances dues à une évolution


provoquées par une évolution interne progressive
progressive a ) En l’absence d’anomalies de fabrication (au sens du
paragraphe 3.1.2b ), de conception ou d’emploi, la vie d’un
La constitution interne d’un composant évolue soit par l’effet des composant est limitée par un mécanisme de dégradation (§ 3.1.1).
contraintes appliquées pendant le fonctionnement ou le stockage La durée de vie est alors en général suffisamment grande pour
(diffusion d’éléments, migration sous champ électrique, électro- échapper à l’observation, sauf si les contraintes de fonctionnement
migration, électrolyse, etc.), soit par l’effet du fonctionnement lui- sont excessives. Une population de composants, aussi parfaits, aurait
même (transport de matériau d’un contact électrique par le passage une loi de survie normale ou log-normale par suite de la dispersion
du courant lui-même), soit parce que les matériaux constitutifs statistique inévitable sur les différents paramètres de fabrication [par
n’étant pas dans leur état le plus stable sont sensibles aux agents exemple sur les dimensions des métallisations des semi-conducteurs,
externes (oxydation, corrosion, etc.) et doivent être protégés par des c’est–à–dire sur la densité selon l’équation (17)]. Le taux de
dispositifs d’efficacité parfois insuffisante, ou bien défectueux (boî- défaillance est croissant.
tiers, enrobages, etc.). Ce qui précède est à répéter pour les dérives (les temps pour
Ces mécanismes, parfois mêlés, aboutissent soit à la destruction atteindre une dérive donnée) : la perfection est alors plus facile à
totale d’un élément vital du composant (défaillance catalectique), obtenir car les pièces aberrantes (anomalies ) peuvent être éliminées
précédée ou non d’une dérive de caractéristique, soit à un nouvel de la statistique.
état d’équilibre interne (dérive de caractéristique puis stabilisation). b ) Dans la réalité, il arrive qu’un accident (erreur ou écart) se
Les contraintes à l’origine des dégradations peuvent être continues produise au cours de la fabrication d’une pièce et abrège
ou cycliques (fonctionnement intermittent, fatigue par dilatations, considérablement sa durée soit en déclenchant un mécanisme de
contractions successives, etc.) : ce qui suit s’applique aux dégradation nouveau, soit en modifiant profondément l’un des
contraintes cycliques en remplaçant le temps par le nombre de paramètres d’un mécanisme habituel évoqué en a) [la rayure d’une
cycles (§ 1.1.1). métallisation d’un semi-conducteur peut réduire considérablement
sa section et diviser par 10 2 ou 10 3 la vie d’une pièce selon
l’équation (17). De même, la mauvaise étanchéité d’un boîtier peut
3.1.1 Exemples de mécanismes de dégradation provoquer une corrosion interne, mécanisme inhabituel]. Dans le
cas d’un mécanisme inhabituel, on observe plutôt des défaillances
précoces alors que les mécanismes habituels donnent plutôt un taux
La température est la contrainte la plus fréquente pour un grand de défaillance constant ; la présence de plusieurs mécanismes et
nombre de mécanismes d’évolution (diffusion, migration, etc.). Elle l’existence de mécanismes suivant une loi log-normale contribuent
intervient presque toujours selon la loi d’Arrhenius : à réduire l’effet du temps sur le taux de défaillance : la figure 4
1⁄n montre que ce taux varie déjà assez peu avec une telle loi même
 ------
t
t0 
- = exp ( q EkT ) (16) avec un seul mécanisme.
c ) Avec les productions automatiques de composants, on observe
avec t temps au bout duquel on observe un état interne donné, plutôt des erreurs collectives qui déclenchent un mécanisme de
par exemple une défaillance, dégradation en général inhabituel (nettoyage insuffisant d’un lot de
t0 constante homogène à un temps, rondelles de silicium, d’où corrosion rapide de tous les transistors du
lot), c’est-à-dire des défaillances précoces généralisées à un lot.
1/n exposant différent de 1 lorsque l’évolution n’est pas pro-
portionnelle au temps,
q charge de l’électron,
E énergie de la réaction (dite d’activation),
3.2 Défaillances ne résultant pas
k constante de Boltzmann,
d'une évolution progressive
T température absolue.
La température n’est pas la seule contrainte possible et elle n’agît a ) Les composants excessivement fragiles à la suite d’une erreur
pas forcément seule. L’électromigration par exemple résulte de l’effet de fabrication aléatoire ou collective (soudure interne défectueuse)
combiné de la température et de la densité de courant dans des ou à la suite d’une imperfection naturelle d’un matériau (défaut dans
conducteurs métalliques : il y a déplacement de métal selon la loi : une couche d’oxyde mince d’un transistor intégré) : le composant est
détruit dès l’apparition de la contrainte correspondante (choc, tension
t = A J m exp (qE/kT ) (17) électrique) d’amplitude admissible.
avec t temps au bout duquel il y a une coupure (à l’endroit où il y b ) Les composants qui ne fonctionnent pas correctement dans
a appauvrissement de la métallisation), toutes les conditions (gamme de température, tensions appliquées,
impulsions de commande) ou les composants à fonctions multiples,
A constante, l’une d’entre elles étant manquante (mémoires complexes, etc.) : un
J densité de courant, de l’ordre de 105 A/cm2 pour que cet tel composant sera considéré comme défaillant le jour où la fonction
effet soit observable, ce qui est bien le cas des inter- manquante sera nécessaire (point mémoire, gain insuffisant
connexions des semi-conducteurs (sections de l’ordre de au-dessus de 70 oC). Une caractérisation complète aurait pu éliminer
1 µm × 10 µm), un tel composant à défaut caché mais cela serait très coûteux ou
m de l’ordre de 3. même impossible : la vérification complète d’une mémoire à n
éléments binaires exigerait 2 n (2n – 1) opérations, ce qui prendrait
un temps démesuré même avec des temps élémentaires brefs de

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 9
FIABILITÉ _____________________________________________________________________________________________________________________________

et § 7.3 (gestion de la qualité)]. En effet, des défaillances systè-


matiques peuvent avoir des conséquences graves (conséquences
économiques s’il y a plusieurs milliers d’équipements à réparer,
conséquences graves sur le service rendu ou la sécurité, car toute
redondance active disparaît avec des défaillances systématiques),
mais il est assez facile de minimiser ces risques par une assurance
de qualité adaptée.

3.4 Autres motifs de défaillances


des matériels

Les défaillances des matériels sont d’abord dues aux défaillances


Figure 4 – Taux de défaillance pour une distribution normale catalectiques intrinsèques des composants (§ 3.1 et 3.2) ainsi
de la durée de vie en fonction du temps qu’aux dérives de composants (§ 3.1.2a ) : pour ces dernières, il n’y
a pas de relation directe entre une valeur quelconque de la dérive
d’une caractéristique d’un composant et la défaillance d’un matériel
dès que celui-ci comprend plusieurs composants identiques sujets
1 µs ; en pratique, on se contente de configurations dont le nombre aux dérives : la relation relève des méthodes exposées au
est de l’ordre de n, n 3/2 ou n 2 , ce qui conduit pour les mémoires paragraphe 5.4.
complexes (n = 16 000) à des temps d’essai de l’ordre de 10 s
(grâce à des études d’efficacité des programmes de test). Mais il y a d’autres origines aux défaillances des matériels.
— Les erreurs de conception se manifestent sur des matériels
étudiés depuis peu (mauvaise utilisation de composants, contraintes
Remarques trop fortes, limites de fonctionnement non garanties en tension, en
— Les défaillances décrites précédemment sont plutôt température, etc., composants non adaptés, erreurs de logiciel) et
précoces (les circonstances qui vont révéler le défaut se cela malgré le soin apporté à l’étude. Elles provoquent plutôt des
produisent forcément au début de la vie d’un matériel, car elles défaillances précoces (comme celles décrites au paragraphe 3.2b
doivent se produire plusieurs dizaines de fois dans la vie du pour les composants).
matériel, sinon elles seraient très rares). — La mise en œuvre des composants sur les sous-ensembles
— On peut distinguer en b ) l’erreur de conception proprement (cartes imprimées) donne parfois naissance à des contraintes
dite (tous les composants ont un défaut caché) et l’erreur de abusives appliquées aux composants (température excessive pendant
fabrication sur un lot. un temps trop long au moment de la soudure des composants sur
— Les défaillances peuvent être intermittentes (mauvais la carte imprimée, contraintes résiduelles sur les fils de sortie après
contact, gain insuffisant au-delà de 70 oC) et être alors très dif- la soudure, incompatibilité entre produits de nettoyage et enrobage
ficiles à localiser. de composants). La mise en œuvre peut être elle-même imparfaite
— Les erreurs ou écarts de fabrication évoqués aux (mauvaise soudure d’un composant).
paragraphes 3.1.2 et 3.2 ont des origines multiples (erreurs — Les surcharges électriques ou mécaniques (§ 4.1) et plus géné-
humaines, déréglages de machines, phénomènes parasites ralement les contraintes d’environnement abusives, c’est-à-dire
–comme les poussières, les impuretés –, imperfections localisées auxquelles le composant n’est pas adapté, ce qui s’apparente à une
des matériaux eux-mêmes). erreur de conception.
— Le classement des défaillances est très commode pour La mise au point de systèmes de plus en plus complexes donne
mettre au point les meilleures méthodes de gestion de une importance accrue à deux motifs de défaillances sup-
qualité (§ 7 et 8), mais les distinctions entre catégories ne sont plémentaires.
pas toujours franches : une évolution comme celles décrites au
paragraphe 3.1 peut provoquer une défaillance par excès de ■ Matériels trouvés mauvais en exploitation puis bons en atelier
fragilité. Il y a cependant un caractère en général prédominant de réparation (apparemment le défaut a disparu ou bien il n’a jamais
(ici la pièce n’est pas excessivement fragile à l’origine). existé) : ce phénomène, qui existe déjà pour des matériels auto-
nomes, est plus fréquent pour des sous-ensembles d’un système (et
on construit des systèmes de plus en plus gros). La proportion de ces
cas peut être de 5 à 40 % (le dernier chiffre traduisant un manque de
qualité).
3.3 Défaillances à caractère systématique
Il y a de nombreuses explications possibles (défaut intermittent,
défaut d’un composant disparaissant au repos, programmes de test
Le risque de défaillances à caractère systématique, qu’elles soient différents dans le système et en atelier de réparation, conditions
dues à une évolution (en général rapide) ou à un défaut caché, doit d’environnement différentes, etc.).
être considéré avec beaucoup d’attention actuellement. En effet, les Ce phénomène est très important car il est très coûteux (la remise
productions de composants ont de plus en plus souvent un caractère en état coûte même plus cher que pour une vraie panne, dans la
collectif et un accident de fabrication touche en général la totalité mesure où le réparateur s’efforce de révéler un défaut qui se
d’un lot (alors que les taux de défaillances aléatoires deviennent de dissimule).
plus en plus faibles par suite de l’automatisation des productions)
[§ 4.7 (état de la fiabilité des composants), § 5.3.7 (fiabilité des ■ Défaillances dues au logiciel : bien que ce point sorte du sujet de
ensembles réparés, principaux résultats), § 6.5 (essais spécifiques) cet article, cet aspect de la fiabilité est à signaler d’autant plus qu’il
arrive souvent qu’une défaillance d’un système soit due à la présence
simultanée d’un défaut de matériel et d’une erreur de logiciel.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 10 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

4. Fiabilité et conditions l’environnement électrique). Elles risquent donc d’être négligées


(§ 7) : l’utilisateur a-t-il précisé clairement les risques de surcharge ?
d'emploi. Données Le constructeur de matériel a-t-il prévu les protections efficaces et
a-t-il spécifié au fabricant de composant la tenue aux surcharges
de fiabilité souhaitée pour les composants exposés ? En 1980, il reste encore
beaucoup à faire à la fois sur l’effet des contraintes d’environnement
électrique (un progrès très sensible est déjà observé depuis quelques
L’analyse précédente des types de défaillances (§ 3.1 et 3.2) années) et sur leur connaissance, ainsi que sur l’effet des contraintes
a montré que la fiabilité dépend de contraintes diverses qu’il est d’environnement climatique (comment se combinent les effets des
facile de répartir en contraintes de fonctionnement, de mise en différents éléments climatiques, taux d’humidité, gaz corrosifs,
œuvre, et d’environnement. Cela explique que la fiabilité ne soit température) (article Contraintes climatiques. Contraintes chimiques
définie (§ 1.1.1) que dans des conditions de fonctionnement et [E 3 942] dans le présent traité).
d’environnement données. C’est d’ailleurs dans le domaine des
conditions d’environnement et d’emploi que l’effort d’amélioration de On admet que l’influence de l’environnement est plus importante
la fiabilité a été le plus payant vers 1960 et très souvent les que celle des autres contraintes (dans le recueil de données, le taux
défaillances d’un matériel ont encore comme origine une mauvaise de défaillance d’un composant varie dans un rapport de 1 à plus de
utilisation. Les contraintes d’environnement sont seulement connues 100 selon l’environnement). Pour comprendre l’influence de
avec une certaine probabilité alors que les contraintes de fonction- l’environnement et l’action combinée de plusieurs contraintes (en
nement et de mise en œuvre sont déterminées à la conception et à général beaucoup plus importante que la somme de chacune d’elles),
la fabrication. on peut citer le comportement de semi-conducteurs enrobés, dont
l’enrobage insuffisant a été fissuré par des cycles de température :
s’ils sont mis en fonctionnement intermittent en présence d’humidité,
l’humidité pénètre par les fissures pendant les périodes de repos
4.1 Contraintes dues à l’environnement jusqu’aux métallisations qu’elle corrode (corrosion électrolytique)
pendant le fonctionnement. Cette corrosion se répète à chaque cycle
Les contraintes d’environnement peuvent exister pendant le fonc- jusqu’à destruction d’une interconnexion (alors qu’elle s’arrêterait
tionnement mais aussi pendant le stockage. Elles sont alors mal d’elle-même par séchage interne dans le cas d’un fonctionnement
connues et leur effet est loin d’être négligeable. continu).
■ On peut distinguer :
— les contraintes mécaniques : chocs, vibrations, accélérations
(article Protection des matériels contre les vibrations et les chocs 4.2 Contraintes de fonctionnement
[E 3 946] dans le présent traité) ; et de mise en œuvre
— les contraintes thermiques : extrêmes de température
ambiante, conditions de refroidissement (rayonnement, conduction,
convection), chocs thermiques ; Elles ont déjà été évoquées aux paragraphes 3.1, 3.2 et 3.3 (les
— les contraintes électriques : surtensions, surintensités, coups premières étant essentiellement à l’origine des mécanismes nor-
de foudre, champs électriques ou magnétiques intenses ; maux de dégradation). Ce sont :
— les contraintes climatiques : degré hygrométrique, gaz cor-
a ) les contraintes thermiques (probablement les plus
rosifs, pression atmosphérique, pollution (poussières), présence de
importantes) : la température interne résulte de la puissance dissipée
liquides (article Contraintes climatiques. Contraintes chimiques
et de la température ambiante (qui est en fait à la fois une contrainte
[E 3 942] dans le présent traité) ;
d'environnement et une contrainte de mise en œuvre : température
— les rayonnements ionisants (applications à l'espace notamment
extérieure et puissance dissipée par les autres composants) ; le carac-
et à certaines industries) auxquels les semi-conducteurs sont
tère cyclique éventuel ajoute d'autres effets (fatigue par dilatations
sensibles (évolution progressive des caractéristiques).
et contractions) ;
■ On peut combattre les contraintes d'environnement par des b ) les contraintes électriques : densité de courant, champ élec-
précautions appropriées qui sont : trique interne, champs magnétiques ; les impédances des circuits
— la protection contre les contraintes mécaniques soit par des modifient les contraintes (surtensions, surintensités, charges des
suspensions (en faisant attention cependant aux résonances), soit relais) et le caractère cyclique éventuel ajoute des effets comme ceux
par des enrobages dans le cas de pièces statiques ; décrits précédemment ;
— la protection contre les contraintes thermiques par des c ) les contraintes mécaniques sur les connexions internes des
systèmes de refroidissement ou de réchauffage ou par des enceintes composants et sur les composants montés sur les cartes imprimées.
thermostatées ;
— la protection contre les contraintes électriques par des
parafoudres, des fusibles, des blindages, des diodes Zener, des 4.3 Limitations des contraintes
varistances et par l'emploi de composants robustes (en général une
protection comprend plusieurs étages avec parafoudres puis diodes Les contraintes précédentes doivent rester inférieures à une valeur
ou varistances, et enfin emploi de composants robustes capables de limite, au-delà de laquelle il apparaît en général un nouveau type de
résister aux surcharges résiduelles) ; destruction ; on peut distinguer deux sortes de limitations :
— la protection contre les contraintes climatiques par enrobage
a ) les mécanismes de dégradation à seuil (§ 6.4.1) : par exemple
ou enceintes étanches (difficultés pour les contacts électriques sauf
au-delà d'une température critique ; il peut apparaître une transfor-
en ampoules scellées).
mation interne irréversible, destructive, ne serait-ce que la fusion de
■ Le choix des méthodes de protection doit être fait au moment où l'un des constituants ;
s’élabore le projet de l’appareil, les retouches de dernière heure étant b ) des incompatibilités de fonctionnement peuvent, elles aussi,
souvent des armes à double tranchant (ainsi, une enceinte étanche aboutir à la destruction immédiate d'un composant (par exemple
risque de modifier sérieusement les conditions d’évacuation de la au-delà d'une certaine température on ne peut plus bloquer certains
chaleur). La principale difficulté provient de ce que les contraintes transistors élémentaires d'un circuit intégré ; il en est de même pour
d’environnement sont souvent mal connues et qu’elles relèvent un thyristor : l'application des valeurs ordinaires de tensions est alors
en général de plusieurs domaines de responsabilité (notamment destructrice).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 11
FIABILITÉ _____________________________________________________________________________________________________________________________

Il existe aussi des limitations de type a ) pour des paramètres qui Les cas d’incompatibilité entre la constitution technologique d’un
ne sont pas forcément choisies comme contraintes : ainsi, on admet composant et certaines conditions d’emploi sont à examiner de près
en général que la tension appliquée au collecteur d’un transistor ne au moment du choix des composants (§ 7.2.4), notamment avec
modifie qu’assez peu la fiabilité sauf au voisinage de la valeur limite les composants passifs. Les raisons sont diverses :
de claquage (elle intervient aussi pour des mécanismes de dégra- — de nouveaux processus de fabrication économiques sont
dation anormaux comme la migration d’ions dans les oxydes de constamment mis au point ; ils donnent en général (au moins après
protection). Ces phénomènes à seuil s’apparentent à la résistance à stabilisation) des composants très fiables mais parfois dans un
la rupture en mécanique. domaine restreint seulement ;
— par leur constitution, certains composants sont inaptes à des
utilisations particulières ; des produits spéciaux sont conçus à cet
4.4 Limites à ne pas dépasser effet ;
— certains environnements ou conditions de fonctionnement ne
sont pas forcément acceptés par tous les composants (résistance
Ces limites ne sont pas à confondre avec les tolérances admises
aux solvants).
sur les caractéristiques, tolérances parfois appelées limites admis-
sibles. Elles sont de plusieurs sortes. Les directives d’emploi doivent énumérer les cas d’incompatibilités
connus afin que les services d’études des constructeurs ne soient
a ) Les limites de fonctionnement garanti sont à distinguer des
pas obligés de les découvrir eux-mêmes (et aux dépens de leurs
limitations précédentes : la plupart du temps, les caractéristiques de
clients). En effet, des incompatibilités conduisent à des taux de
fonctionnement dépendent des conditions d’alimentation ou de
défaillances catastrophiques (et en général à court terme).
température et il existe donc un jeu de tolérances garanties statis-
tiquement par les spécifications. C’est notamment le cas pour les Citons quelques cas d’incompatibilités.
circuits intégrés dont le fonctionnement défini par des tolérances sur — En général, les condensateurs ne sont pas conçus pour être
les vitesses et les tensions de commande, n’est possible que dans traversés par du courant électrique alternatif (à cause de l’échauf-
des gammes de température et de tension d’alimentation fement). Seules quelques familles le tolèrent (exemple : mylar à
fixées (0 à 70 oC ou – 55 à + 125 oC). Au-delà, les tolérances armatures, polypropylène).
seraient plus larges ou même la fonction ne serait plus remplie
(incompatibilités de décalages d’impulsions par exemple). — Les condensateurs électrolytiques à l’aluminium (électrolyte
liquide ) ne supportent pas la chaleur (§ 4.7) et certaines familles
b ) Les limites à ne pas dépasser pour les essais d’endurance. On (ou modèles) ne tolèrent pas le passage de fortes pointes de cou-
doit appliquer les contraintes maximales possibles afin de simuler la rant en permanence (comme dans les alimentations à découpage).
plus longue durée de fonctionnement possible pendant une durée
d’observation relativement brève (1 000 à 10 000 h) (§ 6.4). On ne — Seules certaines familles de transistors résistent bien à la
doit toutefois pas dépasser les limitations indiquées au commutation de puissance : ils sont caractérisés à cet effet (aire de
paragraphe 4.3a (mécanismes à seuil). On doit par ailleurs s’effor- sécurité).
cer de s’affranchir en partie des limites indiquées aux — Certaines diodes sont conçues pour écouler des surcharges (en
paragraphes 4.3b et 4.4a (bon fonctionnement) soit en admettant pratique, il s’agit d’une aptitude à écouler des surcharges en énergie,
un fonctionnement imparfait, soit en imaginant des conditions de en fait, des pointes de température) grâce à l’inertie thermique et
polarisation spéciales (on ne cherche plus à faire fonctionner le l’adaptation des brasures : pour les petites surcharges, on peut
composant, mais on s’efforce de rétablir les contraintes électriques choisir des diodes à puissance spécifiée supérieure à celle que l’on
souhaitées en tenant compte par exemple des effets de la tempé- chercherait sans tenir compte des surcharges.
rature). — Pour le fonctionnement intermittent, les transistors de puis-
c ) Les limites à ne pas dépasser en fonctionnement normal sance doivent résister à des cycles de température (brasures
doivent être nettement moins sévères que celles des essais adaptées).
d’endurance (§ 4.4b) et suffisamment loin des mécanismes à seuil — Il existe des contacts de relais selon la nature de la charge,
pour les autres paramètres. Elles doivent figurer dans des directi- selon que la contrainte est le passage ou la coupure d’une forte
ves d’emploi (§ 4.5). intensité de courant (régime d’arc) ou, au contraire, un stockage au
repos (risque de corrosion ou formation d’une couche isolante).
— La compatibilité avec les méthodes de report doit être étudiée
4.5 Directives d'emploi ou règles de l'art de très près, notamment avec le montage en surface dont l’intérêt
économique est certain par ailleurs (c’est notamment l’aptitude d’un
Elles résument l’expérience déjà acquise et la connaissance de la composant à résister à une élévation brutale de température :
nature des composants. Elles sont élaborées par les services de compte tenu de leur petite taille, ces composants ont en effet une
technologie des constructeurs d’équipements ou des administrations très faible inertie thermique et leur élévation de température interne
utilisatrices. Parfois elles sont l’œuvre de syndicats de fabricants ou peut être destructive. L’aptitude est sanctionnée par des essais de
d’organismes nationaux. Elles comprennent en général : soudage avec contrôle avant et après). L’aptitude au report doit
— des informations sur les propriétés d'une famille de composants également tenir compte des produits de nettoyage.
afin de tirer le meilleur parti de leur technologie (stabilité des — La fragilité de certains composants (circuits intégrés MOS,
caractéristiques dans le temps ou en fonction de la température, surtout transistors pour hyperfréquences, § 4.7) oblige à prendre
valeurs des caractéristiques complémentaires non garanties par les des précautions très rigoureuses pour les manipulations (fragilité
spécifications, etc.) ; vis-à-vis des faibles surcharges électrostatiques). Il en va de même
— des limites à ne pas dépasser en fonctionnement normal [pour pour la fragilité de pastilles de semi-conducteurs achetées telles
les matériels PTT (Postes, Télécommunications et Télédiffusion) : quelles, vis-à-vis de la pollution, des poussières, de l’humidité.
température de jonction des transistors au silicium limitée à 125 oC,
courant et température des photocoupleurs limités selon la durée de
fonctionnement effective souhaitée] ;
— des recommandations et règles de mise en œuvre.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 12 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

4.6 Recueil de données de fiabilité

Il est indispensable désormais de calculer le taux de défaillance


d’un matériel en cours d’étude (§ 7.2) à partir des taux élémen-
taires de ses composants (§ 5.2.2). Alors qu’autrefois on devait uti-
liser des taux élémentaires bruts recueillis d’après des statistiques
de défaillances de matériels équivalents et valables seulement
pour des conditions d’emploi voisines, on dispose désormais d’un
recueil de données qui fournit des taux en fonction des conditions
d’emploi, ce qui rend possibles des calculs pour n’importe quelle
application et ce qui en rend l’usage indispensable.
Le premier recueil a été publié aux États-Unis. Il correspond aux
spécifications militaires américaines de composants. En France, le
Centre de fiabilité du Centre national d’études des télécommunica-
tions (CNET) a publié un recueil de données [12] qu’il met à jour
régulièrement en tenant compte des résultats d’exploitation (ou
d’essais) qu’il centralise [essentiellement des matériels PTT et du
Commissariat à l’énergie atomique (CEA) pour le moment]. Ce recueil
tient compte du recueil américain ainsi que des données admises pour
l’espace par le Centre national d’études spatiales (CNES). L’élabo-
ration de ce recueil est un travail collectif qui résulte de la
contribution du plus grand nombre possible d’utilisateurs, de
constructeurs et de fabricants de composants.
Dans un tel recueil, le taux de défaillance est donné en fonction
du plus grand nombre possible d’éléments (éléments que les utili-
sateurs peuvent facilement connaître).
— Technologie : les composants sont classés par familles de
technologie (condensateurs au tantale, transistors à effet de champ,
etc.), et des coefficients multiplicateurs éventuels tiennent compte
de certaines particularités (boîtier étanche, enrobage) de la
complexité (mêmes valeurs par exemple pour des circuits intégrés
d’une même filière technologique et de même complexité, celle-ci Figure 5 – Calcul du taux de défaillance  de condensateurs
étant donnée en nombre de transistors élémentaires). au tantale (électrolyte solide) (extrait du recueil de données
— Contraintes de fonctionnement : des courbes rendent compte de fiabilité 1980 [12])
de l’influence des contraintes principales (température interne,
c’est-à-dire température ambiante et puissance dissipée pour les
composants dissipant de la chaleur, tension appliquée pour les
condensateurs). Ces courbes traduisent la loi d’accélération retenue,
4.7 État de la fiabilité des composants
par exemple la loi d’Arrhenius [relation (16)] (le taux de défaillance
dépend de la loi de dégradation pour les défaillances du type décrit Le tableau 4 montre que les principales modifications portent
aux paragraphes 3.1.2 b et 6.4.4). On rend compte de l’effet des sur les composants dont la fiabilité n’était pas très bien connue
autres contraintes par un coefficient multiplicateur (tension appli- vers 1980 et pour lesquels on avait pris obligatoirement une marge
quée à un transistor). de sécurité :
— On rend compte des contraintes d’environnement par un coef- — les photocoupleurs dont le taux de défaillance est devenu
ficient multiplicateur, c’est-à-dire de façon empirique [chaque type voisin de celui d'un transistor (20 · 10–9/h) mais à condition de
d’environnement (marine, etc.) est défini : par exemple pour surveiller, par des essais, le risque de contacts intermittents sur la
l’environnement le plus favorable, pas de chocs ni vibrations, ni diode : la réalisation des contacts sur l'arséniure de gallium est assez
variations de température brutales, ni fonctionnement intermittent]. bien maîtrisée, mais une surveillance est nécessaire ;
— On rend compte de certains modes de fonctionnement ou de — les circuits intégrés complexes : l'expérience prouve que le
conditions de charge par un coefficient (le fonctionnement en logique degré de complexité a encore moins d'influence qu'on pouvait le
est moins sévère pour un transistor qu’en analogique : on rend penser. Cela est dû au fait que les causes de défaillances, du moins
compte ainsi empiriquement de l’effet des dérives ; de même, on tient dans le domaine de l'environnement favorable, touchent souvent
compte de certaines impédances de charge). l'ensemble d'une pastille (corrosion).
— Les degrés de qualification correspondent à la sévérité des La durée de vie d’un photocoupleur s’est nettement améliorée (du
spécifications d’achat de composant et se traduisent empirique- moins ceux obtenus par épitaxie à phase liquide, ce qui est mainte-
ment par un coefficient (neuf valeurs dans l’édition actuelle du nant la méthode générale). Pour simplifier, on peut considérer qu’elle
recueil de données [12]). est grande devant les durées d’utilisation.
À titre d’exemple, la figure 5 extraite de l’édition actuelle (1980) Par contre, la grande sensibilité à la chaleur des condensateurs à
du recueil [12] donne le taux de défaillance λ de condensateurs au l’aluminium (électrolyte liquide), qui était déjà connue, est maintenant
tantale (électrolyte solide). Pour fixer les idées, avec un facteur chiffrée à la suite d’essais récents : le taux de défaillance et la durée
d’environnement de 1 (pour les matériels utilisés dans des conditions de vie peuvent varier dans un rapport de 100 entre 25 et 100 oC.
favorables), un facteur π R de 0, 1 (impédance du circuit en série Cette sensibilité dépend de l’électrolyte et de la taille (les modèles
favorable, c’est-à-dire une impédance plutôt élevée), un facteur de de petite taille résistent moins bien : le choix des familles par des
qualification de 0,5 (contrôle centralisé de qualité et agrément pour essais accélérés est donc primordial).
les PTT), un facteur de boîtier de 1 (boîtier étanche), un facteur de (0)
charge de 0,5 et une température de 40 oC (point A ), on retrouve
le taux de 4,5 × 10–9/h observé en exploitation.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 13
FIABILITÉ _____________________________________________________________________________________________________________________________

Par ailleurs, il faut rappeler aussi que certaines familles de


Tableau 4 – Taux de défaillance de quelques familles composants sont sujettes à des défaillances systématiques
de composants (environnement favorable) (d’après [7]) généralisées à un lot (§ 3.1.2c ), ce qui risque aussi de ruiner les
prévisions.
Rapport
La figure 6 donne l’évolution de la fiabilité de quelques
du taux
Taux composants depuis 1960.
de défaillance
de défaillance
Composants à 70 oC
à 40 oC
et du taux
(en 10–9/h) de défaillance 4.8 Fiabilité des composants intégrés
à 40 oC complexes
Résistances
au carbone aggloméré ................. 0,8 3,3 À fonction équivalente, la fiabilité des matériels s’améliore plus
à couche, stables .......................... 0,5 1,4 rapidement qu’on ne le voit sur la figure 6, grâce à l’emploi des
à couche, d’usage courant........... 1,2 1,3 circuits intégrés de plus en plus complexes (quelques dizaines
à couche, de puissance ................ 30 1,1 d’éléments intégrés vers 1970, quelques dizaines de milliers actuel-
bobinées, de puissance ............... 18 1,3 lement). À côté de leur intérêt bien connu (encombrement, coût de
Potentiomètres la fonction très réduit grâce à la fabrication simultanée de tous les
d’ajustement, non bobinés .......... 10 1,5 éléments, puissance consommée presque indépendante de la
bobinés, de puissance ................. 120 1,5 complexité), ces composants présentent des risques de défaillances
qui augmentent moins vite que la complexité pour les raisons
Condensateurs suivantes :
au mica .......................................... 0,5 3 a ) beaucoup de risques de défaillances ne dépendent pas du
au papier ou au plastique ............ 0,6 1,2 nombre d'éléments intégrés : il en est ainsi pour les risques liés aux
en céramique, de précision ......... 1 3 connexions de sortie (thermocompressions), ou au boîtier (ou à
en céramique, pour découplages 11 1,1 l'enrobage), les risques de corrosion, de contamination (liés à la
au tantale (solide) ......................... 4,5 1,5 pastille) ;
à l’aluminium (électrolyte b ) d'autres risques dépendent du nombre de transistors intégrés,
liquide) (1) ..................................... 100 10 mais en croissant moins vite que leur nombre : les risques de
Diodes claquage d'oxydes minces d'un transistor élémentaire MOS
de signal et de redressement ...... 3,2 1,7 (métal/oxyde /semi-conducteur) diminuent car sa surface est plus
de régulation................................. 9 1,3 faible pour les composants complexes (accroissement de la densité
pour hyperfréquences (silicium) . 230 1,7 d'intégration) ; de plus, ces risques n'augmentent pas comme les
surfaces des pastilles, car ils sont liés à des imperfections du cristal
Transistors qui ne sont pas réparties de façon homogène dans le cristal ;
au silicium (NPN).......................... 5 1,3 c ) la précision des processus de fabrication (photogravure) de
au silicium (PNP) .......................... 5 1,4 circuits complexes à 10 000 transistors est beaucoup plus grande
à effet de champ ........................... 5 1,4 que pour des circuits simples, ce qui diminue les aléas de fabrica-
tion donc les risques de défaillances du type mentionné aux
Photocoupleurs (2) ........................... 20 1,2
paragraphes 3.1.2b ou 3.2a (ce qui augmente aussi le rendement de
Circuits intégrés production, résultat cherché) ;
bipolaires 20 transistors .............. 10 2,2 d ) il est possible de renforcer les contrôles de qualité d'un circuit
bipolaires 2 000 transistors ......... 200 2,9 complexe pour un coût relatif plus faible que pour un circuit simple
bipolaires 100 000 transistors ..... 2 000 3 dont le prix de vente est faible.
MOS 20 transistors....................... 15 7 En résumé, l’augmentation de la complexité des circuits intégrés
MOS 2 000 transistors.................. 300 7 doit améliorer la fiabilité des matériels, comme le montre la
MOS 100 000 transistors.............. 1 500 7 figure 7 extraite du recueil de données de fiabilité (on admet que
linéaires, 20 transistors ................ 40 7 le taux de défaillance augmente approximativement comme N
Mémoires où N est le nombre de transistors).
à 1 024 éléments binaires ............ 100 3 On doit toutefois rappeler que l’introduction des circuits complexes
à 16 000 éléments binaires .......... 300 3 s’accompagne de difficultés nouvelles, par exemple l’impossibilité de
Connecteurs de carte imprimée vérifier complètement les circuits à fonctions complexes, d’où
à 20 contacts ................................. 80 1,7 l’accroissement des défaillances du type décrit au paragraphe 3.2 b,
Point de soudure (à la vague) ......... 0,1 1 compensé par les efforts sur l’amélioration de l’efficacité des
programmes de test.
Diodes lasers .................................... 1 000
(1) La durée de vie utile des condensateurs à l’aluminium (électrolyte liquide)
est donnée en [7].
(2) Durée de vie limitée. 4.9 Modes de défaillances

On s’efforce désormais de publier dans le recueil de données les


Rappelons aussi (§ 4.5) que la fragilité de certains composants modes de défaillances des composants et leur proportion relative
risque d’anéantir les prévisions de fiabilité (circuits MOS et surtout (court-circuit, etc.). Ces données sont indispensables dans plusieurs
les transistors ou circuits intégrés pour hyperfréquences à l’arséniure applications :
de gallium qui exigent des précautions draconiennes dans les — les calculs de fiabilité avec redondance (§ 5.2.4) ;
manipulations). Il en est de même pour l’aptitude au report pour le
montage en surface.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 14 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

qu'un mauvais fonctionnement ; risques d'incendie provoqués par


l'échauffement anormal d'une résistance après court-circuit du
composant voisin, etc.).

5. Fiabilité des ensembles


5.1 Généralités
L’intérêt qui s’attache à la connaissance de la fiabilité des
composants s’explique par le fait qu’il est possible, en appliquant les
lois du calcul des probabilités, d’évaluer la fiabilité des ensembles
complexes à partir de celles des composants.
Le présent paragraphe donne les principales méthodes qui
permettront au lecteur de traiter une grande partie des calculs de
fiabilité des ensembles ainsi que les résultats les plus courants : le
cas des défaillances catalectiques est traité en 5.2 (systèmes non
réparés) et 5.3 (systèmes réparés) ; la fiabilité en fonction des
dérives des composants est traitée au paragraphe 5.4.
■ On dit qu’il y a redondance lorsque les ensembles, réparables ou
non, comprennent des sous-ensembles de secours qui remplacent
instantanément un sous-ensemble défaillant grâce à un dispositif
quelconque sans intervention humaine (ou alors celle-ci est supposée
instantanée) et pour un nombre limité de fois.
■ On dit qu’il y a réparation lorsque l’on remet en état un ensemble
défaillant de façon non instantanée (§ 5.3) en principe par inter-
vention humaine. La remise en état peut être quelconque : on peut
par exemple remplacer un sous-ensemble défaillant par un sous-
Figure 6 – Évolution de la fiabilité de quelques composants ensemble en bon état, que l’on répare ou non par la suite les sous-
depuis 1960 ensembles défectueux. Cette remise en état peut se faire un nombre
illimité de fois sauf en cas de rupture de stock (§ 5.3.8).

5.1.1 Organisation des systèmes, nombre d'états


de panne
En général, les systèmes n’ont que deux états de fonctionnement
(panne ou bon fonctionnement). Par exemple, considérons un
ensemble comprenant 3 sous-ensembles identiques et ayant 4 états
possibles (0, 1, 2, 3 sous-ensembles en état). Par hypothèse, 2 sous-
ensembles suffisent pour assurer le bon fonctionnement de
l’ensemble (une alimentation par exemple). On ne considère donc que
2 états de fonctionnement : un état de panne (0 à 1 sous-ensemble
en état) et un état de bon fonctionnement (2 ou 3 sous-ensembles
en état).
Si par contre il s’agit de trois liaisons téléphoniques, deux d’entre
elles étant utilisées en service normal, la troisième étant réservée au
secours, on dit : 2 parmi 3 ; on doit considérer l’état de bon
fonctionnement (2 ou 3 liaisons en état), l’état intermédiaire (une
liaison en état) qui permet d’écouler une partie du trafic (et cette
liaison n’est pas coupée lorsque la deuxième devient défaillante) et
l’état de panne totale. Dans le cas des systèmes à plus de deux états,
Figure 7 – Fiabilité de circuits intégrés en fonction on devra rechercher les caractéristiques de fiabilité qui rendent
de leur complexité. Comparaison avec des transistors séparés compte au mieux de l’organisation et de l’exploitation après avoir
(circuits intégrés bipolaires numériques) calculé les probabilités respectives de chaque état. Pour les systèmes
où chaque sous-ensemble (2 parmi 3 de l’exemple précédent des
— les études de maintenabilité (arbres de maintenance) (article liaisons téléphoniques) assure un service qui lui est propre, on
Maintenabilité des appareils électroniques [E 1 430] dans le présent devra calculer ses propres caractéristiques de fiabilité (exemple au
traité) ; paragraphe 5.3.9).
— les études de sécurité ou de sûreté, ou plus généralement
chaque fois que l'on veut connaître les conséquences de chaque
défaillance (risques de mauvais fonctionnement d'un matériel, 5.1.2 Rappels succincts de probabilités
comme une commande de machine-outil dont l'arrêt est moins grave
On peut résoudre la plupart des calculs de fiabilité des ensembles
à l’aide des théorèmes ci-après (et de la méthode des chaînes de
Markov selon le paragraphe 5.3 pour les ensembles réparés).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 15
FIABILITÉ _____________________________________________________________________________________________________________________________

■ Théorème des événements mutuellement incompatibles : si Pour déterminer P(E/y ) et P ( E / , on décompose le diagramme
y)
A1 , ..., Ai ..., An sont des événements partiels de l’événement A et
s’ils sont incompatibles entre eux, on a : initial suivant les deux diagrammes II et III de la figure 9 : l’un
correspond à Ry = 1 (Y en état) et l’autre à R y = 0 (Y en panne). On
n vérifiera [d’après la relation (19)] qu’en posant R = 1 – F :
PA = ∑ PA
i
(18)
P (E/y ) = (1 – Fu Fw ) (1 – Fv Fx ) (22)
i=1

avec PA probabilité que A se réalise. et P( E / y)


= 1 – ( 1 – Ru Rv ) ( 1 – Rw Rx ) (23)
Des événements sont incompatibles si, l’un d’eux se produisant,
avec Fu , F v , F w , F x
probabilités d’échec respectivement pour les
aucun autre ne peut se produire.
dispositifs U, V, W, X,
■ Théorème des événements indépendants se produisant Ru , Rv , Rw , Rx probabilités de succès respectivement pour
simultanément : si A 1 , ..., A i ..., A n sont des événements les dispositifs U, V, W, X.
indépendants, la probabilité pour qu’ils se produisent simultanément
On vérifiera de la même façon les équivalences de la figure 10.
est :
n ■ Il arrive que le diagramme fasse apparaître plusieurs fois le même
PA = ∏ PA i
(19) dispositif (il ne s’agit pas de plusieurs dispositifs identiques). Par
i=1 exemple, le diagramme de la figure 11 représente un ensemble qui
fonctionne si (A et B ) ou (B et C ) fonctionnent.
Deux événements sont indépendants si la probabilité d’observer
l’un d’eux ne dépend pas du fait que l’autre se soit produit ou non. On opère comme précédemment, puis on remplace dans le résultat
obtenu (Ra )x, (Rb ) y , (Rc ) z par Ra , Rb , Rc .
■ Théorème des probabilités conditionnelles : si un événement E On obtient ici : Ra Rb + Ra Rc + Rb Rc – 2 Ra Rb Rc .
résulte de n événements élémentaires mutuellement incompatibles
Ai , la probabilité de E est :
n
PE = ∑ P ( E /A ) × P A
i i
(20)
i=1

avec P ( E /A ) probabilité conditionnelle que E se réalise si A i s’est


i
réalisé.

5.1.3 Diagrammes de fiabilité

■ Chercher la fiabilité d’un ensemble (ou sa disponibilité) c’est


rechercher sa probabilité de bon fonctionnement en fonction des
probabilités de bon fonctionnement de chacun de ses éléments. Il est
commode pour les ensembles à deux états (§ 5.1.1) de représenter
les relations entre ces probabilités par un diagramme tel que celui
de la figure 8 où les dispositifs (A et B ) ou (C et D ) et E sont néces-
Figure 9 – Décomposition d’un diagramme de fiabilité
saires au succès (fonctionnement) de l’ensemble.
On obtient alors des associations de dispositifs en série (et ) et en
parallèle (ou ) ou des associations complexes : pour celles-ci on
peut se ramener à des combinaisons série/parallèle par l’emploi
répété du théorème (20). À chaque association série/parallèle, on
applique alors le théorème (19) aux probabilités élémentaires de
bon fonctionnement (série) ou de mauvais fonctionnement (paral-
lèle). La figure 9 illustre cette méthode.
Considérons le dispositif Y, ses probabilités de succès R y et
d’échec (1 – R y ) mutuellement exclusives ; la relation (20) s’écrit :
R = P (E/y ) × R y + P ( E / y ) × (1 – R y ) (21)

P (E/y ) représente la probabilité pour que l’ensemble E fonctionne


si Y est en état et P ( E / y ) pour que l’ensemble E fonctionne si Y
est en panne.

Figure 8 – Diagramme de fiabilité : exemple Figure 10 – Décomposition de diagrammes de fiabilité :


deux exemples (a ) et (b )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 16 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

■ Il peut arriver que des dispositifs aient plusieurs modes de 5.1.4 Différentes catégories de redondances
défaillances, par exemple deux modes incompatibles que l’on désigne
circuit ouvert et court-circuit. Supposons que n dispositifs soient en On peut distinguer plusieurs catégories.
série pour le mode circuit ouvert et en parallèle pour le mode court-
circuit, les probabilités de défaillance de l’ensemble par circuit a) La redondance simple (ou active) où les dispositifs de secours
sont en permanence en régime de fonctionnement et en service :
ouvert F 0 et par court-circuit Fc sont respectivement 1 – (1 – F 0 )n et
il n’y a pas de dispositif auxiliaire pour mettre en service un dispositif
n de secours. Elle est totale si un seul dispositif est nécessaire parmi
F c . Étant mutuellement exclusives, ces probabilités s’additionnent :
la probabilité de bon fonctionnement de l’ensemble est alors les n dispositifs associés (on dit 1 parmi n : l’ensemble est défaillant
n n
si les n dispositifs le sont).
R = ( 1 – F 0 ) n – F c . On trouve de même ( 1 – F c ) n – F 0 pour une Elle est partielle si k dispositifs sont nécessaires parmi n [on dit
association en parallèle pour le mode circuit ouvert et en série pour k parmi n : l’ensemble est défaillant si (n – k + 1) dispositifs sont
le court-circuit (il faut distinguer soigneusement les associations défaillants, c’est-à-dire une partie seulement des n dispositifs].
électriques et les associations d’événements : des condensateurs b) La redondance à commutation (ou passive) où les dispositifs
associés électriquement en parallèle sont en série pour les courts- de secours ne sont mis en service qu’en cas de besoin : il y a donc
circuits). un dispositif auxiliaire de détection de panne et de commutation. Les
Nota : une autre méthode de calcul, par description de schéma logique (un diagramme de dispositifs de secours peuvent être en régime de fonctionnement en
fiabilité est assimilable à un schéma de logique) ; est plus compliquée mais elle donne les
points sensibles de l'ensemble [7]. permanence ou seulement lorsqu’on en a besoin (sinon ils sont en
régime de stockage et leur taux de défaillance peut être plus faible) :
On peut citer une autre méthode souvent très pratique pour
redondance à commutation en régime permanent ou séquentiel.
résoudre les diagrammes de fiabilité : considérons le diagramme de
la figure 9. On écrit tous les états possibles de chaque élément dans
un tableau comme celui de la figure 12 et dans chaque case on écrit
l’état du système. Il apparaît alors des regroupements possibles et
l’on écrit la probabilité de chaque groupement.
Il est parfois nécessaire d’indiquer un sens de parcours sur le
diagramme de fiabilité pour tenir compte du fait que certaines
associations ne conviennent pas au bon fonctionnement de
l’ensemble. Par exemple, la figure 13 traduit le fait que, si C est en
panne, le système ne fonctionne pas, même si F, B, E et D sont en
bon état (à cet effet, il faut appliquer une deuxième fois le théorème Figure 11 – Exemple de diagramme où un dispositif intervient
des probabilités conditionnelles selon l’état, bon ou mauvais, de plusieurs fois
l’élément C ).

Figure 12 – Utilisation d’un tableau de Karnaugh

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 17
FIABILITÉ _____________________________________________________________________________________________________________________________

Figure 13 – Exemple de décomposition d’un diagramme de fiabilité

c) La redondance majoritaire où les dispositifs fonctionnent tous


en permanence et où un dispositif auxiliaire délivre un signal
conforme à celui de la majorité des dispositifs.

5.2 Fiabilité des ensembles


non réparables
5.2.1 Choix des caractéristiques de fiabilité
Un matériel non réparable est un matériel que l’on ne veut pas ou
que l’on ne peut pas remettre en état (selon le paragraphe 5.1, en
principe par intervention humaine). Il doit donc fonctionner une
seule fois pour une mission particulière. Les sous-ensembles de
secours sont en nombre limité et il y a défaillance dès que le nombre
de sous-ensembles en état est insuffisant d’après l’organisation du
système (moins de k parmi n selon le paragraphe 5.1.4). Pour un tel
ensemble, on s’intéresse donc aux chances de succès de la mission,
c’est-à-dire à la probabilité que le matériel fonctionne sans
défaillance jusqu’à un temps donné, autrement dit à la fiabilité du
matériel. On devra donc calculer la fonction fiabilité à la fin de la
mission et aux instants jugés intéressants, ainsi que les valeurs
correspondantes du taux de défaillance. L’usage de la moyenne des
temps jusqu’à défaillance (ou entre défaillances) est ici à exclure
Figure 14 – Taux de défaillance et fiabilité
totalement. En effet (§ 1.2.4), cette moyenne étant calculée jusqu’à
de deux sous-ensembles redondants
des temps infiniment grands n’a aucune signification pour la
redondance sans réparation qui n’a d’intérêt que pour les missions
de courte durée (figure 14 et § 5.2.3.1).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 18 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

5.2.2 Association en série (pas de redondance)

Pour qu’un ensemble constitué de n dispositifs en série fonctionne,


il faut que chacun des dispositifs fonctionne ; chacun des bons fonc-
tionnements étant des événements indépendants et en considérant
ici les fonctions fiabilité Ri , la fiabilité R de l’ensemble vaut d’après
la relation (19) :
n
R = ∏ Ri (24)
i=1

Lorsque chacune des fonctions R i est exponentielle, R l’est égale-


ment et son taux de défaillance est la somme des taux élémentaires
de chaque dispositif : ce résultat est la base des calculs de prévision
de fiabilité (§ 7.2).

5.2.3 Redondance active

5.2.3.1 Redondance active totale (association en parallèle)


On dit que n dispositifs sont en parallèle lorsque l’ensemble n’est
défaillant que si les n dispositifs le sont. Le raisonnement est le même
qu’au paragraphe 5.2.2, mais en considérant les probabilités de
défaillance au lieu des probabilités de bon fonctionnement. La
fiabilité R de l’ensemble est donnée par : Figure 15 – Fiabilité du montage en pont de la figure 9 [I]
(sans réparations)
n
1–R = ∏ (1 – R i ) (25)
i=1 5.2.3.3 Redondance active des réseaux maillés
ou 1 – R = (1 – Ri )n (26) Elle se traite d’après la méthode du paragraphe 5.1.3 : on appelle
si les dispositifs sont identiques. Si, en outre, leur taux de défaillance l’ordre du réseau le nombre de dispositifs.
est constant, on obtient :
5.2.3.4 Cas où la probabilité de défaillance d'un dispositif
n
dépend de l'état des autres dispositifs

i
R = ( – 1 ) i + 1 C n exp ( – i λt ) (27)
i=1
Dans les cas précédents (§ 5.2.3.1 et 5.2.3.2), la probabilité de
défaillance d’un dispositif quelconque est indépendante de l’état
L’ensemble ne suit pas une loi de survie exponentielle, son taux des autres dispositifs, ce qui n’est pas toujours le cas.
de défaillance n’est pas constant mais croît avec le temps (cela est
général pour les systèmes non réparés, car ils perdent progressive- Exemple : considérons deux dispositifs se partageant une charge ;
ment leur redondance). La figure 14. en est une illustration avec l'ensemble peut fonctionner avec un seul dispositif, mais celui-ci a
n = 2 : le taux de défaillance est nettement inférieur à celui d’un alors un taux de défaillance λ2 plus grand que lorsque la charge est
dispositif seul (λ 0 ) à condition que la mission soit courte comparée partagée ( λ1).
à 1/ λ 0 ; la moyenne des temps jusqu’à défaillance vaut 1,5/λ 0 ce La méthode de raisonnement est détaillée sur la figure 16 : on
qui n’a pas de signification. La figure 15 illustre un cas où cette ajoute les probabilités partielles ou [d’après la relation (18)] et on
moyenne est plus faible pour l’ensemble que pour chaque multiplie les probabilités et [relation (19)], d’où :
dispositif.


t

5.2.3.2 Redondance active partielle où k dispositifs R ( t ) = exp ( – 2 λ 1 t ) + 2 λ 1 exp [ x ( λ 2 – 2 λ 1 ) – λ 2 t ] dx


0
sont nécessaires parmi n
1
soit R ( t ) = ------------------------- [ λ 2 exp ( – 2 λ 1 t ) – 2λ 1 exp ( – λ 2 t ) ]
On ajoute [relation (20)] les probabilités des différents états de λ2 – 2 λ 1
bon fonctionnement (k, ..., n dispositifs bons) sachant que la
probabilité pour qu’il y ait i dispositifs bons parmi n vaut : qui devient, si λ2 = 2λ1 :
i R (t ) = (2λ1 t + 1) exp (– 2λ1 t )
C R i (1 – R
n )n – i
i
Il y a C n façons, d’après la loi binomiale, de trouver i dispositifs
bons et (n – i ) dispositifs mauvais sachant que les probabilités pour 5.2.4 Redondance passive (à commutation)
un dispositif d’être bon ou mauvais sont respectivement R i et
(1 – R )n – i. On peut aussi considérer le développement de (R + F )n 5.2.4.1 Cas du fonctionnement permanent
avec F = R – 1.
On se ramène à la redondance active, en tenant compte de l’organe
La fiabilité de l’ensemble vaut donc : auxiliaire (en principe en série) ; la formule (26) devient :
n
R = Rk [1 – (1 – Ri )n ] (29)

i
Cn R i ( 1 – R )n – i (28)
i=k avec R k fiabilité de l’organe de commutation.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 19
FIABILITÉ _____________________________________________________________________________________________________________________________

5.2.4.2 Cas du fonctionnement séquentiel Chaque taux de défaillance correspondant doit être la somme des
taux partiels conduisant à chacun des modes.
Le raisonnement est le même qu’au paragraphe 5.2.3.4.
Considérons l’exemple de la figure 17, qui montre en outre l’effet
de l’imperfection du commutateur : on trouve avec le raisonnement
détaillé sur la figure 17 :
5.2.5 Tableau récapitulatif

R = exp [ – ( λ 1 + λ β + λ τ ) t ] + Le tableau 5 donne les principaux résultats de fiabilité


d’ensembles non réparés ainsi que leurs développements limités.
λ 1 exp [ – ( λ 2 + λ r ) t ]


t
exp [ ( λ r + λ 2 ) – ( λ 1 + λ β + λ τ + λ s + λ α ) x ] d x
0

ce qui donne si λ1 = λ2 = λ et λr = λ τ = λc :
λ exp [ – ( λ + λ c ) t ]
R = exp [ – ( λ + λ β + λ c ) t ] + -------------------------------------------------------
-
λα + λβ + λs

{ 1 – exp [ – ( λ α + λ β + λ s ) t ] }

La particularité du régime séquentiel vient de ce que λs est différent


de λ ; avec λs = λ (et en négligeant λα et λβ devant λ), on retrouve
le régime permanent :
R = exp (– λc t ) [2 exp (– λt ) – exp (– 2 λ t )]
soit la relation (29) avec n = 2.
Dans le cas où λs = 0 (pas de défaillances en stockage) et en
négligeant λα et λ β devant λ, on trouve :
R = (1 + λt ) exp [– (λc + λ) t ] (30)
et avec n dispositifs :
n–1

 ∑ ----------------
i! 
(λ t ) i
R = - exp [ – ( λ + λ ) t ]c (31)
i=0

L’équation (31) est générale, mais elle ne tient pas compte des
modes de défaillances du commutateur. La figure 18 compare le Figure 17 – Redondance de deux alimentations
régime permanent et séquentiel (commutateur parfait).
L’exemple précédent démontre la nécessité de tenir compte des
modes de défaillance du commutateur ; on distinguera les défail-
lances dont les effets sont les suivants :
— impossibilité de commuter un dispositif de secours (armature du
relais ici) ;
— commutation intempestive alors que le dispositif en service est
bon (ici bobine coupée) ;
— pas de mise en service des dispositifs (contacts du relais ici).

Figure 18 – Redondance avec deux dispositifs


Figure 16 – Redondance de deux dispositifs en parallèle
lorsque la fiabilité de l’un dépend de l’état de l’autre

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 20 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

5.3 Fiabilité des ensembles réparés 5.3.2 Régime transitoire et régime stationnaire

Considérons un ensemble constitué d’un seul dispositif à deux


5.3.1 Choix des caractéristiques de fiabilité états (fonctionnement, défaillance) et appelons respectivement P1 (t ),
P0 (t ), les probabilités d’état de fonctionnement et de défaillance ainsi
Un matériel réparé est destiné à être réutilisé après remise en que λ ( t ) et µ ( t ) les probabilités de passage de P 1 ( t ) à P 0 ( t )
état. On peut penser que c’est le cas le plus général (les exceptions (défaillance) et de P 0 (t ) à P1(t ) (réparation). La probabilité µ(t )
sont connues : fusées, satellites, etc.). Deux caractéristiques sont caractérise les systèmes réparables (article Maintenabilité des appa-
utiles ici. reils électroniques [E 1 430] dans le présent traité) et on admet en
général qu’elle est constante : la fonction maintenabilité (§ 1.1.2)
a) L’indisponibilité (§ 1.2.5) (de préférence à la disponibilité, vaut alors 1 – exp (– µt ).
lorsque celle-ci est proche de 1) est la caractéristique la plus utili-
sée pour les systèmes réparés. C’est la probabilité pour qu’à l’ins- La probabilité de bon état à l’instant t + dt résulte de deux
tant considéré l’ensemble soit défaillant malgré la redondance événements mutuellement exclusifs : bon état à t ; en défaillance
éventuelle et les remises en état et sa valeur se stabilise rapide- à t [probabilités respectives : P 1 (t ) ; P 0 (t )]. Les deux probabilités
ment (§ 5.3.2). C’est aussi la fraction du temps pendant laquelle le conditionnelles suivantes d’être en bon état à t = dt valent
matériel n’est pas utilisable (entre sa défaillance et sa remise en respectivement (en négligeant les probabilités d’ordre supérieur
état). en dt ) :
b) La fiabilité ou de préférence le taux de défaillance élémentaire — si l'ensemble est en bon état à l'instant t : la probabilité est
est une caractéristique moins utilisée mais cependant indispensable. [1 – λ (t )] dt ;
En effet, le taux de défaillance rend compte de la fréquence des — si l'ensemble est en défaillance à l'instant t : la probabilité est
défaillances, ce que ne fait pas la disponibilité (et cette fréquence µ (t ) dt d'où :
devient vite constante selon le paragraphe 5.3.2). P 1 (t + dt ) = P 1 (t ) [1 – λ (t )] dt + P 0 (t ) × µ (t ) dt [équation (20)]
(0)

Tableau 5 – Fiabilité des ensembles non réparés. Principaux résultats


Association Approximation
Formule exacte (en posant  t = x )
(redondance) si x  1
Simple totale
1 parmi 2 2 exp (– x ) – exp (– 2 x ) 1 – x2
1 parmi 3 3 exp (– x ) – 3 exp (– 2 x ) + exp (– 3 x ) 1 – x3
1 parmi 4 4 exp (– x ) – 6 exp (– 2 x ) + 4 exp (– 3 x ) – exp 4 x 1 – x4
n


i
1 parmi n ( – 1 ) i + 1 C n exp ( – i x ) 1 – xn
i=1

Simple partielle
2 parmi 3 3 exp (– 2 x ) – 2 exp (– 3 x ) 1 – 3 x2
3 parmi 4 4 exp (– 3 x ) – 3 exp (– 4 x ) 1 – 6 x2
n – 1 parmi n n exp [– (n – 1) x ] – (n – 1) exp (– n x ) 2
1–Cnx2
2 parmi 4 3 exp (– 4 x ) – 8 exp (– 3 x ) + 6 exp (– 2 x ) 1 – 4 x3
3 parmi 5 6 exp (– 5 x ) – 15 exp (– 4 x ) + 10 exp (– 3 x ) 1 – 10 x 3
n (n – 1)
 1 + -----n2- ( n – 3 )  exp ( – n x ) + ( 2 n – n 2 ) exp [ – ( n – 1 ) x ] + -------------------------
3
n – 2 parmi n exp [ – ( n – 2 ) x ] 1 – C n x3
2
n


i k–1
k parmi n C n exp ( – i x ) [ 1 – exp ( – x ) ] n – i 1–Cn xn–k+1
i=k

À commutation
(séquentiel )
1 parmi 2 [1 + x ] exp (– x ) x2
1 – ----------
2

 1 + x + ---------
-  exp ( – x )
x 2 x3
1 parmi 3 1 – ----------
2 6

 1 + x + ---------
- + ... + ------------------------ x n – 1 exp ( – x )
x 2 1 xn
1 parmi n 1 – ----------
2 (n – 1) ! n!

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 21
FIABILITÉ _____________________________________________________________________________________________________________________________

On obtient ainsi l’équation différentielle : états avec n, (n – 1),..., (i ) dispositifs en bon fonctionnement sont
mutuellement exclusifs, la probabilité d’apparition d’une défaillance
P 1′ = – λP 1 + µP 0 (32) pendant dt vaut d’après la relation (20) :
à laquelle on adjoint :  ( p n ) P n + ... + [ p  ( k + 1 ) ] P k + 1
1 = P 1 + P0 (33)


















A (35)
On a écrit pour simplifier P 1 , P 0 , λ, µ qui sont fonction de t. + ( p k ) P k + ... + ( p i ) P i + ... + ( p 1 ) P 1 dt
Si µ et λ sont des constantes, ce système formé par les équations














(32) et (33) admet pour solution : B
En fait, bien que toutes ces défaillances soient effectivement
µ λ
P 1 = ---------------- + ---------------- exp [ – ( λ + µ ) t ] (34) comptabilisées par les services d’entretien, ni celles soulignées en A
λ+µ λ+µ (il reste encore plus de k dispositifs) ni celles soulignées en B (le
P1 est la disponibilité à l’instant t : elle tend vers la disponibilité système est de toute façon défaillant car il n’a, par hypothèse, qu’un
seul état de défaillance) ne rendent le système défaillant. Le taux de
stationnaire µ/( λ + µ) [avec une constante de temps 1/( λ + µ)]
défaillance du système vaut donc [(p /k ) P k ] dt où p /k vaut
soit µ dans le cas très général où l’on peut négliger λ (de 10–6/h à k λ (k dispositifs en fonctionnement). On vérifiera que P k vaut
10 –4/h) devant µ (de 10–2/h à 1) ; au bout du temps 1/µ la partie
n – (k + 1) µ
variable ne vaut plus que 1/e fois sa valeur initiale, soit moins de
4 % de la partie constante (figure 19).
 -----------------------------
k
- ------ 
λ
P k – 1 et que P k – 1 est une valeur approchée de
l’indisponibilité. En effet, celle-ci vaut P k – 1 + P k – 2 + ... + P 0 ,
λ i
5.3.3 Méthodes de calcul somme dont chaque terme vaut ------ ------------------------ fois le précédent, soit
µ n–i+1
pour les ensembles réparables
à peu près λ/µ avec λ/µ < 10–2.
Il y a deux méthodes de calcul dont l’une (§ 5.3.4) ne s’applique D’où le taux de défaillance du système (I étant l’indisponibilité) :
qu’aux systèmes dont les taux unitaires de défaillance et de répara- Λ ≈ µ (n – k + 1) I (36)
tion (par dispositif) sont indépendants de l’état des autres dispositifs.
Les résultats les plus courants sont présentés au paragraphe
Exemple : dans un parc de voitures, les taux de panne de chaque 5.3.7 et dans le tableau 7.
voiture sont bien indépendants, mais les taux de réparation de chaque
voiture ne le sont pas s'il y a un seul mécanicien pour tout le parc :
certaines voitures devront probablement attendre que d'autres soient
réparées avant de l'être elles-mêmes. Leur probabilité de réparation
est donc fonction de l'état du parc.

5.3.4 Taux unitaires de défaillance et de réparation


indépendants de l'état de l'ensemble
(nombre de réparateurs illimité)

Dans ce cas, la méthode la plus pratique est d’appliquer le


théorème (19) aux disponibilités : le tableau 6 donne les principaux
résultats (pour la redondance partielle k parmi n, le raisonnement
est le même qu’au paragraphe 5.2.3.2).
On peut calculer le taux de défaillance de la façon suivante :
appelons par exemple, dans un système k parmi n, P i la probabilité
pour que le système comprenne i dispositifs en bon état et (p /i ) dt
la probabilité conditionnelle d’apparition d’une défaillance pendant dt
si le système comprend i dispositifs en bon état. Sachant que les

Figure 19 – Systèmes réparés

(0)

Tableau 6 – Fiabilité des ensembles réparés


(cas où les taux unitaires de défaillance et de remise en état sont indépendants de l’état de l’ensemble)
Disponibilité Indisponibilité
n n
Association en série de n dispositifs supposés différents, de disponibilité D j
et d’indisponibilité I j ∏ Dj ≈ ∑ Ij
j=1 j=1

Redondance active totale (1 parmi n dispositifs identiques) 1 – (1 – D j )n n


Ij

n k–1

∑ ∑
i i n–i
Redondance active partielle (k parmi n dispositifs identiques) C n Dj ( 1 – D j ) n – i Cn I j ( 1 – Ij ) i
i=k i=0
(0)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 22 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Tableau 7 – Ensembles réparés. Indisponibilité et taux de défaillance


(cas pratique d’approximation lorsque λ /µ est petit devant 1)
Redondance active
Association 1 seul réparateur au moins (n – k + 1) réparateurs
Indisponibilité Taux de défaillance Indisponibilité Taux de défaillance
Série (n ) n λ/µ nλ n λ/µ nλ
1 parmi 2 2 (λ/µ)2 2 λ2/µ (λ/µ)2 2 λ2/µ
2 parmi 3 6 (λ/µ)2 6 λ2/µ 3 (λ/µ)2 6 λ2/µ
3 parmi 4 12 (λ/µ)2 12 λ2/µ 6 (λ/µ)2 12 λ2/µ
(n – 1) n (n – 1) n λ2 /µ
(n – 1) parmi n (n – 1) n (λ/µ)2 (n – 1) n λ2 /µ ------------------------- ( λµ ) 2
2
1 parmi 3 6 (λ/µ)3 6 λ3/µ2 (λ/µ)3 3 λ3/µ2
2 parmi 4 24 (λ/µ)3 24 λ3/µ2 4 (λ/µ)3 12 λ3/µ2
3 parmi 5 60 (λ/µ)3 60 λ3/µ2 10 (λ/µ)3 30 λ3/µ2
(n – 2) (n – 1) n (n – 2) (n – 1) n
(n – 2) parmi n (n – 2) (n – 1) n (λ/µ)3 (n – 2) (n – 1) n λ3/µ2 --------------------------------------------- ( λµ ) 3 --------------------------------------------- [ λ 3 µ 2 ]
6 2

n!
----------------------- ( λµ ) n – k + 1 n! λn – k + 1 n! n!
------------------------------------------------------- ( λµ ) n – k + 1 ---------------------------------------------- [ λ n – k + 1 µ n – k ]
k parmi n (k – 1) ! ----------------------- ---------------------- (k – 1) ! (n – k ) !
( k – 1 ) ! µn – k (k – 1) ! (n – k + 1) !

Redondance passive (régime séquentiel) (dispositif de commutation supposé parfait)


Association 1 seul réparateur au moins (n – k + 1) réparateurs
Indisponibilité Taux de défaillance Indisponibilité Taux de défaillance
Série (n ) n λ /µ nλ n λ/µ nλ
1 parmi 2 (λ/µ)2 λ2/µ 1/2 (λ/µ)2 λ2/µ
2 parmi 3 4 (λ/µ)2 4 λ2/µ 2 (λ/µ)2 4 λ2/µ
3 parmi 4 9 (λ/µ)2 9 λ2/µ 9/2 (λ/µ)2 9 λ2/µ
(n – 1) parmi n (n – 1)2 (λ/µ)2 (n – 1)2 λ2/µ 1/2 (n – 1)2 (λ/µ)2 (n – 1)2 λ2/µ
1 parmi 3 (λ/µ)3 λ3/µ2 1/6 (λ/µ)3 1/ λ3/µ2
2

2 parmi 4 8 (λ/µ)3 8 λ3/µ2 4/3 (λ/µ)3 4 λ3/µ2


3 parmi 5 27 ( λ/µ)3 27 λ3/µ2 9/2 (λ/µ)3 27/ λ3/µ2
2

(n – 2) parmi n (n – 2)3 (λ/µ)3 (n – 2)3 λ3/µ2 1/6 (n – 2)3 (λ/µ)3 1/ (n – 2)3 λ3/µ2
2

( k λ )n – k + 1 1
--------------------------------- ( k λµ ) n – k + 1
1
------------------------ [ ( k λ ) n – k + 1  µ n – k ]
k parmi n (k λ/µ)n – k + 1 -------------------------------
- (n – k + 1) ! (n – k ) !
µn – k

5.3.5 Taux unitaires de défaillance et de réparation


dépendant de l’état du système

Dans ce cas il faut appliquer la méthode des chaînes de Markov


dont les étapes sont les suivantes.
a) On décrit l’évolution du système par un diagramme comme sur
la figure 20. Figure 20 – Diagramme d’état d’un ensemble réparable (1 parmi 2).
Calcul de la disponibilité

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 23
FIABILITÉ _____________________________________________________________________________________________________________________________

Le chiffre dans chaque cercle est le nombre de dispositifs en bon e) On peut aussi calculer la fiabilité mais par un artifice qui traduit
état et les flèches représentent les probabilités de transition : on la signification de cette fonction (qui ne prend pas en compte les
passe d’un état à l’autre soit par remise en état, soit par une nouvelle événements suivant la première défaillance) ; on fige le système
défaillance. Pour passer de (i – 1) à i dispositifs, la probabilité de après la première défaillance totale (on ne répare plus) d’où le
remise en état est µdt s’il n’y a qu’un seul réparateur (le taux unitaire, diagramme de la figure 22.
par dispositif, dépend alors de l’état du système, c’est-à-dire de i ).
Elle est (i – 1) µdt si le nombre des réparateurs n’est pas limité (taux On obtient, S 1′ et S ′2 étant les racines de
unitaire indépendant toujours égal à µdt ). Pour passer de i à (i – 1) S2 + S (3λ + µ) + 2λ2 =0:
dispositifs, la probabilité de défaillance est i λdt si les dispositifs en
bon état fonctionnent (fonctionnement permanent ). Elle est λdt S 1′ exp ( S 2′ t ) – S 2′ exp ( S 1′ t )
dans le cas de la commutation séquentielle (un dispositif seulement R ( t ) = --------------------------------------------------------------------------------------
- (40)
S 1′ – S 2′
fonctionne). La figure 21 donne les diagrammes dans chacun de ces
cas. On montre que R (t ) est rapidement assimilable à une exponen-
b) On écrit pour chaque état i une équation différentielle dont le tielle (l’un des termes est prépondérant). On peut alors calculer la
premier terme est la probabilité de quitter cet état dPi /dt. Le second moyenne des temps jusqu’à défaillance :
membre est la somme algébrique des probabilités de transition
3λ + µ µ
associées à chaque flèche avec le signe moins ou plus selon que M = ------------------- ≈ ------------
la flèche quitte ou se dirige vers l’état considéré i, ces probabilités 2λ 2 2λ 2
étant pondérées par la probabilité d’être dans l’état d’où partent les
flèches. Dans l’exemple de la figure 20, on obtient le système : autre moyen de trouver le taux de défaillance :
Λ ≈ 1/M
P 2′ = – 2 λ P 2 + µP 1 
 pour les systèmes réparés la moyenne des temps jusqu’à défail-
P 1′ = 2 λ P 2 – ( λ + µ ) P 1 + µ P 0  (37) lance est utilisable, mais plutôt comme intermédiaire pour calculer

P 0′ = λ P 1 – µP 0  Λ, puisque le taux Λ peut être considéré comme constant en régime
stationnaire.
n
Il est utile de donner une méthode plus générale pour calculer le
On lui adjoint la relation ∑ P i = 1 (le système est forcément taux de défaillance Λ du système.
i=0
On considère toutes les transitions vers l’état de panne
dans l’un des états P i ).
(figure 23).
c) L’indisponibilité s’obtient en ajoutant les probabilités des états En utilisant le théorème des probabilités conditionnelles
à n o m b r e i n s u f fi s a n t d e d i s p o s i t i f s ( m o i n s d e k ) , s o i t [équation (20)] on écrit de deux manières différentes la probabilité
P k – 1 + P k – 2 + ... + P 0 , c’est-à-dire P 0 dans l’ensemble de la de panne du système :
figure 20.
— soit Dλ
La résolution complète du système s’obtient à l’aide des trans-
formées de Laplace. On trouve ici, S1 et S 2 étant les racines de — soit λ1 P 1 + λ 2 P 2
S + S (2 µ + 3 λ) + µ2 + 2 λ µ + 2λ2 = 0 :
2
avec D disponibilité du système.
2 λ2 S 2 exp ( S 1 t ) – S 1 exp ( S 2 t ) On en déduit Λ.
I = P 0 = ------------------------------------------ – 2λ 2 ------------------------------------------------------------------------------- (38)
µ 2 + 2λµ + 2λ 2 S2 S1 ( S2 – S1 )

Si l’on ne s’intéresse qu’au régime stationnaire, on annule les 5.3.6 Redondance avec commutation
premiers membres du système (37) :
Dans le cas de la redondance avec commutation, on obtient une
P 2′ = P 1′ = P 0′ = 0 première approximation en supposant l’organe de commutation en
et l’on trouve : série : il suffit donc d’ajouter son taux de défaillance et son
indisponibilité dans les formules précédentes.
2λ 2 Pour le fonctionnement séquentiel, la méthode est la même mais
I = ------------------------------------------
µ 2 + 2λµ + 2λ 2 la probabilité de passage (i + 1) vers (i ) est différente car il n’y a
jamais plus de k dispositifs en fonctionnement à la fois
[premier terme de l’équation (38)]. (figures 21c ou 21d ).
Si λ/µ est négligeable devant 1 (cas pratique), on trouve : En fait, il faut tenir compte des modes de défaillance du dispositif
de commutation et refaire le raisonnement du paragraphe 5.2.4.2.
2λ 2
I ≈ ------------ On ne doit jamais surestimer la fiabilité du commutateur dont le
µ2 taux de défaillance risque d’être prépondérant devant celui des
dispositifs secourus.
d) Le taux de défaillance s’obtient comme au paragraphe 5.3.4.
Il vaut (p /k ) P. Ici P k = (µ/λ) P k – 1 [relation de récurrence différente
de celle du paragraphe 5.3.4 car la probabilité de passage de P k – 1 5.3.7 Principaux résultats
à P k vaut µ et non (n – k + 1) µ].
On trouve ainsi : Le tableau 7 donne les développements limités (au premier
Λ=µI (39) terme) des résultats pour les principales combinaisons rencontrées
en pratique (si λ/µ est petit devant 1). On a retenu, deux types de
soit ici λ P 1 ou : maintenance : un seul ou un nombre non limité de réparateurs (avec
2 λ2 µ 2λ 2 l’approximation retenue, il suffit que ce nombre soit supérieur
------------------------------------------ ≈ ------------
µ
µ 2 + 2λµ + 2λ 2

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 24 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Figure 21 – Diagrammes d’état pour les redondances active, passive, selon le nombre de réparateurs

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 25
FIABILITÉ _____________________________________________________________________________________________________________________________

Figure 22 – Diagramme d’état d’un ensemble réparable (1 parmi 2).


Calcul de la fiabilité (on ne répare plus lorsqu’il n’y a aucun dispositif
en état)

Figure 23 – Calcul du taux de défaillance


à n – k ). Il est intéressant de retenir les ordres de grandeur : en
appelant respectivement I J et λ l’indisponibilité et le taux de défail-
lance de chaque dispositif et I et Λ ceux de l’ensemble on a :

I ≈ IJ [ A I J( n – k ) ]
et Λ ≈ λ [ B I (Jn – k ) ] (41)

(n – k ) représente le nombre de dispositifs supplémentaires ajoutés


pour constituer le secours ; A et B sont des coefficients selon
l’organisation et la maintenance.
a ) Si l’on ne vérifie pas soigneusement les hypothèses prises, il
y a risque d’erreur dans l’utilisation de tableau de résultats comme
ceux du tableau 5. En effet, quels que soient la méthode, les
tableaux, les programmes de calcul utilisés, l’étape la plus
importante est la validation des hypothèses prises (sur les transi-
tions, sur le nombre de réparateurs, sur les états, etc.).
b ) À cet égard, les consignes de maintenance peuvent changer
les résultats. Elles doivent être étudiées soigneusement (si deux
dispositifs de fonctions différentes sont à réparer et s’il n’y a qu’un
seul réparateur il faut définir une priorité).
c ) Dans la plupart des systèmes, les opérations qui suivent la
défaillance d’un sous-ensemble ne sont pas aussi simples qu’on l’a
supposé : la commutation vers l’organe de secours n’est pas
instantanée et elle se décompose en plusieurs opérations avec des
possibilités d’échecs : les principes de la méthode sont sans change- Figure 24 – Méthode de la matrice des transitions
ment, mais le nombre d’états risque d’augmenter au point de rendre
les calculs délicats, même avec des programmes qui risquent d’être
saturés. — on remplit les cases de la diagonale en y portant l'opposé de
la somme des termes de la même colonne : on trouve alors la matrice
On peut citer : du système d'équations différentielles (37) (figure 24, matrice de
— la probabilité de détection d'une défaillance (§ 5.3.8.1) ; droite).
— la probabilité d'indication erronée d'état défaillant ; L’intérêt de cette méthode est qu’elle permet dans certains cas de
— la durée de détection d'état défaillant ; réduire la matrice : si l’on trouve deux colonnes identiques on
— la durée de reconfiguration. remplace les deux états par un état unique dont la ligne contient la
d ) Dès que le nombre d’états devient important, les calculs à la somme des termes de chaque ligne supprimée et dont la colonne est
main deviennent rebutants ; on peut utiliser des programmes identique à une des colonnes supprimées.
d’inversion de matrice, mais les programmes les plus pratiques sont f ) Rappelons enfin l’importance des modes communs, c’est-à-dire
ceux qui apportent une aide pour écrire les états et les transitions. des probabilités de défaillances simultanées de sous- ensembles en
Ces logiciels sont en général propres aux entreprises mais on peut principe en secours : le cas des deux alimentations en parallèle élec-
citer le programme GLOBAL proposé par la CISI (Compagnie Inter- triquement qui ne sont plus en redondance pour les courts-circuits
nationale de Services en Informatique) et le programme SURF du est un exemple.
LAAS (Laboratoire d’Analyse et d’Analyse des Systèmes) qui existent
commercialement. Il ne faut pas oublier, par ailleurs, que des modes communs
peuvent se dissimuler : par exemple, deux dispositifs en redondance
e ) Une partie importante du travail est la description des états et active équipés de composants d’un même lot défectueux donnant
des transitions : la méthode des graphes de Markov a justement lieu à des défaillances systématiques. Il n’y a plus de redondance
pour but de faciliter ce travail. On peut citer aussi la méthode dans ce cas (§ 3.3).
suivante (figure 24).
Considérons le système 1 parmi 2 de la figure 20. On écrit la
matrice de transitions dont chaque ligne et chaque colonne 5.3.8 Applications
représentent un état (désigné en tête de colonne et de ligne) :
— dans chaque case on porte la probabilité de transition d'un état 5.3.8.1 Dispositif d'alarme imparfait
vers l'autre (dans le sens de la flèche) : colonne 2, ligne 1 : état 2
vers état 1, soit 2 λ (figure 24, matrice de gauche) ; On a supposé jusqu’ici que les interventions sont déclenchées dès
qu’il y a défaillance d’un dispositif. En pratique, les organes de
surveillance sont imparfaits : la figure 25 donne par exemple le

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 26 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

diagramme d’un ensemble de deux dispositifs identiques en et que la probabilité de rupture de stock vaut :
redondance simple totale et dont le dispositif d’alarme imparfait a
2
une probabilité de détection α. L’état 1 correspond à un dispositif Ij
défaillant, défaillance non détectée. On vérifiera (mêmes règles P E 4 = ----------------------------------------------------------------------
2
- (47)
qu’au paragraphe 5.3.5) que l’indisponibilité et le taux de défaillance ( 1 + I j + I j ) + λε ( 1 + I j )
valent :
avec I j = λ/µ.
2 λ [ λ + µ (1 – α)]
I = ------------------------------------------------- (42)
µ2
5.3.8.3 Stock de réserve limité
2 λ [λ + µ (1 – α)] Considérons un parc de dispositifs auquel est associé un stock de
Λ = ------------------------------------------------ (43)
µ dispositifs de rechange. Les paramètres ε et µ ont la même significa-
tion qu’au paragraphe 5.3.8.2 et λ est le taux de défaillance d’un
La figure 26 donne un exemple pratique : deux alimentations dispositif. L’état du parc est défini par trois paramètres (nombre de
(taux de défaillance λ = 10–6/h) sont couplées par deux diodes (taux dispositifs en service, en stock, à réparer). La figure 28 représente
de défaillance : 10–9/h, mode principal : circuit ouvert). Chacune des le diagramme d’un parc où trois dispositifs sont nécessaires et où
alimentations est suffisante (redondance simple totale). Le dispositif il y a deux dispositifs de rechange. En appelant Pi les probabilités
d’alarme (voyants) ne détecte pas la coupure d’une diode qui pour que le parc soit dans l’état i, les probabilités pour qu’il y ait
constitue pourtant une défaillance du dispositif (alimentation 3, 2, 1 dispositifs en service sont (P 0 + P1 + P 2) ; (P 3 + P 4 + P 5 ) ;
+ diode) : la probabilité de non-détection est ici de 10–3 (taux de (P 6 + P 7 ). On en déduit que le nombre moyen de dispositifs en
défaillance diode/alimentation + diode). On trouve alors service est :
I = 22 × I0–8 (au lieu de 2 × 10–8 avec α = 1) et Λ = 22 × 10–10/h 3 (P 0 + P 1 + P 2) + 2 (P 3 + P4 + P 5) + (P 6 + P 7)
(au lieu de 2 × 10–10/h).
Les formules (42) et (43) sont des formules simplifiées valables que la disponibilité d’un dispositif est :
lorsque λ/µ et la probabilité de non détection (1 – α) sont (P 0 + P1 + P2) + 2/3 (P 3 + P 4 + P 5 ) + 1/3 (P 6 + P 7)
négligeables devant 1.
En posant β = 1 – α les formules complètes sont : et que la probabilité de rupture de stock est :
P 5 + P 7 + P9
λ λ

2 ------ ------ + β
µ µ  La figure 29 peut être complétée (figure 28) : elle correspond,
I = ------------------------------------------------------------------------------------ en effet, au cas où l’on néglige les probabilités de panne pendant
λ λ2
1 + 2 β + 2 ------ ( 1 + 2 β ) + 2 --------- que l’on remplace un dispositif défectueux c’est-à-dire que l’on
µ µ2 néglige λ/ε devant 1 (ce qui est légitime).
λ
soit, si ------  1 :
µ
λ λ

2 ------ ------ + β
µ µ
I = --------------------------------------

1+2β
qui devient si β  1 :
2λ λ
µ µ 
I = ---------- ------ + β
 (44)

λ
------ + β
µ
Λ = 2 λ --------------------------------------
λ
1 + 2 β + 2 ------
µ Figure 25 – Diagramme d’état d’un ensemble réparable (1 parmi 2)
lorsqu’une fraction des pannes n’est pas détectée
λ
soit, si ------  1 :
µ
λ
------ + β
µ
Λ = 2 λ -------------------- (45)
1+2β
λ
Λ = 2 λ ------ + β
µ  
5.3.8.2 Redondance passive, stock de réserve limité
La figure 27 représente le diagramme (quatre états possibles)
d’un ensemble de deux dispositifs, l’un normalement en fonctionne-
ment, l’autre normalement en attente (ne fonctionnant pas) ou en
réparation. On suppose que le remplacement et la réparation
suivent des lois exponentielles de taux respectivement égaux à ε
(remplacement) et µ (réparation). On vérifiera que la disponibilité Figure 26 – Association de deux alimentations
vaut :
1 + Ij
PE 1 + P E 3 = ----------------------------------------------------------------------
2 (46)
( 1 + I j + I j ) + λε ( 1 + I j )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 27
FIABILITÉ _____________________________________________________________________________________________________________________________

Figure 27 – Redondance passive (1 parmi 2)

Figure 29 – Redondance passive. Disponibilité et stocks de rechange

Remarque : on a supposé qu’il n’y avait qu’un opérateur (une


tâche à la fois).
Nous avons retenu comme définition de rupture de stock le cas
où il n’y a plus de réserve (r = 0) et où il faudrait remplacer un
dispositif. On peut adopter d’autres points de vue, par exemple,
on peut déclarer qu’il y a rupture de stock dès que l’on constate
qu’il n’y a pas assez de dispositifs en bon état pour effectuer tous
les remplacements (ici n + r < 3 ou a > 2) (donc avant d’avoir
terminé tous les remplacements). On trouverait :
P 5 + P 6 + P 7 + P 8 + P 9 + P11
ce qui ne changerait pas beaucoup les valeurs numériques car le
remplacement est de courte durée.

5.3.9 Ensembles à plus de deux états


(ou à fonctionnement dégradé )

Aux paragraphes 5.2 et 5.3 on a considéré seulement des


Figure 28 – Redondance passive. Disponibilité et stocks de rechange ensembles à deux états (fonctionnement, défaillance). Certains
ensembles peuvent être dans des états intermédiaires où un service
dégradé est encore possible (perte de puissance, etc.). De même,
La figure 29 donne le graphe complet ; les formules deviennent dans le cas de la redondance k parmi n, si chaque dispositif assure
alors : un service qui lui est propre (§ 5.1.1), on doit calculer son
— nombre moyen de dispositifs en service : indisponibilité et son taux de défaillance avec redondance. Par
3 (P 0 + P1 + P2) + 2 (P 3 + P 4 + P 5) + P 6 + P 7 + P 10 ailleurs, des dispositifs peuvent avoir plusieurs modes de défaillance.
La figure 30 donne un diagramme d’un ensemble ayant plusieurs
1
— disponibilité d'un dispositif : ------ (nombre moyen).
3

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 28 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

états possibles (E 0 l’état parfait, E i les états dégradés) et où λ i et Ce n’est pas le cas en général pour les réparations et il arrive
µ i sont les probabilités de transition correspondantes : la probabilité aussi que certains composants n’aient pas une loi exponentielle de
P 0 d’être dans l’état E 0 est : survie mais obéissent plutôt à une loi log-normale (diodes laser).
1 Dans la méthode des états fictifs, on remplace un état donné par
P 0 = -------------------------------
n
- plusieurs états : en série, en parallèle (ou une combinaison des deux).
λi
1 + ∑ -------
µi 5.3.11.1 États en série
i=1

λi Supposons que l’on ait k états dont les temps d’occupation sont
et P i = ------- P 0 des variables aléatoires θi avec une fonction de distribution expo-
µi
nentielle de paramètre νi :
Si tous les temps de réparation sont identiques, en appelant Fi (t ) = P (θi < t ) = 1 – exp (– νi t )
λ = Σλ i (taux global du matériel), on trouve :
Si ces états sont traversés en série (selon leur ordre), le temps θ
µ λi passé dans ces k états est une variable aléatoire somme des θi :
P 0 = ---------------- et P i = ---------------
-
µ+λ µ+λ k
θ = ∑ θi
i=1
5.3.10 Organisation d'un système
dont la fonction de densité f (t ) est égale au produit de convolution
On doit également tenir compte de l’effet des défaillances : la des fonctions de densité f i (t ) des variables θi :
figure 31 illustre un cas très fréquent dans un système de f (t ) = f 1 (t ) ∗ f 2 (t ) ∗... ∗ f i (t ) ∗... ∗ f j (t )
télécommunications : une défaillance d’un bloc A ne coupe que
30 voies téléphoniques alors que celle du bloc B en coupe 120 : on Si l’on prend la transformée de Laplace, on obtient (en posant
peut alors être conduit à secourir le bloc B. D’autre part, on doit νi = 1/θi ) :
considérer les caractéristiques de fiabilité de chaque voie (λ1 + λ 2) k k
νi
et les charges d’exploitation totales (4 λ1 + λ 2). F(p ) = ∏ f i (p )
i=1
= ∏
i=1
 ----------------
p+ν  i
-

 ---------------
p+ν 
ν k
5.3.11 Disponibilité lorsque la loi de distribution soit F(p ) = - si tous les ν i sont égaux
des transitions est quelconque
t k – 1 exp ( – ν t )
νk
d’où f ( t ) = ----------------------------------------------------
Les méthodes décrites aux paragraphes 5.2 et 5.3 supposent que (k – 1) !
les probabilités de défaillance et de réparation suivent des lois
exponentielles. soit une loi d’Erlang d’ordre k – 1.
Ainsi la loi d’Erlang (d’ordre k – 1) peut être considérée comme
la densité de probabilité de durée θ correspondant à une succession
de k tâches élémentaires de durée θi , toutes distribuées selon des
lois exponentielles de même paramètre ν.
Les courbes de la figure 32 donnent pour différentes valeurs de
k la fonction de densité dans le cas où tous les νi sont égaux.

Figure 30 – Diagramme d’un ensemble E où des fonctionnements


dégradés E 1 , ..., E n sont possibles

Figure 31 – Organisation d’un système de voies téléphoniques Figure 32 – Fonction de densité de probabilité de la loi d’Erlang
(multiplexeur)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 29
FIABILITÉ _____________________________________________________________________________________________________________________________

On peut ainsi approcher une loi de distribution donnée par une loi Par exemple, pour une distribution des réparations, on pourra
d’Erlang. Si la loi que l’on désire simuler n’est connue que par ses considérer plusieurs états de panne du matériel, chacun d’entre eux
deux premiers moments (moyenne et variance), il existe alors une correspondant à une fraction ωi des pannes possibles et demandant
loi d’Erlang possédant exactement les deux mêmes moments. En un temps de réparation distribué selon une loi exponentielle de
effet, si l’on note m la valeur moyenne de θ et σ son écart type, on a : paramètre ρi .
Si l’on considère n états en parallèle, la loi de distribution de la
d [F (p )]

m = – ---------------------------
dp  p=0
durée de réparation est donnée par :
n
m = k /ν si tous les ν i sont égaux
soit f (t ) = ∑ ω i ρ i exp ( – ρ i t )
et σ = m2 – m2 i=1
n
(p )
avec m2 =
d [F 2 ]
 -----------------------------
- avec ∑ ωi = 1
dp 2 i=1
k
soit σ = ------------- si tous les νi sont égaux Connaissant une distribution à approcher, on obtient les valeurs
ν de ωi et ρi en égalant les premiers moments de la distribution
de f (t ).
La règle est alors la suivante :
Par exemple, si l’on considère deux états en parallèle, on obtient
(figure 34) :
On connaît la moyenne m et l’écart type σ de la distribution que 2A
l’on veut approcher : le nombre d’états fictifs à intercaler k est le ρ 2 = ---------------------------------------------------- ; ω 2 = 1 – ω 1
plus petit entier supérieur ou égal à m 2/σ 2. Le taux de transition – B ± B 2 – 4 AC
entre ces états vaut :
2 ( µ ′1 ρ 2 – 1 ) µ′1 ρ 2 – 1
ν = k /m ρ 1 = ------------------------------------- ; ω 1 = --------------------------
µ 2′ ρ 2 – 2 µ 1′ ρ2 – ρ1

La figure 33 donne un exemple d’application. 2 µ′1 2 – µ ′2


avec A = ----------------------------------
2
5.3.11.2 États en parallèle
µ ′3 – 3 µ 1′ µ 2′
On considère que les transitions (défaillances ou réparations) B = ------------------------------------------
-
peuvent être réparties en catégories (pour les réparations, selon la 6
difficulté par exemple) à l’intérieur desquelles la répartition est 3 µ ′2 2 – 2 µ ′1 µ ′3
exponentielle, de paramètre ρi . C = -------------------------------------------------
-
12
µ 1′ , µ ′2 , µ ′3 étant les moments centrés d’ordre 1, 2 et 3 de la
distribution à approcher.

5.3.12 Cas où l’on connaît la moyenne des durées


de réparation

Règle : l’indisponibilité d’un dispositif dont le taux de défail-


lance est constant et dont on connaît la durée moyenne de
réparation m est donnée par la formule suivante quelle que soit la
loi de réparation :
λm
indisponibilité = -----------------------
1+λm
ou λ m si λ m  1
On démontre aussi une formule plus générale dans le cas où λ
n’est pas constant, si l’on considère la moyenne θ des temps
jusqu’à défaillance, on trouve :
m
------------------
θ+m
m m
ou -------- si --------  1
θ θ

Figure 33 – États fictifs en série (cas d’un dispositif)


(on retrouve le résultat du paragraphe 5.3.12)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 30 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Figure 34 – Diagramme d’états d’un matériel avec deux états fictifs


qui, dans cet exemple, correspondent à des états réels

5.4 Effet des dérives


5.4.1 Influence des dérives des composants
élémentaires
Elle ne se traite pas comme pour les défaillances catalectiques, car
le franchissement d’une valeur limite par un paramètre d’un
composant particulier n’empêche pas forcément le bon fonction-
nement de l’ensemble : la valeur des paramètres de tous les
composants peut modifier le résultat. Si p 1 , ...., pn sont les para-
mètres des éléments dont la valeur détermine p, on a en général :
p = ϕ (p1 , ..., pn ) Figure 35 – Répartition des valeurs de gain de transistors
(répartition normale sur papier de Gauss)
Supposons que l’ensemble soit déclaré bon si p  P 0 : la fiabilité
(quant aux dérives) de l’ensemble à l’instant t est la probabilité pour
que p soit supérieur ou égal à P0 à l’instant t (la fiabilité globale de b ) Méthode des valeurs extrêmes : la valeur la plus basse de g 1
l’ensemble s’obtient alors en multipliant cette probabilité par les et g 2 (la probabilité pour que le gain soit encore inférieur n’est que
probabilités de survie correspondant aux autres modes de défaillance, de 10 %) est 96. Pour que l’amplificateur fonctionne, il faut donc :
défaillances catalectiques par exemple). Il y a plusieurs méthodes
g 3  9 × 10 5 Ag 1 g 2 A
pour traiter la fiabilité par dérives : les méthodes des valeurs
moyennes et extrêmes en donnent respectivement des valeurs par 9 × 10 5
soit g 3  ---------------------- ou 98
défaut et par excès. ( 96 ) 2
a) Méthode des valeurs moyennes : on suppose que (n – 1) des
La probabilité correspondante est 0,75 (figure 35) et la fiabilité :
paramètres élémentaires ont leur valeur moyenne à l’instant t et,
connaissant la probabilité de répartition du n e, on calcule la probabi- R = (0,75)3 = 0,42
lité de p  P 0 . On recommence pour les n composants, et la fiabilité
est le produit des probabilités Rn . c ) Méthode de Monte Carlo : le calcul (non détaillé ici) montre que
la probabilité de répartition du gain de l’amplificateur est également
b) Méthode des valeurs extrêmes : on suppose au contraire que
(n – 1) des paramètres élémentaires ont soit une valeur extrême normale, de moyenne A × 106 et de dispersion environ deux fois plus
spécifiée, soit une valeur dont la probabilité de dépassement est grande. La probabilité de défaillance (G < 9 × 105 A ) est de ce fait
faible (par exemple 10 %) à l’instant t. Connaissant la probabilité de 2 × 10–2 et la fiabilité R = 0,98.
répartition du n e, on calcule comme en a la probabilité de p  P 0 ,
puis le produit de ces probabilités Rn .
5.4.3 Calculs par simulation
c) Méthode de Monte Carlo (méthode empirique) : on tire au
hasard un jeu de valeurs p1k ,..., pnk de chaque paramètre d’après
On constate que les méthodes a et b sont rapides mais peu
leur répartition statistique au temps t et on calcule pour chaque
précises. La méthode c est la meilleure : sa mise en œuvre est plus
expérience pk = ϕ (p1k ,...., pnk ). La répartition des valeurs pk est
difficile, mais elle est devenue maintenant très abordable par
un estimateur de la répartition statistique de p d’où l’on tire direc-
calculateur (la répétition du même calcul n’est pas coûteuse).
tement la probabilité pour p  P 0 , c’est-à-dire la fiabilité.
Pour fixer les idées, le programme [6] d’analyse de réseau donne
les valeurs d’un paramètre p d’un organe (éventuellement d’une
5.4.2 Exemple partie d’organe si la taille dépasse les possibilités d’analyse du
programme sachant que certains éléments comme les transistors
On considère un amplificateur à trois transistors dont le gain sans doivent être décomposés en éléments de leur schéma équivalent)
contre-réaction est G = A g 1 · g 2· g 3 , où g 1 , g 2 , g 3 sont les gains pour chaque fréquence souhaitée. Il donne les coefficients de
de chacun des trois transistors et A un coefficient de proportionnalité. sensibilité de chaque paramètre (rapport de la variation de p à celle
Cet amplificateur est supposé bon si GA  9 × 10 5 . D’après une d’un élément pk ). Il donne par répétition et par tirage la répartition
expérience préalable, la probabilité de répartition du gain d’un de ces de p en fonction des répartitions de chaque élément p k .
transistors à 30 000 h est donnée par la figure 35. Un tel calcul permet donc non seulement de connaître la fiabilité
a ) Méthode des valeurs moyennes : on a g 1 = g 2 = 100 ; pour à plusieurs instants (selon les hypothèses de dérives élémentaires de
que G/A soit supérieur à 9 × 105, le gain g 3 du troisième transistor chaque composant) mais aussi de connaître les composants les plus
doit être supérieur à 90. La probabilité R 3 correspondante est critiques (coefficients de sensibilité) et d’optimiser le réseau non
(1 – 10–3), d’où la fiabilité égale à : seulement pour minimiser sa dérive en fonction du temps (fiabilité)
mais en fonction de n’importe quel facteur (température par
R1 R2 R3 ≈ 1 – (3 × 10–3) exemple).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 31
FIABILITÉ _____________________________________________________________________________________________________________________________

5.4.4 Intérêt des études de fiabilité par dérive. ensuite. Pour des raisons économiques, le nombre de pièces × heures
Tendances est donc réduit (ce qui est compatible avec le choix de fortes
contraintes).
Ainsi, les études de fiabilité par dérive, désormais peu coûteuses L’analyse des résultats d’exploitation donne les renseignements
et intégrées aux études d’optimisation des schémas, sont devenues exactement complémentaires, puisque c’est le seul moyen pour
une nécessité. Elles offrent d’autres possibilités : connaissant les estimer des taux de défaillance faibles dans les conditions réelles
coefficients de sensibilité, il est possible d’inverser la démarche du d’emploi (nombre important de pièces × heures en général,
calcul et non plus de calculer la fiabilité en fonction des dérives de contraintes normales de fonctionnement donc faibles). Le fait que les
composants, mais de se fixer des limites maximales aux dérives de conditions d’emploi soient réelles fait souvent apparaître des
composants : celles-ci sont ensuite vérifiées par des essais mécanismes que les essais en laboratoire n’avaient pas permis de
accélérés (§ 6.4). Éventuellement, le choix d’une technologie plus prévoir (effet d’un environnement, corrosion, parasites, surcharges,
appropriée pour un composant critique permet de tenir les etc.).
exigences et de rendre négligeable la proportion de défaillances par
dérive pendant toute la durée de la mission ou entre deux réglages
d’entretien préventif (ou de supprimer ceux-ci). 6.1.3 Essais en laboratoire
Toutefois, ces études sont actuellement limitées aux parties
analogiques des organes car le calcul des circuits numériques (effet Ces essais portent en général sur un échantillon donné et on ne
des dérives) n’est pas encore praticable (ce qui constitue une gêne remplace donc pas les pièces défaillantes (lorsque ce sont des
certaine puisque la tendance actuelle est de généraliser les organes composants). Des précautions doivent être prises avant les essais :
numériques). En outre, on se heurte encore à la rareté des données — l'échantillon doit être bien homogène (caractéristiques de
sur les dérives de composants (souvent masquées par d’autres fabrication, origine des lots) ;
instabilités, hystérésis, effet de la température, ces données sont — les conditions de fonctionnement doivent être bien connues (on
rarement publiées). Mais il est toujours possible de déterminer des doit notamment s'affranchir des risques d'oscillations parasites), les
limites admissibles aux dérives des composants les plus critiques (en sources d'alimentation doivent être fiables (de nombreux essais ont
général seuls quelques composants sont critiques). été perdus par suite de l'emballement d'une étuve) ; des signalisa-
tions appropriées doivent déceler les défaillances pouvant provoquer
des dégâts matériels ou la défaillance d'autres appareils ;
— le personnel doit être expérimenté et les moyens disponibles
6. Estimation de la fiabilité. doivent être suffisants en quantité et en qualité (appareils de
mesure, traitement des mesures par informatique : de nombreux
Essais essais ont été abandonnés faute de moyens).
On doit établir un plan d’essai en se donnant une loi d’accéléra-
6.1 Essais en laboratoire tion probable (§ 6.4) et en choisissant le nombre de pièces pour
obtenir un nombre significatif de défaillances identique pour
et en exploitation chaque jeu de contraintes et selon la précision souhaitée. Si l’on
veut révéler un phénomène systématique, on recherchera une
6.1.1 Généralités durée de vie médiane et on pourra se contenter de 20 à 30 pièces.
Le tableau 8 est un exemple de plan à deux contraintes (toutes les
Le but de ce paragraphe est de rappeler les méthodes statistiques pièces dont le nombre est porté dans chaque case doivent avoir la
applicables à l’estimation d’une probabilité ainsi que les moyens dont même provenance). Un plan de mesures est nécessaire ; celles-ci
on dispose soit pour juger de la valeur des résultats, soit pour établir sont plus fréquentes au début qu’à la fin de l’essai afin de révéler
un plan d’expérience. Ces méthodes sont, dans le cas de la fiabilité, d’éventuelles défaillances précoces [en général 0,168 h (ou
quelque peu transformées du fait que la fiabilité est fonction du temps 1 semaine), 500, 1 000, 2 000 h, etc.]. Si l’on doit compter des
et des contraintes appliquées. On verra que l’on tire bénéfice de ces défaillances et si celles-ci ne sont ni détectées ni enregistrées, on
propriétés si les fonctions sont connues. Les essais décrits dans ce calculera la durée par défaut (168 h pour une pièce trouvée
paragraphe peuvent être utilisés non seulement pour estimer une défaillante à 500 h). (0)
caractéristique de fiabilité [moyenne, écart type, intervalle de
confiance (§ 6.2)] mais, notamment dans le cas d’une loi expo-
nentielle, pour prendre une décision (accepter ou refuser un lot de Tableau 8 – Plan d’essais dans le cas de deux contraintes
dispositifs) : cet aspect des essais est traité au paragraphe 8.7. E et T (nombre de pièces n ) (1)
E
6.1.2 Domaine d'application T E1 E2 E3
On essaie en laboratoire des dispositifs (composants ou équipe-  = 0,4  = 0,7 =1
ments) prototypes en cours de développement (afin de vérifier qu’il
ne subsiste pas de grosses erreurs de conception ou afin de T1 = 70 oC ..................... n = 100 n = 40
rechercher les mécanismes de dégradation possibles) ou des T2 = 90 oC ..................... n = 70 n = 20
dispositifs prélevés dans la production courante (suivi des risques de
défaillance prédominants ou évaluation poussée du taux de T3 = 125 oC n = 50 n = 20 .....................
défaillance). On s’efforce de reconstituer toutes les contraintes princi- (1) On a admis que les deux contraintes principales étaient la température T
pales et de les accélérer, de préférence séparément, afin de simuler et une contrainte électrique E traduite ici en facteur de charge ρ (rapport
une durée de fonctionnement si possible supérieure à la durée de vie entre la tension appliquée et la tension nominale). Ce plan correspond à
industrielle du dispositif, ce qui est praticable pour les composants des condensateurs au tantale et provient de valeurs de taux de
mais non pour les équipements (essais accélérés, § 6.4). Sauf pour défaillance tirés de la figure 5 avec des coefficients multiplicateurs
convenables. La durée de l’essai est de 10 000 h.
l e s e s s a i s s p é c i fi q u e s d e d é g r a d a t i o n s r a p i d e s
inhabituelles (§ 3.1.2b ) ou de fragilité excessive, les essais en On renonce à faire des essais sous faibles contraintes (ρ = 0,4 et 70 oC,
laboratoire sont donc destructifs et les pièces sont inutilisables 90 oC) car il faudrait trop de pièces (300 et 200). On renonce aussi à
appliquer simultanément la température maximale et la tension maximale
(nominale).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 32 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

L’exploitation des résultats ne doit pas être bâclée : on peut en Tout doit être mis en œuvre pour obtenir des renseignements
général donner une interprétation beaucoup plus riche des essais par complets, exploitables scientifiquement : on pourra préférer un
une réflexion attentive et en exploitant les résultats partiels (afin de échantillon soigneusement suivi à une population importante mais
modifier éventuellement le plan d’essais). L’analyse des pour laquelle le sérieux des informations ne peut être garanti (à
défaillances (§ 6.7) est indispensable afin d’éliminer de possibles condition que l’effectif soit suffisant et qu’il soit représentatif). Les
défauts accidentels (erreurs, fausses manuœvres, surcharges par personnes chargées de l’exploitation et de la collecte des renseigne-
oscillations parasites, etc.). Pour les essais à plusieurs contraintes, ments (de remplir des fiches) doivent elles-mêmes être convaincues
les résultats peuvent être présentés selon la figure 36 : leur de l’intérêt du suivi qui ne doit pas être confondu avec une vaine
exploitation n’est possible que si les effets des divers couples de fantaisie administrative ou un biais pour juger de leur travail [13].
contraintes sont très différents. L’analyse de l’exploitation des matériels prototypes doit être faite
Lorsque l’on étudie le comportement de groupe (durée de vie, avec la même rigueur malgré la tentation de remédier au plus vite
dérives), on doit éliminer les valeurs aberrantes qu’elles soient dues aux défauts observés et sans en rendre compte à tous les services
à des erreurs grossières de mesure ou à la présence de composants intéressés.
réellement aberrants. Cette élimination peut généralement se faire à L’analyse de la fiabilité obtenue en exploitation est fondamentale :
partir des graphiques à échelles fonctionnelles, ou en éliminant les il ne faut pas se contenter d’observer des résultats bruts de taux de
valeurs extérieures à m ± 3 σ ( m moyenne des valeurs de mesure défaillance de matériels (et de s’assurer, par exemple, qu’ils sont
du paramètre étudié, σ écart type). Il faut par ailleurs connaître la meilleurs que les valeurs d’objectif ou les valeurs contractuelles). Il
reproductibilité des mesures (par la répartition de la même mesure faut évaluer les taux de défaillance de chaque composant et les
répétée) et ne traiter que des dérives significatives en fonction du analyser de toutes les façons possibles selon le lieu d’utilisation, l’âge
temps par ajustement graphique par exemple (§ 6.3). Les pièces du matériel, le repère du composant sur le schéma, la période
aberrantes éliminées dans l’étude de groupe sont très intéressan- d’utilisation, été, hiver..., le lot du composant. Les analyses doivent
tes et doivent être étudiées par ailleurs [par attributs (§ 6.2) et ana- être suivies, chaque fois que cela est nécessaire, d’analyses
lyse des défaillances (§ 6.7)], car elles donnent des renseignements électriques et physiques des composants rebutés.
sur les écarts de fabrication comme les défaillances C’est alors que l’on verra apparaître des anomalies qui resteraient
catalectiques (§ 6.2). noyées dans une moyenne sans ces analyses. C’est en essayant
d’expliquer les anomalies que l’on fera progresser la fiabilité des
nouveaux matériels. En effet, on cherchera des remèdes aux
6.1.4 Analyse des résultats d'exploitation anomalies pour les matériels en exploitation, lorsque c’est possible,
et surtout pour les matériels à venir et enfin lorsque c’est le cas,
Cette analyse suppose que l’on connaît la répartition des pour les composants (fabrication et contrôle).
composants dans chaque sous-ensemble, ce qu’une gestion On pourra alors prendre comme valeurs d’objectifs pour ces
mécanisée rend désormais possible. Chaque constituant du taux de nouvelles études les valeurs moyennes observées une fois enlevées
défaillance doit être bien connu : le nombre d’appareils en service à les anomalies.
chaque instant, le nombre de défaillances (avec le moins d’erreurs
possible : aucune réparation, aucun remplacement ne doivent passer Il existe, par ailleurs, des outils mathématiques qui permettent de
inaperçus), le temps de fonctionnement. La durée cumulée est déceler des défaillances systématiques. Citons l’utilisation de la loi
estimée avec remplacement des pièces défaillantes (§ 6.2.1), mais de Poisson : si le taux de défaillance d’un dispositif est constant et
on tiendra compte au mieux des mises en service et des durées vaut λ, la probabilité d’observer k défaillances pendant une durée t
effectives de fonctionnement afin de révéler d’éventuelles vaut :
défaillances de jeunesse. On doit distinguer les défaillances dues à ( λ t ) k exp ( – λt )
des circonstances extérieures et celles de l’appareil lui-même (les -------------------------------------------------
k!
défaillances provoquées par la défaillance primaire d’un autre
appareil ou par des surcharges). Il faut s’assurer que les conditions La méthode est la suivante : on observe c défaillances d’un disposi-
d’emploi soient les mêmes pour tous les appareils sinon fractionner tif pendant t :
en groupes homogènes. Il faut aussi connaître les contraintes — hypothèse de base : le taux de défaillance est inférieur ou égal
appliquées à chaque composant (à défaut on prendra des à λ 0 (λ 0 est par exemple le taux prévu ou le taux observé ailleurs) ;
contraintes moyennes) ; l’analyse des défaillances est — on choisit le risque α de se tromper en prenant cette hypothèse ;
indispensable (§ 6.7). — on calcule la probabilité P de trouver c défaillances ou plus :

( λ 0 t ) k exp ( – λ 0 t )
P = ∑ ------------------------------------------------------
k!
-
k=c

— si P < α l'hypothèse est rejetée : il y a trop de défaillances, le


taux de défaillances est supérieur à λ 0 s'il est constant ou bien on
est en présence de défaillances systématiques.

6.2 Cas des défaillances catalectiques


L’étude statistique des défaillances catalectiques est une étude
par attributs (bon ou mauvais). C’est aussi le cas pour les pièces
aberrantes (§ 6.1.3) et pour la recherche de la loi d’accélération de
dérives (§ 6.4).
Les estimateurs de la fonction fiabilité et du taux de défaillance
ont été donnés aux paragraphes 1.1.1 et 1.2.3. La validité de
l’estimation est donnée par l’intervalle de confiance dans lequel la
Figure 36 – Taux de défaillance en fonction des contraintes (E et T )
caractéristique de fiabilité cherchée a une probabilité donnée de
et intervalles de confiance (parties hachurées)
figurer.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 33
FIABILITÉ _____________________________________________________________________________________________________________________________

Pour la fonction fiabilité, cet intervalle est d’autant plus faible à En pratique, les bornes de l’intervalle de confiance s’obtiennent
probabilité donnée que le nombre de pièces mises en essai N 0 est en remplaçant n par M dans la formule λ = n/τ et selon la note du
grand. On peut le vérifier de la manière suivante : la probabilité tableau 9 qui donne les valeurs de M pour des valeurs courantes
d’avoir N éléments survivants au temps t est donnée par la loi de n et de α. L’abaque de la figure 37 traduit ce résultat.
binomiale, soit :
Exemple : l'essai est tronqué, n = 0 (pas de défaillance) ;
C N0 R N ( 1 – R ) ( N 0 – N )
N
τ = 106 pièces × heures. Quelle est la limite supérieure du taux de
défaillance à 90 %, l'intervalle de confiance étant unilatéral (on ne
pour laquelle la valeur moyenne est : cherche pas de limite inférieure) ? On a α 2 = 0,1 ; α1 = 0 ; n = 0 ;
M = 2,3. Il y a 90 chances sur cent pour que le taux de défaillance soit
N = N0 R inférieur à 2,3 × 10–6/h.

et l’écart type : On constate que le rapport entre le taux vrai et le taux moyen ne
dépend que du nombre de défaillances n. On peut retrouver cette
σ = N0 R ( 1 – R )
propriété en cherchant l’écart type σ λ sur la valeur moyenne λ
La valeur moyenne de N/N0 est donc bien R et l’écart type autour égale à n/tN0 (pour des valeurs petites de n/N0).
de cette valeur (en admettant R ≈ 1) :
σn σN N0 ( 1 – R ) n
σ ≈ ( N 0 – N )N 0 = nN 0 On a σ λ = ------------
- = ------------
- = ----------------------------------
- = --------------
t N0 t N0 t N0 t N0
avec n nombre de défaillances observées durant l’expérience. d’où σ λ  λ = 1 n

6.2.1 Cas de la loi exponentielle Autrement dit, la dispersion σ λ sur le taux λ est d’autant plus
faible que le produit du nombre de pièces mises en essai par la durée
Les caractéristiques mathématiques de la loi de survie exponen- de l’expérience est grand, mais la dispersion relative σ λ  λ est
tielle ont été données au paragraphe 2.2.1. Le taux de défaillance d’autant plus faible que le nombre de défaillances est grand.
étant constant, on peut considérer le taux dans l’intervalle ∆t
[équation (8)] ou le taux cumulé [relation (9)], ce qui améliore la Ces remarques permettent de tirer le meilleur parti des moyens
précision (ci-après : intervalle de confiance) ; désignons par τ la existants : si l’on veut connaître le taux λ avec une précision relative
durée cumulée totale d’un lot de dispositifs et par n le nombre de raisonnable, il faut construire des essais pouvant provoquer plusieurs
défaillances observées : la valeur moyenne du taux de défaillance défaillances (au moins 5 par exemple), ce qui conduit évidemment
[formule (8)] vaut n /τ. à des valeurs de tN0 suffisamment grandes (proches de 5 λ dans
■ Si l’on remplace les pièces défaillantes par des neuves, ce qui est notre exemple).
permis pour une loi exponentielle (§ 2.1.3), on a : Les méthodes d’ajustement permettent de vérifier si une loi
expérimentale de survie a une probabilité donnée d’être exponentielle
τ = N0 t (article Fiabilité. Maintenabilité [T 4 300] dans le traité L’entreprise
avec t durée de fonctionnement. industrielle). La méthode suivante est celle des durées cumulées qui
s’applique si n > 10 :
■ Si l’on ne remplace pas les pièces défaillantes, il y a deux cas : — on classe les durées jusqu'à défaillances par ordre croissant ;
— on arrête l'essai après un nombre n fixé de défaillances (essai — on calcule la durée cumulée de l'essai τ ;
censuré ) : — on vérifie que τ est dans l'intervalle :
n–1
τ = ( N0 + 1 – n ) t + ∑ ti kt

t k
-------- ± U 1 – ( α2 ) ------ ------
2 2 3 
1

avec ti durée de l’essai à la i e défaillance ; avec k nombre de défaillances r pour un essai tronqué
— on arrête l'essai à l'instant t où l'on observe n défaillances (où r = n) et r – 1 pour un essai censuré,
(essai tronqué ) : U1 – (α/2) variable normale réduite selon le tableau 10,
n t durée totale de l’essai.
τ = (N – n ) t + ∑ ti S’il en est ainsi, on accepte l’hypothèse d’une loi exponentielle
i=1 avec la probabilité α.
On comptera t i selon le paragraphe 6.1.3, par défaut en cas
d’incertitude. 6.2.2 Essais de fiabilité. Intervalles de confiance
L’intervalle de confiance, à l’intérieur duquel la valeur vraie du taux
de défaillance λ a la probabilité 1 – (α 1 + α2 ) de figurer, est donnée Nous attirons l’attention sur une erreur à éviter lorsque l’on
par la loi du khi-deux :
consulte une table de χ2 : nous avons adopté dans les formules (48)
— pour l'essai censuré : et (49) et celles du tableau 9 les valeurs qui ont la probabilité
2
χ [ 2n ; ( 1 – α
2 indiquée d’être dépassées [χ2 (2n, x ) est la valeur de χ2 qui a la
 2λτ < χ [ 2n ; α (48)
1)] 2] probabilité x d’être dépassée]. Les tables de χ2 donnent parfois les
— pour l'essai tronqué : valeurs qui ont la probabilité P de ne pas être dépassée ou Q = 1 – P
d’être dépassée. Mais quelquefois cette information (P ou Q ) n’est
χ 2[ 2n ; ( 1 – α  2λτ < χ [22 ( n + 1 ) ; α (49) pas mentionnée clairement.
1)] 2]
(0)
2
avec χ [ 2n ; α ] variable de la loi du khi-deux à 2n degrés de liberté
qui a la probabilité α d’être dépassée.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 34 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Tableau 9 – Intervalle de confiance du taux de défaillance λ (cas de la loi exponentielle)

Probabilité pour la valeur vraie et inconnue


de figurer dans l’intervalle considéré

Borne inférieure : Borne supérieure :


M ( n, x ) M ( n, x )
-------------------------- --------------------------
τ τ
avec x = 1 – α1 , avec x = α2 ,
τ durée cumulée. τ durée cumulée.

Valeurs de M [n, (1 –  1 )] utilisées Valeurs de M (n,  2 ) utilisées en pratique


en pratique pour la borne inférieure pour la borne supérieure
de l’intervalle de confiance de l’intervalle de confiance
1 – 1 0,995 0,975 0,950 0,900 0,800 n n 2
1 essai essai
n 0,005 0,025 0,05 0,10 0,20 censuré tronqué 0,40 0,20 0,10 0,05 0,025 0,005

1 0,005 0,025 0,05 0,10 0,22 1 0 0,915 1,61 2,30 2,99 3,69 5,30
2 0,10 0,24 0,35 0,53 0,82 2 1 2,02 2,99 3,89 4,74 5,55 7,45
3 0,34 0,62 0,82 1,10 1,53 3 2 3,10 4,28 5,30 6,30 7,20 9,25
4 0,67 1,09 1,36 1,74 2,29 4 3 4,17 5,50 6,70 7,75 8,75 11,0
5 1,08 1,62 1,97 2,43 3,09 5 4 5,25 6,70 8,00 9,15 10,25 12,6
6 1,53 2,20 2,61 3,15 3,90 6 5 6,30 7,90 9,25 10,50 11,65 14,15

1 2
 -----
- χ ( 2 n, x ) pour un essai censuré
1 2
M ( n, x ) = ------ χ 2 ( 2n, x ) M ( n, x ) = 
2 1 2
 -----
- χ [ 2 ( n + 1 ), x ] pour un essai tronqué
2

On a :
M [ n, ( 1 – α 1 ) ] M ( n, α 2 )
------------------------------------------  λ < ----------------------------
τ τ
En pratique, pour l’intervalle bilatéral, on fait souvent α1 = α2.
Exemple : probabilité d’être dans l’intervalle 90 % : α1 = α2 = 5 %.

(0) graphique est la plus utilisée : si l’on porte en ordonnée In[– ln(R )],
et en abscisse ln(t ), on obtient :
Tableau 10 – Variable normale réduite U 1 – (α /2)
y = β [x – In η]
α 0,01 0,02 0,05 0,10 0,20
c’est-à-dire une droite si la loi de survie est une loi de Weibull (para-
U1 – (α /2) 2,57 2,33 1,96 1,64 1,28 mètres η, β, t 0 = 0) selon le tableau 1. Sur un graphique ainsi
gradué, on porte les points dont les coordonnées correspondent
respectivement à la durée t i de la i e pièce défaillante et au pour-
6.2.3 Cas de loi de Weibull centage cumulé de défaillance correspondant. Si les points sont
alignés, le paramètre t 0 est effectivement nul. Si les points sont sur
On se reportera à l’article Fiabilité. Maintenabilité [T 4 300] dans une courbe à concavité vers le bas (ou vers le haut), t 0 est positif
le traité L’entreprise industrielle pour l’estimation de la valeur (ou négatif).
moyenne du taux de défaillance. La méthode d’estimation

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 35
FIABILITÉ _____________________________________________________________________________________________________________________________

Figure 37 – Abaque pour la détermination


de la relation entre niveau de confiance ,
nombre de composants × heures N 0t,
nombre de défaillances observées N F
et limite supérieure du taux de défaillance  s ,
dans le cas d’une distribution exponentielle
des défaillances

Une translation des points d’une même quantité t 0 permet l’écart type σ est l’écart entre les abscisses des probabilités
d’obtenir une droite : cette translation est une estimation de t 0. cumulées 0,50 et 0,84 (ou 0,16).
L’estimation de η est l’abscisse du point dont l’ordonnée vaut 0,63.
L’estimation de β est la pente de la droite. La figure 38 illustre la
méthode. 6.2.5 Cas de la loi log-normale

La méthode d’estimation la plus pratique est de calculer pour


6.2.4 Cas de la loi normale chaque durée t i la quantité ln (t i ) et de se ramener à l’estimation
d’une loi normale.
L’estimation de la moyenne des durées jusqu’à défaillance est :
n
1
m = ------
n ∑ ti 6.3 Estimation des dérives
i=1

et celle de la variance est : En général, les paramètres dont on veut évaluer la dérive ne sont
n que les composantes permettant de calculer la dérive d’un autre
1
---------------
n–1 ∑ ( ti – m ) 2 paramètre d’un ensemble (§ 5.4). On a donc besoin de connaître la
fonction de répartition de ces paramètres élémentaires à différents
i=1
instants (on traite par attributs les dérives soit lorsqu’il s’agit d’un
L’estimation graphique est aisée grâce au papier de Gauss dont paramètre de l’ensemble lui-même soit dans les cas cités au
l’échelle en ordonnée est proportionnelle à la variable normale paragraphe 6.1.3, soit pour rechercher une loi d’accélération selon
réduite. On porte sur ce graphique les points de coordonnées t i et le paragraphe 6.4.) On relève la répartition des valeurs du paramètre
élémentaire considéré pour les N0 dispositifs mis en essai. Celle-ci
n+1–i
------------------------ [estimateur de R (t )] : si la distribution des durées de vie sera prise comme estimateur de la fonction de répartition de la
n+1
population globale. On démontre en effet que si la population est
est normale, ces points sont alignés. L’estimateur de la moyenne m
est l’abscisse dont la probabilité cumulée est 0,5. L’estimateur de normale à l’instant t (moyenne m, variance σ 2) les moyennes m ′ des

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 36 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

paramètres p des échantillons de taille N 0 sont elles-mêmes


distribuées suivant une loi normale de moyenne m ′ = m et de
variance σ ′ 2 = σ 2/N0 . L’écart type entre la valeur estimée de la
moyenne m ′ et la valeur vraie m décroît donc comme 1 N 0 . Pour
N0 donné, l’estimation sera d’autant meilleure que σ sera plus faible.
On démontre également que la variance σ′ 2 des paramètres des
échantillons est distribuée selon une loi normale de moyenne :

σ ′ 2 = [ ( N 0 – 1 )N 0 ] σ 2

et de variance :
2
[ 2 ( N 0 – 1 )N 0 ] σ 4

Deux méthodes sont recommandées pour la présentation des


données.
a ) On trace en fonction du temps la valeur de grandeurs
caractéristiques de la distribution. La médiane et les premier et
neuvième déciles (figure 39) se prêtent bien à cette représentation,
car elles sont peu affectées par les pièces aberrantes (contrairement
à la moyenne et à l’écart type).
b ) On trace, de préférence sur des graphiques à échelles fonction-
nelles normales ou log-normales selon le cas, la fonction de
répartition à chaque instant de mesure. Il est recommandé d’omettre
du graphique les instants de mesure dont la fonction de répartition
n’est pas significativement différente de la précédente (distante d’au
moins 2σ N 0 ). La figure 40 est un exemple de cette repré-
sentation.

Remarque : pour les essais d’investigation, on devra préférer le


traitement statistique des dérives individuelles des pièces elles-
mêmes (selon les mêmes méthodes) : cela permet de mieux
détecter les pièces aberrantes mais il faut identifier chaque pièce
pendant toute la durée de l’essai.
Figure 38 – Exemple de répartition de Weibull

6.4 Technique des essais accélérés


La technique des essais accélérés a pour but de rechercher une
loi d’évolution d’un mécanisme en fonction du temps et des
contraintes et d’extrapoler ainsi des résultats obtenus sous fortes
contraintes aux conditions normales de fonctionnement. Elle
s’applique bien lorsqu’il y a un mécanisme prépondérant et convient
donc surtout aux composants et non aux équipements (dont les
motifs de défaillances sont multiples et qui ne supportent pas de très
fortes contraintes – comparées aux contraintes maximales admises
– par suite de la présence d’éléments comme des isolants divers qui
ne résistent pas à des températures très fortes, ce qui n’est pas
gênant car ils n’interviennent pas dans la fiabilité de l’ensemble).
Le principe de la méthode est d’évaluer la proportion de pièces
ayant atteint le même état interne après évolution sous l’effet du Figure 39 – Rapport de transfert de photocoupleurs
temps et des contraintes, ce qui conduit à faire un traitement par en fonction du temps
attribut (proportion de défaillances catalectiques ou de pièces dont
la dérive d’une caractéristique a franchi une valeur choisie – baisse
de gain supérieure ou égale à 5 % par exemple). On sait qu’un tel au paragraphe 3.1. Les formules (16) et (17) sont des exemples de
traitement ne constitue pour les dérives qu’une partie de l’étude lois très courantes, la température étant la contrainte la plus
complète (§ 6.3). fréquente dans la plupart des composants.
Le principe des essais accélérés est d’échanger le rôle du temps
et d’une contrainte, c’est-à-dire d’obtenir la même évolution interne
6.4.1 Principe de la méthode. Hypothèses de base pour des couples (contrainte, temps) différents (temps plus court,
contrainte plus forte), ce qui résulte d’une loi telle que les
La technique des essais accélérés repose sur l’existence de lois relations (16) ou (17). On ne doit pas confondre un essai accéléré
physiques reliant l’état interne d’un composant, le temps et un avec certains essais où l’échange précédent n’existe pas : par
certain nombre de paramètres appelés contraintes. Ces lois exemple, l’essai d’un relais où l’on accélère la cadence de fonction-
traduisent l’évolution de l’état interne selon le raisonnement donné nement n’est pas un essai accéléré (on modifie seulement le taux

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 37
FIABILITÉ _____________________________________________________________________________________________________________________________

Figure 40 – Fonctions de répartition à divers temps Figure 41 – Exemple d’interprétation erronée d’essais accélérés

d’utilisation). De même, un essai de résistance à la contrainte selon ou encore en prenant deux points pour deux températures T1 , T2
le paragraphe 6.6 n’est pas accéléré (car il n’y a pas d’évolution en et deux durées t 1 et t 2 , on a :
fonction du temps).
10 3 10 3 1 t
Pour qu’un essai accéléré soit significatif, certaines hypothèses ------------ – ------------
T2
≈ 0,2 n ----- 1
- Ig ------
- (50)
T1 E t2
sont à respecter.
a ) L’extrapolation évoquée plus haut n’est possible que s’il y a un On obtient d’autres points C en opérant à d’autres températures
seul mécanisme d’évolution ou à la rigueur s’il existe un mécanisme (ici 200 oC) :
prépondérant. Cela est un peu incompatible avec l’application des
b ) Dans le cas des dérives, un premier graphique tel que 42c
essais accélérés à la recherche d’un taux de défaillance
permet de se ramener au cas précédent : il représente la répartition
constant (§ 6.4.4). On peut cependant s’affranchir en partie de cette
des dérives de la caractéristique choisie à l’instant de mesure
sujétion en traitant séparément chaque mode de défaillance grâce
considéré (ici 2 000 h pour la contrainte de 200 oC). On en déduit
à l’analyse des défaillances (§ 6.7).
le point N correspondant à la valeur limite choisie pour défaut (ici
b ) Les contraintes ne doivent pas faire apparaître des défaillances variation de 5 %). On reporte ensuite d’autres points N
qui n’auraient aucune chance de se présenter en fonctionnement nor- correspondant à d’autres instants de mesure, toujours à 200 oC
mal. Cela pourrait se produire dans deux cas : (même essai) et on en déduit le point C.
— si l'on dépasse les limites de déclenchement de mécanismes à
seuil (mécanismes sans évolution progressive en fonction du temps
donc exclus par notre définition précédente de la technique des essais 6.4.3 Essais accélérés à contraintes, échelonnées
accélérés : par exemple, à 400 oC, les pastilles de semi-conducteurs
se dessoudent de leur substrat car on a dépassé le point de fusion La méthode des contraintes fixes a un inconvénient : si l’on sait
de l'alliage) ; peu de choses sur les proportions de défaillances, on risque de choisir
— s'il y a plusieurs mécanismes d'évolution (circonstance défa- des contraintes fixes soit trop faibles, soit trop grandes et de ne
vorable selon a ) ayant des accélérations différentes, les défaillances pouvoir tracer la répartition en fonction du temps. La méthode des
apparaissant aux contraintes fortes ne sont pas les mêmes que celles contraintes échelonnées minimise ce risque : on soumet
qui se produisent aux contraintes faibles : la figure 41 qui donne la successivement pendant des périodes d’égale durée (20 h par
durée de vie médiane en fonction de la température interne montre exemple) un même lot de pièces à des contraintes de plus en plus
que des essais accélérés effectués à température élevée (points grandes. On recommence avec un autre lot en changeant la durée
expérimentaux A, B, C ) font croire à une durée de 106 h à 100 oC (168 h par exemple).
(point Q ) alors qu'elle ne dépassera pas 10 4 h (point P ) à cause de
la présence d'un deuxième mécanisme complètement masqué On porte sur un graphique tel que 42b la proportion de défaillan-
au-dessous de 3 000 h ; en cas de doute (technologies nouvelles), ces constatées après chaque palier de contrainte en choisissant des
on doit faire un essai de longue durée ( ≈ 10 000 h) avec des échelles convenables afin que les points représentatifs soient ali-
contraintes moyennes pour s'affranchir de cet effet. gnés si les mécanismes de défaillances suivent effectivement les
lois attendues [ici, pour une loi telle que celle de la relation (17),
échelle normale en ordonnée et 103 /T en abscisse]. On trouve ainsi
6.4.2 Essais accélérés à contraintes fixes pour les deux durées de paliers choisies les points A et B pour 50 %
de défauts, points que l’on reporte sur un graphique tel que 42e.
En pratique, les essais à contraintes échelonnées sont
a ) Dans le cas où l’on dispose déjà de statistiques par attribut complémentaires des essais à contraintes fixes et sont effectués
(défaillances catalectiques), on porte sur un papier à échelles d’abord (étant plus rapides) ; ils permettent de mieux choisir la ou
fonctionnelles [selon les mécanismes attendus : Weibull, Gauss, log- les contraintes des essais à contraintes fixes, le graphique 42e étant
normale ici pour une loi comme celle de la relation (17)] la propor- évidemment unique. Normalement, les droites comme celles de la
tion de défauts observés en fonction du temps selon la figure 42d. figure 42b ou d doivent être parallèles entre elles.
On en déduit le point C correspondant à la proportion de défauts
retenue (ici 50 %), point que l’on reporte sur un graphique tel Dans le cas des dérives, on se ramène au cas de la figure 42b
que 42e où l’on porte le logarithme du temps en abscisse et 103/T en traçant pour chaque palier de contrainte la répartition des dérives
en ordonnée : avec de telles échelles, une loi du type de la (figure 42a ) : on obtient le point M correspondant au critère de
relation (17) est représentée par une droite dont la pente donne défaut choisi (ici dérive de 5 %) et tous les points M pour chaque
l’énergie d’activation du mécanisme d’évolution. palier sont reportés sur un graphique (figure 42b ).
En effet, la formule (17) peut s’écrire : On a supposé que les contraintes déjà appliquées au cours des
paliers précédents ont un effet négligeable devant la contrainte du
1 k n t palier suivant : si cette hypothèse apparaît trop simpliste, on peut
------ = ---------- ⋅ -------------- ⋅ Ig ------- tenir compte des dégradations déjà subies.
T qE 0,43 t0

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 38 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

6.4.4 Domaines d'application

Les essais accélérés s’appliquent essentiellement à la recherche


d’un mécanisme d’évolution prépondérant et systématique. Il
convient donc d’éliminer les pièces aberrantes (en les traitant à part),
ce qui revient à ne pas exploiter de trop faibles proportions cumulées
de défauts (pas moins de 10 %).
Grâce aux précautions énumérées précédemment (§ 6.4.1), la
technique des essais accélérés est un moyen irremplaçable
d’estimation de la fiabilité. Il est même possible de retrouver la
nature physique d’un mécanisme d’évolution par la valeur de
l’énergie d’activation.
La figure 43 est un exemple classique de recherche de la durée
de vie médiane de transistors sujets à l’électromigration : si la durée
de vie souhaitée est de 105 h (12 ans environ), la température interne
de 100 oC est admissible, car la période d’usure ne commencera pas
avant cette époque (moins de 1 % de défauts, proportion extrapolée
ici à partir des chiffres expérimentaux à 50 % de défauts).
La technique des essais accélérés peut aussi s’appliquer à la
recherche de taux de défaillance (mais elle est alors moins riche et
les risques d’erreurs plus forts). En première approximation en effet,
si la durée de vie est dix fois plus faible à 200 oC qu’à 150 oC pour
une métallisation réussie, il en est de même s’il y a un trou de photo-
gravure (ce n’est pas exactement le cas car il y a un échauffement
local) : on observera donc un taux de défaillance dix fois plus fort.
On aura cependant intérêt à traiter séparément les mécanismes trop
différents. Cette technique permet donc ici d’extrapoler des valeurs
de taux de défaillance et de comparer des lots de production.
Enfin, rappelons que l’on doit imaginer autant d’essais que de types
de contraintes mais que l’on peut également simplifier les essais
(deux points ou même un seul point de la droite) si l’on se contente
de suivre une production stabilisée (ce qui conduit aux essais de
qualification du paragraphe 7).

6.5 Essais spécifiques

Lorsque l’on veut révéler d’éventuels mécanismes de dégradation


inhabituels (ne se produisant pas dans une fabrication normale selon
celle décrite au paragraphe 3.1.2b ), il n’est pas nécessaire de
chercher à extrapoler. De plus, les lois d’accélération ne sont pas
encore (en 1981) parfaitement connues pour certains mécanismes
(corrosion). Enfin, ces risques portent très fréquemment, non sur des
pièces individuelles, mais sur des lots complets (§ 3.1.2c ). Dans ces
conditions l’estimation de la fiabilité est assimilable à la qualifica-
tion des lots : par un essai spécifique du mécanisme cherché on
s’efforce d’accélérer le plus possible l’apparition des défaillances et
la proportion de défaillances est soit négligeable, soit très forte
selon que le lot est normal ou aberrant. La fiabilité de la production
dépend de la proportion des lots aberrants et de la périodicité des
essais. L’essai de blocage à chaud des semi-conducteurs pour révé-
ler une éventuelle contamination des oxydes ou l’essai de corrosion
constituent des exemples de cette technique.
Le but d’un essai n’est pas de reproduire les conditions de
fonctionnement prévues (même les plus dures) mais de provoquer le
plus vite possible et de la façon la plus économique possible les
mêmes défaillances qui risquent de se produire en fonctionnement.
(Autrefois, la tendance consistait à reproduire les conditions
d’utilisation les plus dures).
Cette définition s’applique à toutes sortes d’essais (accélérés,
climatiques et mécaniques, spécifiques).

Figure 42 – Essais accélérés

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 39
FIABILITÉ _____________________________________________________________________________________________________________________________

Figure 44 – Répartitions de la contrainte C (courbe I),


de la résistance R (courbe II), et de la différence M = R – C (courbe III)

contrainte n’a qu’une valeur possible (qui peut être celle du


fonctionnement permanent) et si la résistance diminue linéairement
en fonction du temps, la fonction de répartition de R est la densité
des défaillances f (t ). La position de la courbe de répartition de R
par rapport à une valeur choisie comme limite garantie définit les
pièces trop fragiles qu’on peut éliminer par l’application unitaire
d’une surcharge de cette valeur (§ 7.4.2). L’estimation de la fiabilité
Figure 43 – Temps au bout duquel n % de transistors sont repose donc sur la connaissance de la courbe de répartition de R
défectueux, en fonction de la température, pour un courant de 5 mA (par échantillonnage) et de celle de la contrainte (plus difficile à
et une métallisation de section 10 µm × 1 µm acquérir, § 4). Cette méthode de la résistance à la contrainte plus
connue en mécanique remplace l’emploi de coefficients de sécurité.

Pour beaucoup d’essais, notamment les essais spécifiques, si une


pièce est saine (il n’y a pas eu d’accident de fabrication, il n’y a 6.7 Analyse des défaillances
pas de défaut latent qui aurait pu induire une dégradation) on
n’observe pas de défaillance. On peut répéter ce raisonnement pour
un lot de fabrication car les accidents touchent généralement un lot 6.7.1 Nécessité
entier avec les fabrications répétitives (§ 3.1.2c ). Très souvent
l’essai n’est pas destructif, notamment lorsque la défaillance à faire
apparaître est précoce (100 heures à 1 000 heures, normalement). L’analyse des défaillances est indispensable qu’il s’agisse d’essais
Dans ce cas si la pièce est saine, sa fiabilité n’est pas compromise : d’investigations (essais de fiabilité partiels), d’essais de fiabilité
un tel essai peut donc être adopté en sélection unitaire. proprement dits ou de pièces rebutées en exploitation. Elle permet
en effet de confirmer que les pièces rebutées en exploitation sont
Un exemple d’essai spécifique est l’essai de contamination des bien défectueuses [des composants rebutés en exploitation, en
semi-conducteurs (jonctions bloquées à 150 oC pendant 168 h) qui proportion importante parfois – jusqu’à 30 % – sont trouvés bons
provoque un taux de défaut assez fort si les oxydes ont été à l’analyse, ce qui peut s’expliquer par des défaillances inter-
contaminés par des ions alcalins (qui n’a aucun effet nuisible sur une mittentes, par des composants ne fonctionnant pas dans tous les
pièce non contaminée). cas (§ 3.2b ) ou par une conception insuffisante d’un appareil,
Des exemples seront signalés au paragraphe 7.3 car de tels essais incompatibilité entre la fonction demandée et la spécification du
sont indispensables pour surveiller la qualité d’une production. composant]. Elle permet de distinguer les défaillances intrinsèques
(effectivement dues aux composants) des défaillances externes dues
à des surcharges (que l’on traite à part : elles proviennent parfois
d’une fragilité excessive) ou dues à des oscillations parasites dont
6.6 Essais de surcharge les risques d’apparition sont très grands avec des composants actifs
en essai de durée. Elle permet de vérifier que les défaillances obser-
vées ont bien été provoquées par l’essai, qu’elles risquent bien de
La tenue à certaines contraintes ne dépend pas du temps : il y a se produire en exploitation réelle. Enfin, elles seules permettent
destruction instantanée si la contrainte dépasse une valeur de rupture d’apporter les actions correctrices éventuelles. On ne peut se
par analogie avec la résistance à la rupture d’une pièce mécanique dispenser de l’analyse que pour les essais de routine lorsque l’origine
(nous excluons ici d’éventuels effets de fatigue qui relèvent des des défaillances est connue avec une bonne probabilité mais on peut
essais accélérés en remplaçant le temps par le nombre de la limiter à des échantillons représentatifs (l’analyse physique
surcharges). Il faut considérer ici la distribution de la résistance R à pouvant être coûteuse).
la contrainte C : la fiabilité est la probabilité pour que la résistance
soit supérieure à la contrainte. Supposons (figure 44) que les distri-
butions soient normales : on sait que la distribution de la différence 6.7.2 Principes
M = R – C est également normale et sa densité de probabilité vaut :
a) L’analyse électrique succède à une mesure habituelle des carac-
  
1 1 M– M 2
---------------------------- exp – ------ ---------------------- (51) téristiques (pour confirmer le défaut). Elle permet de connaître le
σM 2 π 2 σM mode de défaillance (circuit ouvert, etc.), mais aussi dans beaucoup
2 2 2 de cas de reconstituer le mécanisme de dégradation. Plusieurs
où M = R – C (moyennes) et σ M = σ R + σ C . méthodes sont praticables.
Il y a défaillance si M < 0 : la probabilité de bon fonctionnement — La mesure d’une caractéristique en dehors des conditions
après une surcharge est donc l’aire hachurée sur la figure 44, ce qui normales d’emploi peut fournir des indications sur l’état interne (les
s’obtient en intégrant la relation (51) entre 0 et ∞. La fonction fiabi- conditions normales d’emploi sont justement choisies afin de rendre
lité dépend de la loi d’apparition des surcharges en fonction du les caractéristiques en grande partie insensibles aux évolutions
temps et de l’éventuelle dérive de la résistance. Par exemple, si la internes).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 40 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Exemple : le gain d’un transistor mesuré à faible courant est ■ Les matériels sont de plus en plus complexes et la composition
sensible à la contamination des oxydes de protection par des ions des risques de défaillance ne peut plus être évaluée empiriquement.
alcalins. Ce diagnostic est confirmé si un stockage à chaud fait La production actuelle, souvent massive, est très favorable à la
disparaître l’anomalie (faible gain). fiabilité (aléas réduits), mais elle aggrave les conséquences
d’éventuelles défaillances systématiques. La durée de dévelop-
— Par l'analyse d’une caractéristique en fonction de certains para- pement d’un nouveau produit est parfois réduite par suite de
mètres (tensions, température), on peut reconstituer ses éventuelles pressions commerciales : on risque alors de négliger la fiabilité et la
composantes élémentaires et retrouver des paramètres physiques maintenabilité devant les performances.
dont certains témoignent d'une évolution interne.
■ La réduction des coûts de fabrication, les économies de matières
Exemple : par une mesure du courant direct d'une diode électro-
ne sont pas nuisibles à la fiabilité, au contraire (une production auto-
luminescente en fonction de la tension on sépare trois termes élémen-
matique est fiable et économique), mais elles doivent être étudiées
taires, chacun d'eux étant prépondérant dans un domaine de tension ;
complètement (la réduction des marges de sécurité oblige à mieux
l'un de ces termes correspond à un courant parasite non radiatif
maîtriser les risques). L’apparition de nouvelles technologies oblige à
révélant l'état interne de dégradation de la jonction.
entreprendre de fréquents essais d’investigation.
— Sur le principe précédent et par la mesure des impédances Ajoutons que la gestion de la fiabilité est nécessaire quelle que soit
d'accès on peut établir des schémas équivalents : ceux-ci peuvent la sévérité des objectifs de fiabilité ; il arrive encore parfois que l’on
comprendre des éléments parasites témoins de l'état interne (angle fasse appel aux techniques de fiabilité seulement dans le cas
de perte d'un condensateur pouvant révéler l'état de la prise de d’objectifs de fiabilité notoirement sévères ou pour rattraper des
contact). Appliquée aux circuits complexes, cette méthode permet négligences. Loin d’être un luxe, les techniques de fiabilité ont plutôt
de reconstituer au moins le schéma des parties du circuit proches pour effet de réduire les coûts (en améliorant les rendements) à
des accès et de révéler des défauts internes. fiabilité donnée.
Exemple : l'allure du courant inverse d'une entrée de circuit intégré
en fonction de la tension.
b) L’analyse physique complète l’analyse électrique lorsque 7.1 Objectifs de la fiabilité
celle-ci est insuffisante (circuit ouvert par exemple). Elle comprend
l’ouverture (boîtier métallique, enrobage) et l’examen des parties
suspectées (examen visuel, analyse électrique éventuelle à l’aide de Ils peuvent être imposés pour des raisons de qualité de service ou
sondes). Des coupes sont parfois nécessaires (revêtements de de sécurité. À défaut, ils peuvent résulter d’une optimisation
contacts, etc.) ainsi que des analyses des matériaux parasites économique.
trouvés. a) Pour un matériel assurant la sécurité humaine (organe vital
Les moyens d’analyse peuvent être plus ou moins puissants d’un avion, systèmes d’armes, etc.), il faut comparer le taux de
(microscope optique ou à balayage) : des moyens puissants ne sont défaillance de l’appareil lui-même au taux de panne ou d’accident
pas forcément indispensables. Par contre, aussi bien pour l’analyse naturel et inévitable.
physique qu’électrique, une très bonne connaissance de la techno- Le rapport entre ces deux taux doit être au moins de dix, mais
logie des produits est indispensable, ainsi qu’une bonne aptitude à nous touchons ici à un domaine où morale et économie sont
mener des enquêtes parfois difficiles. sérieusement enchevêtrées. On doit cependant toujours raisonner sur
Des échecs sont cependant possibles. L’examen des parties super- une valeur de taux de défaillance, si faible soit-elle, et non exiger
ficielles d’un composant est plus aisé, ce qui rend l’analyse des l’impossibilité d’une panne même si une telle exigence paraît
composants passifs souvent plus difficile que celle des composants rassurante (mais stérile puisque tout calcul est impossible). Les
actifs dont les parties vitales sont plutôt en surface. Par ailleurs, études de sécurité proprement dites ne sont pas traitées dans cet
l’analyse de défauts fugitifs est toujours difficile. Mais l’analyse des article. Elles sont étroitement liées à la fiabilité et s’appuient
défauts est désormais une nécessité aussi bien chez les fabricants notamment sur la connaissance des modes de défaillances
que chez les utilisateurs, aussi bien pour les produits défectueux que (techniques des arbres de défaillances) (§ 1.1.4).
pour les produits nouveaux (§ 7.2.4). b) Pour un appareil destiné à l'exploitation d'un service (réseau
de télécommunications, compagnie de taxis, de transport, vente de
téléviseurs avec réparation, etc.), il faut offrir une qualité de service
(à définir) au moindre coût. Par qualités de service, on comprend ici
7. Fiabilité et gestion non seulement des caractéristiques techniques mais aussi des carac-
téristiques de fiabilité : pouvoir disposer d’un appareil ou d’un service
au moment désiré (disponibilité) avec des interruptions de service suf-
La gestion de la fiabilité de tout produit industriel est désormais fisamment rares (fiabilité, taux d’interruption, taux de défaillance) et,
nécessaire alors que l’on pouvait se contenter autrefois de méthodes pour un appareil donné, pendant un temps raisonnable (aptitude à
empiriques (article Fiabilité. Maintenabilité [T 4 300] dans le traité durer).
L’entreprise industrielle). c) Optimisation des coûts : qu’il s’agisse de sécurité ou de service
rendu, il faut s’efforcer de tenir les objectifs au moindre coût global
■ L’organisation des entreprises, les relations entre fournisseurs et (investissements et entretien) et cela est encore plus important si le
clients ne sont plus assez simples pour permettre des corrections client a la charge de l’entretien et de l’exploitation : en effet,
rapides en cas d’alerte. La coordination entre tous les services l’optimisation est plus facile à faire si l’on vend un service (car elle
chargés de concevoir, de produire, de définir un nouveau matériel est la charge d’une seule société).
(client, service d’études, de production, d’achat de composants, de
qualité et de technologie) n’est pas aisée. Les questions qui ne sont On doit considérer le bilan global de l’opération et additionner les
pas du domaine de responsabilité exclusif d’un service (étant plus frais de premier investissement, de fonctionnement et d’entretien. Le
volontiers négligées) sont souvent à l’origine de déboires. premier et le dernier termes varient en sens inverse en fonction de
la fiabilité et l’on peut s’attendre à trouver une valeur optimale de

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 41
FIABILITÉ _____________________________________________________________________________________________________________________________

n
1
la fiabilité [3]. Le premier terme (prix d’achat en fonction de la avec k = ∑ --------------------
( 1 + τ )i
-
fiabilité) est quelquefois difficile à obtenir, mais on connaît le prix 1
des composants selon leur degré de qualification et l’on peut faire
des estimations de la fiabilité qui en résulte (recueil de où k s’exprime en années (nombre fictif d’années d’utilisation),
données, § 4.6). L’évaluation est facile lorsque la fiabilité d’un M coût total d’une panne (intervention, réparation, manque à
ensemble est obtenue par la redondance. Ce qui suit est une gagner),
méthode d’évaluation du troisième terme : le coût des pannes d’un n nombre d’années d’utilisation,
matériel sans redondance est :
τ taux d’actualisation de la monnaie.
M La figure 45 donne la valeur de k en fonction de n et de τ.
------------------------------
1λ + 1µ
Exemple
avec M coût total d’une panne (manque à gagner, réparation), Si :
1/µ temps moyen de réparation, λ = 10 % par an ;
1/λ temps moyen entre pannes. M = 2 kF ;
En effet, on dépense M francs toutes les (1/λ + 1/µ) heures en n = 15 ans ;
moyenne. Si t est la durée de vie industrielle du matériel ou le temps τ = 10 % par an ;
d’amortissement, le coût total des pannes pendant sa vie industrielle on a k = 7,3 années.
est : Le coût d'entretien global C0 vaut 1 400 F environ soit 14 % du prix
M d'achat C1 si celui-ci vaut 10 kF. Il faut minimiser C0 + C1 .
------------------------------ ou Mt λ
1λ + 1µ Il faut savoir, par ailleurs, que lorsque l’on évalue le coût élémen-
taire d’un composant en fonction de sa fiabilité, il n’est pas rare de
en négligeant λ /µ devant 1 (§ 5.3.2).
trouver un composant plus fiable et moins cher qu’un autre : cela
Ce raisonnement simplifié ne tient pas compte du taux d’actualisa- se produit à la suite des évolutions des processus technologiques très
tion de la monnaie, c’est-à-dire du fait qu’une dépense se produisant fréquentes de nos jours (méthodes plus économiques).
au bout de plusieurs années est moins lourde à supporter qu’une
On trouve souvent trois variantes :
dépense identique immédiate [dans le rapport (1 + τ)n où τ est le
taux annuel d’actualisation de la monnaie et n le rang de l’année]. — le processus classique, pas très automatisé donnant un produit
En tenant compte de l’actualisation de la monnaie, le coût global des cher et fiable ;
pannes vaut : — un processus identique, mais avec des matériaux économiques
Mλ/τ (52) donnant lieu à des risques : prix moyen, fiabilité à surveiller ;
— un processus nouveau, très automatisé donnant un produit très
avec τ taux annuel d’actualisation de la monnaie, peu coûteux et fiable (mais dont les dimensions ne sont pas forcé-
λ taux annuel de pannes. ment interchangeables).
L’intérêt de cette formule est d’être linéaire en λ ; en effet, le taux
de défaillance λ est la somme des taux λ i de chaque composant du
matériel (pas de redondance par hypothèse) et le terme M/τ se met 7.2 Gestion de la fiabilité d'un matériel
en facteur (dans notre hypothèse d’absence de redondance et parce
que l’on ne tient pas compte ici des modes de défaillance, le coût Elle comprend plusieurs étapes.
d’une panne est supposé identique quel que soit le composant
défaillant). On doit alors considérer des termes (M /τ ) λ i
qui représentent, pour chaque composant, ce qui s’ajoute au prix 7.2.1 Prévision de fiabilité
d’achat Pi pour tenir compte de toutes les défaillances qu’il provoque.
Il faut alors rendre minimales les sommes élémentaires : a ) On découpe l’ensemble en sous-ensembles à l’intérieur desquels
Pi + (M/τ) λi (53) tous les éléments sont associés en série et on admet (en général)
que ces éléments ou composants ont un taux de défaillance constant.
fonction de λi ou comparer des solutions (achat d’un composant D’après le paragraphe 5.2.2, le taux de défaillance d’un sous-
normal ou à fiabilité améliorée). On peut aussi connaître la répartition ensemble est la somme des taux de ses composants, ces taux
élémentaire du coût global d’un matériel et par suite les éléments élémentaires étant tirés du recueil de données de fiabilité (§ 4.6) en
qui pèsent le plus dans le bilan (éléments à améliorer en priorité). fonction des contraintes de fonctionnement et d’environnement. On
La méthode qui vient d’être exposée a été simplifiée (pas de peut faire un premier bilan alors que l’étude des schémas est encore
redondance, modes de défaillance non pris en compte, coût des répa- très grossière et l’on prend les données simplifiées du recueil
rations indépendant du type de composant défectueux). On peut valables pour des contraintes approximatives.
naturellement faire une étude complète. Notons que la formule b ) Le bilan met en évidence les éléments les moins fiables sur
simple (53) s’applique aussi aux systèmes redondants si on ne tient lesquels des efforts particuliers sont nécessaires (réduction des
compte que du coût de l’entretien (réparations) puisqu’il suffit alors contraintes, changement de technologie). On peut décider d’intro-
de prendre en considération la totalité des défaillances des sous- duire des sous-ensembles redondants ou d’acheter des composants
ensembles y compris celles qui ne mettent pas l’ensemble en panne, à fiabilité améliorée (§ 8.3). La méthode de calcul (ou le programme)
donc d’imaginer une association des sous-ensembles en série. doit rendre faciles les retouches successives.
La formule (52) donne le coût global d’entretien (on imagine que c ) La prévision de fiabilité comprend en outre l’étude éventuelle
l’on achète en même temps un appareil et son entretien) d’un maté- des composants à taux de défaillance non constant (en considérant
riel pour une durée d’utilisation très longue. la fonction fiabilité du sous-ensemble) ainsi que la recherche de la
Pour une durée quelconque, ce coût vaut : durée de vie utile de certains composants (électromécaniques), et
l’influence des dérives éventuelles (§ 5.4). Enfin, l’étude de
kMλ l’influence des modes de défaillances des composants sur les
modes de panne des sous-ensembles est souvent nécessaire (§ 4.9).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 42 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

7.2.3 Revue du projet

Elle a pour but de vérifier que rien n’a été oublié (contraintes,
environnement, etc.) et de détecter les points faibles qui pourraient
donner lieu à des défaillances systématiques. Il est recommandé de
faire exécuter cette revue par un groupe d’ingénieurs de formations
différentes et ayant pris quelque part dans la fabrication ou le
contrôle de l’appareil. Les éléments encore mal définis ou mal connus
sont à mettre en évidence. Les contraintes doivent être connues aussi
bien en régime permanent que dans certains régimes transitoires
souvent responsables de défaillances imprévues. On vérifie que l’on
n’utilise que des caractéristiques de composants, garanties par leur
spécification (ou que les corrélations avec des caractéristiques
spécifiées sont insuffisantes). En particulier, il ne faut pas utiliser la
valeur de caractéristiques parasites (courant résiduel, etc.) et les
points de fonctionnement ne doivent pas être sensibles aux
conditions d’alimentation ni aux dégradations. Il ne faut pas que les
réglages éventuels soient trop critiques.
Figure 45 – Effet du taux d’actualisation de la monnaie 
et du nombre d’années d’utilisation sur l’optimisation des coûts
7.2.4 Choix des composants

Il faut ajouter qu’une prévision de fiabilité doit être faite par les La fiabilité du matériel sera voisine de celle de ses composants
auteurs d’un schéma (pour qu’elle soit fructueuse) (§ 7.2.1b ) et non si les erreurs de conception et de mise en œuvre sont minimisées
sous-traitée (pour les sous-ensembles). (§ 7.2.3). La qualification et les méthodes de production des
Les calculs de fiabilité d’un ensemble, selon le paragraphe 5, composants ont donc une grosse importance et l’on ne doit pas
peuvent être confiés à des spécialistes en fiabilité mais à condition acheter des composants d’origine inconnue. Il convient au contraire
qu’ils connaissent très bien les différentes opérations de remise en de s’appuyer sur le système officiel de qualité, (§ 7.3) et d’exiger la
état (§ 5.3). livraison de composants sous contrôle centralisé de qualité, faute
de quoi la prévision de fiabilité serait complètement erronée.
Il faut rappeler, par ailleurs, qu’une prévision de fiabilité ne tient
pas compte des erreurs de conception, des défaillances par Dans le cas où l’on souhaite utiliser un composant qui n’est pas
surcharges externes, des incompatibilités de choix de composants, encore pris en charge par le système, il faut au préalable examiner
des lots de composants de courte durée de vie. Cela prouve qu’il sa technologie (§ 8.3.3), surtout si celle-ci est nouvelle, puis définir
reste un gros travail à faire lorsqu’on a terminé une prévision. Mais les caractéristiques dont on a besoin et vérifier qu’elles sont bien
on peut profiter de cette faiblesse au moment de l’observation de suivies par les fabricants. On doit ensuite définir et effectuer des
la fiabilité en exploitation (§ 6.1.4) : en effet, par différence entre les essais d’endurance d’après les prévisions de fiabilité (dérives, modes
taux observés et les taux prévus, on mettra en évidence les de défaillances éventuellement) et d’après l’examen de technologie
anomalies précédentes. On peut espérer obtenir une fiabilité meilleure (selon les risques de défaillances les plus probables) et enfin préparer
que les prévisions, après correction des erreurs de conception. une spécification d’achat du composant.
Le choix des composants par un utilisateur est de plus en plus
important (à cause des apparitions de plus en plus fréquentes de
7.2.2 Choix des objectifs de fiabilité nouveaux produits). Ce choix est indispensable pour deux raisons
principales.
a ) Si les objectifs sont imposés (sécurité, qualité de service), il faut a ) On doit choisir des composants dont la constitution interne et
les tenir au moindre coût : par le bilan précédent (§ 7.2.1), on peut les processus de fabrication sont tolérants aux accidents de
choisir entre plusieurs solutions (composants améliorés, redon- fabrication : l’assurance de qualité sera allégée, la fiabilité meilleure,
dance) en s’aidant de la formule (52) (la redondance augmente les les rendements améliorés et les coûts réduits ; en négligeant ce
frais d’entretien) et en tenant compte des autres sujétions éventuel- travail on risque d’utiliser des composants de fiabilité mauvaise et
les (la redondance augmente le poids). Il peut se faire que les objec- très coûteux.
tifs ne soient pas explicitement imposés : on peut alors viser une
Ce choix se fait à la suite d’analyses de constitution (comme les
fiabilité meilleure ou au moins aussi bonne que pour les appareils
analyses de défaillances selon le paragraphe 6.7) et d’essais
de la génération précédente (les nouveaux ayant d’autres avantages
pouvant être plus ou moins nombreux selon la nouveauté.
en performances, maintenabilité, etc.).
b ) On doit choisir des composants dont la constitution interne est
b ) Si les objectifs ne sont pas imposés, ils résultent alors d’une
compatible avec les emplois prévus. En effet la fiabilité est
optimisation économique (§ 7.1c ) ou d’une optimisation plus géné-
complètement anéantie s’il y a incompatibilité (§ 4.5).
rale selon la méthode de la pertinence [10] [11] que l’on ne traite
pas dans cet article (on optimise le rapport efficacité/coût appelé
pertinence, en définissant l’efficacité comme le produit des
espérances mathématiques des performances, de la disponibilité et
7.2.5 Examen et essais de prototypes
de la fiabilité, chacun de ces facteurs étant représenté par une
matrice afin de rendre compte des systèmes complexes à plusieurs L’examen visuel a pour but de déceler les faiblesses éventuelles
états possibles). On peut aussi chercher un compromis (à quel prix de la réalisation et les premiers essais en fonctionnement et sous
est-on disposé à payer une meilleure qualité de service ?). contraintes mécaniques visent à déterminer les points chauds, les
surtensions, les résonances mécaniques, etc. On doit vérifier le fonc-
tionnement dans les pires conditions d’alimentation et de température
et faire des essais de surcharge (électrique).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 43
FIABILITÉ _____________________________________________________________________________________________________________________________

7.2.6 Fabrication c) Le contrôle final a deux rôles principaux.


— La vérification des caractéristiques essentielles (à l’unité pour
Elle doit être régie par un contrôle statistique de la qualité, contrôle quelques caractéristiques simples et par contrôle statistique pour les
indispensable pour maintenir le produit statistiquement identique d’un autres). Certaines d’entre elles sont des caractéristiques de fonction.
instant de fabrication à l’autre (la validité des prévisions de fiabilité D’autres reflètent l’état interne du composant mais ne sont pas direc-
repose sur cette stabilité). Le contrôle s’étend au contrôle des tement liées à la fonction : on doit même faire en sorte qu’elles soient
matières premières, des composants (celui-ci comprenant le aussi différentes que possible des caractéristiques de fonction afin
contrôle centralisé de qualité chez le fabricant de composants, selon que la fonction soit encore assurée même après une évolution interne
le paragraphe 7.3, le contrôle de chaque opération de fabrication et (par exemple, le gain à faible courant des transistors dépend
des produits qui en proviennent ainsi que le contrôle du réglage des beaucoup de la contamination éventuelle de la couche d’oxydes
machines, des conditions d’environnement des processus de fabri- superficiels : on évite donc d’utiliser un tel gain pour assurer une
cation (absence de poussières, de contamination, etc.). Le contrôle fonction, mais on le mesurera, après des essais d’endurance
des produits comprend un contrôle des caractéristiques essentielles notamment).
(par prélèvement ou unitaire) et un contrôle destructif éventuel de — La vérification de la tenue des caractéristiques après des essais
certains constituants (par prélèvement) exactement comme pour la d’endurance portant sur des pièces prélevées dans des lots homo-
production des composants (§ 7.3). gènes et représentatifs de la production ou d’un processus de pro-
duction (ou d’une période de production). Ces essais doivent être
conçus comme des essais accélérés de fiabilité (avec une seule valeur
7.2.7 Essais éventuels de rodage de contrainte appliquée). Il existe plusieurs types d’essais : des essais
de fonctionnement (à contrainte la plus forte possible afin qu’un fonc-
Ils ont pour but d’éliminer les défaillances précoces si elles tionnement de 168, 1 000, 8 000 h soit équivalent à 10 ou 20 ans
existent. Ils doivent s’étendre sur la période t b (§ 2.1.1) éventuel- de fonctionnement normal) ; des essais spécifiques d’une
lement raccourcie par accélération de certaines contraintes dégradation ; des essais climatiques et mécaniques avec une
(vibrations pour détecter de mauvaises soudures ou la présence de séquence de contraintes appliquées et de mesures afin de provoquer
particules libres, etc.). On sait cependant (§ 6.4) qu’il n’est pas pos- puis déceler des dégradations éventuelles (mauvaise étanchéité
sible pour des équipements d’accélérer certaines contraintes de détectée par la chaleur humide).
façon significative (température). Par ailleurs, si les procédés de
mise en œuvre sont bien maîtrisés (ainsi que la fabrication des ■ La gestion de la qualité des composants comprend les dispositions
composants), un tel traitement n’est pas nécessaire (sauf si l’on sou- prévues par les normes officielles et par le fabricant lui-même
haite une fiabilité inhabituelle, selon le paragraphe 8.1). (notamment les contrôles en fabrication pour ce dernier). Actuel-
lement, le système officiel de qualité français (contrôle centralisé de
qualité ), rattaché lui-même au système européen, est un contrôle
7.2.8 Collecte des statistiques de pannes selon le paragraphe 7.3c.
des équipements en exploitation Il est effectué chez le fabricant lui-même sous la responsabilité de
son service de qualité, et un suivi est effectué périodiquement par
Elle doit être organisée (§ 6.1.4), car c’est bien l’exploitation du le Service national de qualité (comprenant des examens sur place et
matériel qui constitue le jugement final. un contrôle complet sur des lots prélevés au hasard, contrôle effectué
au Laboratoire central des industries électriques). Le système
comprend en outre un agrément préalable du fournisseur après
7.2.9 Clauses de fiabilité examen de ses contrôles internes, de son service de qualité, des
diagrammes de cheminement des fabrications.
Elles peuvent être introduites dans les contrats de fourniture, Tous les contrôles sont définis par les spécifications de
même si les objectifs de fiabilité ne sont pas sévères (pour des composants élaborés en France par l’Union technique de l’électricité
raisons de présentation on se reportera cependant dans cet article (UTE) et édités par I’AFNOR (documents de base) et I’UTE. Les règles
au paragraphe 8.7.3). générales du système sont définies par le document UTE C 00-192.
Tous ces documents sont désormais confondus avec les documents
européens du Comité européen des composants CENELEC (CECC).
Les spécifications sont élaborées avec les autres nations d’Europe
7.3 Gestion de la qualité des composants (du moins les spécifications générales).
Il est utile de compléter l’énumération des tâches et des principes
de la maîtrise de la qualité en rappelant le but que l’on doit rechercher
■ La gestion de la qualité des composants repose sur les principaux et qui est souvent oublié :
éléments suivants.
— minimiser les risques d'accidents sur les fournitures des
a) L’organisation du service de qualité des fabricants ainsi que matériaux de base et sur les fabrications (contrôle des matériaux,
l’organisation de la fabrication, de l’acheminement des pièces, des pilotage sur des processus de fabrications, consignes strictes et
changements de fabrication, etc. (les décisions prises selon les résul- détaillées pour les opérations manuelles) ;
tats du contrôle, rejet des lots défectueux ou non, et selon les — déceler les lots qui auraient souffert d'accidents ayant abrégé
défaillances signalées par les clients ; les conditions de stockage des leur vie : les essais de courte durée sont utilisables ;
pièces entre deux étapes de fabrication ; les essais nouveaux décidés — qualifier toute modification de processus ;
afin de maîtriser les risques accompagnant les changements de fabri- — suivre les taux de défauts et de défaillances partout où c'est
cation). Par ailleurs, les moyens dont dispose le service de qualité possible (essais de moyenne durée chez le fabricant lui-même,
ont une grande importance (nécessité d’un service d’expertise). résultats chez les clients), analyser les défauts et corriger la
b) La définition précise des processus de fabrication et des fabrication.
contrôles en fabrication [matières premières, pièces intermédiaires, On peut ainsi classer les essais en deux catégories :
contrôles de caractéristiques à l’unité ou par prélèvement, essais a ) Les essais de courte durée qui sont des essais d'acceptation
destructifs par prélèvement (§ 6.6, 8.3.4 et 8.3.5)]. (accepter un lot de production, un lot de matériau de base, les
premiers lots d'une nouvelle campagne de fabrication).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 44 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

b ) Les essais de durée moyenne qui peuvent être aussi des essais 7.4 Contrôle de qualité et fiabilité
d'acceptation dans des cas critiques (nouvelles campagnes, modifi-
cations critiques, après des anomalies). En général, si aucun incident des composants
ne s'est produit, ce sont des essais qui permettent de suivre une
production et de la corriger avant que de mauvais résultats 7.4.1 Introduction
n'apparaissent chez les clients.
Le contrôle de qualité et la fiabilité des composants sont-ils liés ?
Dans tous les cas, il est important de définir ce qui est critique
Cette question est souvent controversée et l’on a parfois tendance
afin de déterminer un suivi à la mesure des risques : le suivi doit être
à séparer soigneusement ces deux notions selon une tradition née
défini rigoureusement et à l’avance. Mais il doit aussi s’adapter rapi-
avant que la fiabilité ne soit devenue une discipline véritable. Cette
dement selon l’évolution des processus ou les anomalies observées.
tradition repose sur certains arguments comme les deux suivants :
Le tableau 11 donne quelques exemples d’essais utilisables. — même si l'on est capable, par un contrôle, de reconnaître les
Le système officiel de qualité [Union technique de l’Électricité pièces bonnes et mauvaises, un contrôle par prélèvement ne modifie
(UTE)/Comité des composants électroniques du CENELEC (CECC)] pas la proportion de pièces mauvaises ;
s’adapte aux principes énumérés précédemment. L’agrément de — en fiabilité, il est très difficile ou impossible de reconnaître les
savoir faire qui est une nouvelle disposition permet de regrouper tous pièces mauvaises (c'est-à-dire dont la durée de vie individuelle sera
les produits dont l’assurance de qualité est commune, ce qui rendra très raccourcie).
le système plus économique. Il est évidemment important que l’on
trouve dans les spécifications du système les dispositions citées
auparavant, mais rappelons que le système UTE/CECC est en fait le 7.4.2 Lien entre fiabilité des composants
système des utilisateurs et des fabricants (et non un système « des et contrôle de qualité
autres ») : c’est à chacun de faire connaître ses exigences (par l’inter-
médiaire de I’UTE et de ses commissions). Rappelons aussi que la
Nous voudrions montrer ici que la fiabilité des composants et le
désignation de contrôle centralisé de qualité a été remplacé par
contrôle de qualité sont effectivement liés (à condition toutefois que
admission à la marque, la marque (figure 46) étant apposée sur les
ce dernier soit bien adapté à la technologie et à l’organisation de la
emballages ou sur les composants, ce que doit vérifier l’acheteur :
fabrication).
tout lot non conforme ne porte pas la marque.
a) On peut (et on doit) concevoir des essais d’endurance (§ 7.3c )
Ajoutons que le système va recouvrir aussi des dispositions
pour faire apparaître des défaillances qui n’apparaissent normale-
existant déjà entre certains gros clients et leurs fournisseurs comme
ment qu’après 5 à 15 ans : en effet les mécanismes de dégradation
la méthode d’objectifs de taux de défauts (dite PPM). En effet,
associés ou non à une erreur de fabrication sont révélés par des
l’automatisation des productions conduit désormais à des taux de
essais d’endurance à condition que les contraintes adoptées soient
défaut initial très faibles (10–5 à 10–4). Cette propriété très intéres-
suffisamment fortes (§ 6.4), tout en respectant les limitations
sante a été mise à profit par les constructeurs qui ont accru la
(§ 6.4.1). On vérifie à partir de la formule (50) qu’un essai de 1 000 h
compacité des matériels (forte densité de composants) sans nuire au
à 200 oC est équivalent à un fonctionnement de 20 ans à 70 oC pour
rendement de production (un équipement qui contient 1 000
tous les mécanismes ayant une énergie d’activation supérieure à
composants ayant chacun un taux de défaut de 10–3 a seulement
0,5 eV.
37 chances sur 100 d’être bon après le montage selon la loi
binomiale). b ) Les défaillances précoces éventuelles sont faciles à détecter :
La fiabilité en profite aussi, car il y a une corrélation étroite entre — les pièces trop fragiles sont détectables par des essais de
les défauts à l’origine et ceux qui se produisent quelques temps surcharge mécaniques (chocs, vibrations) ou électriques (§ 6.6) ;
après. De plus, un taux de défaut faible ne peut se conserver que — les essais spécifiques de mécanismes inhabituels sont faciles
si la fiabilité est très bonne. à mettre en œuvre (faible durée) et sont très efficaces si l'on veut
révéler une erreur collective (§ 6.5) : en général il s'agit de défail-
lances précoces.
c ) L’efficacité de l’élimination des pièces mauvaises dès l’origine
dépend de l’efficacité de la caractérisation (§ 3.2b ).

7.4.3 Limites du contrôle de qualité


Figure 46 – Marque apposée sur les composants ou leur emballage Les liens entre fiabilité et contrôle de qualité étant rappelés,
(système officiel de la qualité UTE /CECC) précisons maintenant le domaine possible de qualité ainsi que ses
limitations.
(0)

Tableau 11 – Exemples d’essais utilisables


Types d’essai Dégradation possible Nature de l’essai
Contamination 48 à 168 h à 150 oC
Courte durée : acceptation de lots (circuits intégrés linéaires, MOS, etc.) sous tension
(lorsqu’il y a un risque d’accidents) Migration 48 à 168 h à chaud
(condensateurs en céramique) sous tension (blocage)
Corrosion et contamination 1 000 h à chaud
Durée moyenne (qualifications (transistors) 2 jonctions bloquées
d’une filière, changements
de processus, suivi périodique) Électromigration 1 000 h (ou plus) à chaud,
forte densité de courant

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 45
FIABILITÉ _____________________________________________________________________________________________________________________________

a ) Les essais du type décrit au paragraphe 7.4.2b peuvent servir, Autrement dit, si les spécifications comprennent bien les essais
lorsqu’ils portent sur la totalité des pièces à courte durée de vie d’un adaptés aux risques les plus probables et si ces essais sont effectués
lot à réduire la période des défaillances précoces (comme un sur des lots significatifs des processus de fabrication correspondants,
fonctionnement préalable selon le paragraphe 2.1.1, mais de le contrôle de qualité peut révéler les mauvais lots et les refuser.
manière plus efficace). En effet, les essais spécifiques d’un méca- Ajoutons que la régularité de la fiabilité est garantie par la stabilisation
nisme inhabituel ne sont pas destructifs en général pour les pièces de la production , stabilisation imposée à la fois par les règles du
normales et, en ce qui concerne les essais de surcharge, il suffit de système (tout changement doit être signalé) et par les boucles de
choisir la valeur de la surcharge selon le paragraphe 6.6. correction associées au contrôle interne (boucles qui ont pour but
Dans les spécifications de composants normales, il n’est pas prévu d’accroître les chances d’acceptation du contrôle final).
actuellement un tel traitement unitaire. Mais on doit souligner qu’il L’évolution de la fiabilité et des modes de production des
n’y a là aucune limitation d’efficacité du système officiel de qualité : composants conduit tout naturellement à une évolution du système
en effet, un tel traitement est coûteux et ne sert à rien pour des de gestion de qualité des composants : celle-ci est examinée au
productions de composants bien maîtrisées car les défaillances paragraphe 9.
précoces sont alors négligeables. On doit seulement l’envisager pour
des productions nouvelles encore peu maîtrisées, ou des programmes
à fiabilité améliorée (§ 8.3.7) et à condition d’en vérifier l’efficacité.
Par contre, dès maintenant, les spécifications officielles de 8. Amélioration de la fiabilité.
qualification normale prévoient des essais, du type décrit au para-
graphe 7.4.2b, sur des échantillons prélevés sur des lots de produc- Démonstrations et clauses
tion. Cette méthode n’est pas coûteuse et elle est très efficace avec
les méthodes de production actuelles à caractère collectif où les de fiabilité
risques d’erreurs de fabrication portent plutôt sur la totalité d’un lot.
b) Les essais (§ 7.3c ) à caractère destructif portent sur des
échantillons prélevés dans les lots de contrôle ou de production. 8.1 Généralités
Pour des raisons économiques, la taille habituelle des échantillons
est plutôt faible (20 à 50 pièces). Le taux cumulé de pièces
défaillantes que l’on peut ainsi vérifier est relativement fort (par Nous avons regroupé dans ce paragraphe deux notions très dif-
exemple 2 × 10–2), ce qui correspond à des taux de défaillance plutôt férentes que l’on est souvent amené à associer, mais qu’il faut savoir
forts et cela malgré les fortes accélérations que l’on doit s’efforcer distinguer soigneusement :
d’obtenir (un taux de défaillance cumulé de 2 × 10–2 dans l’essai de — l'amélioration de la fiabilité ;
1 000 h à 200 oC, cité précédemment, équivaut à un taux supposé — ses démonstrations et les clauses de fiabilité où l'on cherche
constant de 10–7/h pendant 20 ans à 70 oC). seulement à sanctionner une situation sans chercher à l'améliorer
En pratique, le rôle de ces essais est cependant très important : (cela afin de faciliter les rapports entre client et fournisseur).
en effet ils restent très efficaces chaque fois que l’on réussit à simuler Dans ce qui suit (§ 8.2, 8.3, 8.4 et 8.5), nous désignons de façon
la durée de vie utile complète d’une famille de composants (c’est le un peu arbitraire par amélioration de la fiabilité toutes les méthodes
cas pour les photocoupleurs) car le taux cumulé peut alors être qui visent à réduire les probabilités de défaillances, à environnement
fortement modulé selon les lots. Par ailleurs on ne vérifie pas que et contraintes donnés, qu’il s’agisse de méthodes applicables
les caractéristiques de fonction à la fin des essais (§ 7.3c ). pendant ou après la fabrication ou au moment du contrôle final (on
Enfin, s’il est vrai que le taux de défaillance moyen des composants parle parfois de contrôle renforcé de qualité ). La fiabilité de
devient actuellement faible, il peut fluctuer d’un lot à l’autre et référence à partir de laquelle on souhaite une amélioration est celle
devenir accessible aux essais. qui est offerte par le système de spécifications normales (§ 7.3).
Avant de décider de la nécessité d’une amélioration, une enquête
c ) On n’attend pas la fin des essais d’endurance, dont la durée préalable est indispensable.
dépasse une semaine, avant de vendre les productions
correspondantes pour le degré de qualification normal. — La fiabilité des composants normaux n’est-elle pas suffisante ?
En a-t-on une connaissance suffisante (il arrive encore parfois que
Depuis quelques années, il existe des spécifications UTE/CECC qui l’on cherche des composants à fiabilité renforcée simplement à la
définissent le déverminage de composants terminés (traitement suite de déboires survenus avec des composants d’origine
unitaire) : par exemple, les spécifications UTE C 96-883 inconnue) ?
et UTE C 86-6.. (CECC 50-0..) pour les semi-conducteurs. Mais
rappelons encore que le traitement unitaire ne doit être utilisé que — S’agit-il seulement d’un environnement dur ? C’est alors la
comme palliatif (productions nouvelles, insuffisamment maîtrisées robustesse des composants qui doit être renforcée.
comme de nouveaux circuits complexes) ou comme complément à — Quelle est la durée de la mission ? En cas de mission très
une fabrication déjà améliorée. courte, c’est surtout le risque de défaillances précoces qui doit être
réduit.
Il n’y a pas de différence dans les principes entre une bonne
7.4.4 Conclusions et tendances actuelles fabrication selon le paragraphe 7.3 et une fabrication améliorée
du système de qualité mais il y a des différences parfois très grandes dans le nombre de
dispositions prises. Le choix des technologies (§ 8.3.3) est pri-
Nous avons souligné qu’il existe des liens très étroits entre les mordial et on rejettera des produits avec plus de sévérité (sauf s’ils
spécifications de contrôle des composants et leur fiabilité. De plus sont indispensables). On prendra en compte beaucoup plus de
nous avons indiqué que, par suite du progrès général de la fiabilité risques dans la maîtrise et le suivi. On attendra les résultats des
des composants, on aurait pu craindre une certaine perte d’efficacité essais de moyenne durée avant de décider. Une pratique courante
du suivi de la fiabilité par le système normal de qualité. En fait, il pour les composants des répéteurs sous-marins est de sélectionner
n’en est rien car cela aurait pu se faire dans l’hypothèse d’une des lots intermédiaires (par exemple, une tranche de semi-
répartition complètement aléatoire des pièces mauvaises alors conducteurs) à l’aide d’essais complets sur quelques pièces qui sont
qu’elles sont plutôt groupées dans certains lots à cause du caractère montées alors que la tranche est en attente de la décision.
collectif des fabrications modernes.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 46 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

8.2 Exemples d'objectifs sévères transitoires lors des mises en marche, réduction éventuelle des
contraintes après une première prévision de fiabilité, réduction du
de fiabilité nombre de modèles de composants, etc.). Ce dernier point est
indispensable, afin de concentrer les efforts de qualification des
Le tableau 12 résume les principaux objectifs visés pour deux composants. La recherche des performances de pointe, encore
applications particulièrement sévères : les équipements pour difficiles à obtenir d’une technologie, est incompatible avec la
l’espace et les amplificateurs téléphoniques immergés (câbles sous- recherche d’une bonne fiabilité : on ne doit jamais se rapprocher des
marins). Quelques sujétions propres à ces composants sont éga- limites de possibilité d’une technologie (ce qui n’interdit pas la
lement données (environnement) : elles compliquent fréquemment recherche de performances de grande classe).
la recherche de composants à fiabilité améliorée en les rendant sou-
vent très particuliers (ce qui constitue une grosse difficulté car il
n’est plus possible de profiter de l’expérience acquise sur des pro- 8.3.3 Investigations sur la technologie
duits déjà connus). Enfin, on doit souligner que les performances
demandées à ces composants sont souvent très poussées, ce qui
D’après le tableau 2, c’est bien par une technologie appropriée
constitue également une grosse difficulté, car on ne doit jamais se
que l’on peut s’efforcer de réduire à la fois les risques de fragilité,
rapprocher des limites des possibilités d’une technologie (§ 8.3.2).
la tenue aux contraintes d’environnement et de mise en œuvre, les
La fiabilité souhaitée est nettement meilleure que ce qu’on observe
risques de dégradation associés ou non à des erreurs de fabrication,
habituellement (taux de défaillance dix à cent fois plus faibles). La
les risques d’erreurs de fabrication eux-mêmes. On peut aussi
difficulté est reportée sur les composants dans le cas des câbles
réduire les contraintes internes à contraintes externes données. Par
sous-marins, car aucune redondance n’est prévue dans les ampli-
exemple, on supprime le risque de formation de composés inter-
ficateurs.
métalliques sur les soudures internes des semi-conducteurs en
prenant le même métal pour la métallisation et le fil de connexion ;
on ralentit le mécanisme d’électromigration avec des métallisations
8.3 Méthodes d’or plutôt que l’aluminium ou avec des métallisations d’aluminium
à gros grains (semi-conducteurs) ; on diminue les risques d’erreurs
ou d’écarts de fabrication (§ 8.3.4) en éliminant les technologies
8.3.1 Redondances difficiles (un condensateur au tantale dont l’anode a des dimensions
trop voisines de celles de son boîtier ne peut avoir une bonne
Les éventuelles redondances dont dépend la fiabilité globale d’un fiabilité, car l’anode peut être détériorée lors du montage). Certaines
système sont supposées déjà traitées : on ne passe en revue dans technologies de transistors sont plus ou moins robustes : la
ce qui suit que les méthodes ayant pour but de réduire les risques présence de résistances intégrées en série dans les émetteurs,
de défaillances intrinsèques d’un matériel (composants, mise en l’épitaxie multiple de collecteur (comparée à l’épitaxie simple)
œuvre, etc.). Nous reprenons donc chacune des étapes d’un projet favorisent la tenue au claquage de transistors de puissance. On
d’équipement comme celles décrites aux paragraphes 7.2 et 7.3 : en préférera un boîtier de transistor à faible résistance thermique
effet, la réduction des risques de défaillance est un peu assimilable (contrainte interne plus faible ). Il faut aussi examiner les compati-
à l’analyse de la valeur : on doit s’efforcer de ne négliger aucun bilités entre la technologie et les contraintes ultérieures, y compris
risque, de n’oublier aucun aspect du projet (environnement, etc.), de les contraintes de mise en œuvre (la température de fusion d’une
faire participer toutes les équipes qui ont une charge quelconque dans soudure interne d’un composant ne doit pas être atteinte lors de la
le projet et de détecter les questions dont le domaine de soudure du composant sur une carte imprimée). Enfin, une techno-
responsabilité est mal défini. On ne doit pas oublier que l’importance logie peut être préférée parce qu’elle facilite les essais accélérés de
relative des risques peut être bouleversée après réduction : des fiabilité (à cet égard, les semi-conducteurs en boîtiers métalliques
risques jusqu’alors négligeables peuvent devenir prépondérants. Ce ont un avantage sur les semi-conducteurs enrobés dont la tempé-
qui suit est donc un travail de patience qui doit être répété (y compris rature ne doit pas dépasser 150 oC). Ajoutons enfin que l’améliora-
l’examen des redondances dont l’intérêt peut être modifié). Ajoutons tion de la technologie est le seul moyen possible pour les
que ce qui suit ne fait que compléter les méthodes déjà exposées défaillances systématiques ne résultant pas d’erreur de fabrication
au paragraphe 7.3 et que l’on suppose déjà appliquées. (fragilité excessive, durée de vie insuffisante). Le choix se fait parmi
les technologies existantes (la mise au point de nouvelles techno-
logies ou même une simple modification est en général
8.3.2 Conception des schémas incompatible avec les délais d’un projet, car on doit craindre
d’ajouter de nouveaux risques) grâce à des examens et à des essais
d’investigation.
Il faut examiner les schémas et les listes de composants en détail
(sensibilité aux dérives de composants, existence de surcharges (0)

Tableau 12 – Comparaison des objectifs de fiabilité des satellites et des répéteurs téléphoniques immergés
Satellites Répéteurs immergés
Sujetions spéciales — faible masse ; — pour les répéteurs analogiques à courants
— faible consommation ; porteurs : très bonne linéarité de certains
— faible champ magnétique (éventuellement). composants (transistors) ;
— faibles dérives.
Contraintes spéciales d’environnement — vide (refroidissement difficile) ; — chocs (pose) ;
— rayonnements ionisants ; — chocs électriques en cas de coupure acci-
— chocs (lancement) ; dentelle du câble.
— météorites (cellules solaires).
Objectifs de fiabilité :
— durée de vie utile .........................................  7 ans  25 ans
— taux de défaillance....................................... 10–10/h à 10– 8/h (par composant) 10 –11/h à 10–9/h (par composant)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 47
FIABILITÉ _____________________________________________________________________________________________________________________________

8.3.4 Processus de fabrication donc des réactions étroites entre la précision, la rigueur des proces-
sus et les contrôles, et les diagrammes d’acheminement d’une fabri-
Le tableau 2 montre aussi que deux types de défaillances cation doivent être revus et améliorés selon le paragraphe 8.3.4 et
proviennent d’erreurs ou d’écarts de fabrication : la fiabilité des l’alinéa d du présent paragraphe.
produits est donc améliorée si on réduit l’importance et la fréquence
de ces écarts et si l’on élimine, par un contrôle, les produits fabriqués
pendant ces écarts. Par écart nous comprenons ici tout ce qui modifie 8.3.6 Contrôle final (acceptation des lots)
la constitution interne d’un composant, qu’il s’agisse de petits écarts
liés à la précision des processus, ou de grosses perturbations Le contrôle final a été décrit au paragraphe 7.3 ; les améliora-
localisées, dues à des événements parasites en cours de fabrication tions portent sur les points essentiels suivants.
(métallisation d’un semi-conducteur réduite des trois quarts par une — La construction des lots de fabrication, de matériaux, de pièces,
poussière au moment de la photogravure), qu’il s’agisse d’écarts col- de produits de nettoyage doit rester connue d’un bout à l’autre de
lectifs touchant toutes les pièces d’un lot (métallisation d’aluminium la chaîne, y compris le contrôle final. Les essais du contrôle final
à grains trop fins) ou d’écarts ne touchant qu’une pièce au hasard doivent porter sur chacun de ces lots partiels (par exemple un essai
(poussière). Beaucoup d’écarts n’ont d’effets que sur les caractéris- de blocage à chaud des semi-conducteurs porte sur un lot de dif-
tiques initiales du composant, mais certains d’entre eux abrègent la fusion). En effet, pour tous les risques d’écarts collectifs, il est facile
durée de vie individuelle d’une pièce (exemples ci-dessus), qu’il d’éliminer les lots défectueux (§ 7.4.3), alors que ce n’est plus pos-
s’agisse de la composition des matériaux de base, de pièces sible si les pièces de l’échantillon essayé sont prélevées au hasard
constitutives, des produits de nettoyage, ou d’événements parasites parmi plusieurs lots mélangés (le taux de défaut serait faible).
pendant les opérations de fabrication ou en dehors (stockage,
manipulations, etc.). — Le nombre et la fréquence des essais, le taux de prélèvement
et le taux de défaut tolérés, ainsi que le nombre de caractéristiques
La stabilisation des processus de fabrication par des pilotages contrôlées (il est très intéressant de distinguer des défauts mineurs
automatiques est l’un des meilleurs moyens pour obtenir une bonne et majeurs avec deux sévérités).
précision des processus (pilotage automatique des fours de diffusion
pour les semi-conducteurs, des fours de pyrolyse des condensateurs — Les décisions prises (§ 8.3.5), rejet strict des lots défectueux, ce
au tantale, des fours de frittage, etc., pilotage de la composition des qui n’est pas le cas pour les essais périodiques du contrôle de
gaz de réaction de diffusion pour les semi-conducteurs, etc.). qualité normal : en effet, cela suppose que l’on doit stocker sans les
À défaut de pilotage automatique, les opérations manuelles doivent vendre les lots de production en attendant la fin des essais. Un lot
être décrites par des spécifications précises et détaillées à suivre peut aussi être refusé lorsque les résultats de sélection unitaire
scrupuleusement (opérations de fabrication, de manipulation, de (décrits ci-après) sont insuffisants.
stockage, etc.). Les éléments d’une chaîne de fabrication doivent être
examinés exactement comme pour une étude de sécurité (consé-
quences d’une panne d’une machine, d’une fausse manuœvre) et les 8.3.7 Sélection unitaire éventuelle
risques doivent être évalués à l’aide des investigations de techno-
logie, selon le paragraphe 8.3.3. Elle fait suite à l’acceptation des lots selon les méthodes suivantes.
a) La vérification à l’unité des caractéristiques élimine les pièces
mauvaises au départ : le but est surtout d’améliorer le rendement
8.3.5 Contrôle de production des sous-ensembles et non la fiabilité, mais on sait
(§ 3.2b ) qu’avec les composants complexes on évite ainsi des
Les contrôles pendant la fabrication ont plusieurs rôles : pannes ultérieures. On peut aussi éliminer des pièces ayant un
a) détecter les écarts de fabrication lorsque c'est possible (les défaut risquant de provoquer une défaillance ultérieure (étanchéité).
écarts collectifs) au-delà d'un seuil fixé ; les contrôles complètent b) Par un fonctionnement simulant quelques centaines ou milliers
alors les systèmes de pilotage lorsqu'ils sont défaillants (contrôle du d’heures, on cherche à éliminer les défaillances précoces (§ 2.1.1),
réglage des machines à souder, des températures, etc.) ; si elles existent (fonctionnement légèrement accéléré, surcharges
b) détecter les pièces (individuellement) présentant un risque de légères, cycles de température, etc.), par exemple l’excès de
durée de vie raccourcie (ce contrôle est alors unitaire et il faut qu'une fragilité ; selon les risques les plus probables on prévoit aussi des
telle détection soit possible (examen visuel des semi-conducteurs essais spécifiques dont l’efficacité est meilleure (§ 7.4.3).
pour déceler d'éventuels trous sur les métallisations) ; c) Pour les programmes de fiabilité les plus élaborés, on complète
c) détecter les lots de pièces présentant un risque systématique le fonctionnement préliminaire précédent par une mesure individuelle
de durée de vie raccourcie par un essai destructif sur un échantillon des pièces avant et après, et l’on s’efforce de mesurer les paramètres
représentatif du lot : la détection est ici facile, puisque la vie d'une indicateurs de l’état interne (§ 7.3c ) : on peut alors espérer éliminer
pièce ou d'un élément peut être simulée [essais de résistance à la des pièces ayant un début de dégradation interne.
contrainte, essais accélérés (§ 6.4 et 6.6)], l’essai étant destructif
(essai de résistance à la contrainte de traction sur les fils de thermo- d ) On élimine les pièces statistiquement aberrantes (dans les
compressions des semi-conducteurs) ; ici les lots défectueux peuvent programmes élaborés), qu’il s’agisse de caractéristiques initiales
être éliminés (taux de défaut excessif sur l'échantillon) ; (et quelle que soit la caractéristique) ou de dérive après un essai. Il
d) détecter les pièces ou lots de pièces à caractéristiques sortant est indispensable de faire ce traitement à l’intérieur de lots homo-
des spécifications ; en b, c, et particulièrement en a, on vérifie que gènes (§ 8.3.6) : le but est d’éliminer les pièces ayant subi un écart
les contrôles ont bien un effet sur la fiabilité. de fabrication, même si certains de ces écarts sont sans rapport
avec la fiabilité.
L’amélioration porte sur le nombre et la fréquence des points de
contrôle et sur les décisions prises (notamment le rejet des lots défec- e) La sélection finale (programmes élaborés) résulte d’un examen
tueux en c : on peut se borner à rectifier l’écart ou rejeter effective- détaillé de l’ensemble des résultats pour chaque pièce et chaque lot
ment les lots et même les lots précédents). On doit souligner que (une partie du traitement peut être automatique).
les contrôles sont plus efficaces et plus économiques en fabrication Nous insistons ici sur le fait que la sélection unitaire, le
que sur le produit fini (un examen visuel est possible ; le nombre de déverminage ne sont que le complément d’une fabrication de grande
pièces rejetées non terminées est faible). On doit aussi noter qu’une qualité. Le déverminage de pièces d’origine inconnue de fabrication
amélioration d’un processus est encore plus économique et peut mal maîtrisée ne constitue qu’un pis aller lorsqu’il n’est vraiment pas
éviter des contrôles (l’élimination des poussières à la photogravure possible d’améliorer la fabrication (mais les résultats seront peu signi-
d’un semi-conducteur peut rendre inutile un contrôle visuel). Il y a ficatifs). Un déverminage réduit à b est inutile pour les productions

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 48 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

bien maîtrisées (actuellement, certaines technologies, comme les cir-


cuits intégrés MOS très complexes ou les condensateurs au tantale
dont le déverminage fait partie de la fabrication, ne sont pas encore
complètement maîtrisées).

8.3.8 Mise en œuvre des composants


et fabrication d'équipements

On se reportera au paragraphe 7.2.6.


L’amélioration porte ici sur la rigueur et le soin : selon les principes
déjà vus pour les composants, on doit éviter toute surcharge
intempestive et mal connue sur les composants (mise en œuvre,
mesures, manipulations) ; la part du hasard doit être minimisée aussi
bien pendant les phases de production que de contrôle et d’attente
(pas de manipulation à mains nues, etc.). L’ensemble doit s’appuyer Figure 47 – Coût d’un composant en fonction de sa fiabilité
sur une organisation rigoureuse et des spécifications précises. Toute
anomalie, toute défaillance doivent être analysées avec réactions sur
la production, modifications éventuelles du projet, après accord de
■ Le Centre national d’études spatiales (CNES) s’est attaché à déve-
tous les services. D’une façon générale, on doit cependant éviter les
lopper en France depuis 1970 des chaînes de fabrication de
modifications (qu’il s’agisse de la technologie des composants, d’un
composants à fiabilité améliorée selon les principes précédents. On
processus, etc.). En cas de nécessité, de telles modifications doivent
s’oriente désormais vers des spécifications européennes dont
être complètement étudiées (on y renonce en cas de délai
l’élaboration est coordonnée par le Groupe des composants pour
insuffisant).
l’espace (SCCG). Le CNES tient à jour la liste des composants ainsi
qualifiés et les spécifications correspondantes. Actuellement, on
s’efforce d’harmoniser ce système et celui du CECC (§ 7.3). Comme
8.4 Fiabilité et coût pour le système normal, l’avantage d’un système officiel commun
est de concentrer les efforts pour de multiples utilisations (le risque
est en effet d’aboutir à des productions très restreintes, ce qui est en
Il n’y a pas de frontière précise entre une bonne fabrication et une partie incompatible avec une bonne fiabilité).
fabrication améliorée car les principes sont les mêmes : certains des ■ Les spécifications de composants à fiabilité établie sont très dif-
principes prévus pour améliorer la fiabilité améliorent aussi le férentes car elles ne portent que sur le composant terminé. Elles
rendement de production et diminuent le coût (automatisation, comprennent, outre les essais habituels des spécifications normales
rigueur, etc.). On peut donc s’attendre à des courbes coût/fiabilité UTE/CECC, un essai accéléré de fonctionnement destiné à évaluer un
selon la figure 47 avec des minimums A et A ′ qui devraient taux de défaillance (supposé constant ). Suivant la méthode décrite
correspondre à la fabrication normale. au paragraphe 6.2.1, on détermine la borne supérieure de l’inter-
Mais si l’on s’écarte beaucoup de ce point, avec des dispositions valle de confiance (60 ou 90 %) correspondant. Selon que cette
coûteuses (suivi individuel des pièces, etc.), le coût augmente borne est inférieure à 10–5/h, 10–6 /h... on obtient la qualification
rapidement : le prix d’un composant à fiabilité améliorée peut être pour la classe 10–5/h, 10–6/h... Pour qu’une telle qualification soit
compris entre 1,5 à plus de 100 fois le prix du composant ordinaire. maintenue, des essais analogues sont à entreprendre périodique-
ment (3, 6, 9, 12 mois selon la classe), mais avec un critère
correspondant à 10 % de confiance.
8.5 Résultats Il existe de telles spécifications aux États-Unis pour les composants
passifs. En France, il existe une spécification générale CCTU 01-09,
dont l’application se heurte au coût prohibitif d’une telle qualification
On a forcément peu de statistiques sur les composants à fiabilité (plus généralement, toute démonstration de fiabilité est coûteuse –
améliorée (pas ou très peu de défaillances). Certains spécialistes d’autant plus coûteuse que la fiabilité est bonne et elle n’améliore
pensent que l’on ne peut jamais que supprimer les défaillances de rien).
jeunesse. Citons cependant les répéteurs téléphoniques pour câbles Exemple : si l'on souhaite établir une telle démonstration pour des
sous-marins où l’on observe déjà en moyenne un taux de défaillance résistances et établir un taux de 10–8/h dans les conditions accélérées
au moins dix fois plus faible que pour les répéteurs terrestres (mais de l'essai, il faut accumuler au moins 0,915 × 108 pièces × heures,
pour ceux-ci, les éventuelles défaillances de jeunesse sont avec 0 défaillance pour 60 % de confiance (tableau 9). Un tel essai
comptées). coûterait par exemple 10 MF (en comptant 0,1 F par pièce × heure),
soit le coût de 100 millions de pièces (des résistances à 0,1 F ont
effectivement une telle fiabilité). Il ne ferait qu'établir la fiabilité des lots
fabriqués pendant la période considérée.
8.6 Contrats possibles entre fabricants
de composants En outre l’intérêt d’une telle méthode peut être discuté. Que peut-
on dire de la fiabilité des lots précisément achetés par le client ?
L’homogénéité de la production est-elle suffisante et n’est-ce pas
■ Entre un constructeur d'équipement et un fabricant de plutôt cette homogénéité dont il faudrait se préoccuper par un suivi ?
composant il existe un premier type de contrat qui peut décrire les Ne suffirait-il pas d’établir la fiabilité des composants par des statis-
méthodes précédentes en les détaillant (câbles sous-marins). tiques en exploitation ? Ces questions sont discutées actuellement.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 49
FIABILITÉ _____________________________________________________________________________________________________________________________

On peut considérer que les spécifications à fiabilité établie n’ont


plus d’intérêt, avec la fiabilité obtenue naturellement il est impossible
d’imaginer des essais même accélérés (se reporter au paragraphe 6
et établir un plan d’essais pour prouver un taux de défaillance de
3 · 10 –7 /h, soit 10 –8 /h dans des conditions normales, en se
souvenant qu’un tel essai doit être répété régulièrement). En effet,
on ne peut plus imaginer de nos jours qu’une fabrication reste figée
pendant plusieurs années sans aucune modification et toute modifi-
cation rend les essais précédents caducs.

8.7 Contrats entre constructeurs


et acheteurs d'équipements : Figure 48 – Plan d’essai progressif de fiabilité
clauses de fiabilité
ou en exploitation) et le plan d’essais choisi ; les sanctions choisies
8.7.1 Document du Comité de coordination (qui peuvent être des bonifications et des pénalisations et qui
des télécommunications CCT 190 dépendent de la période d’observation) ; l’environnement annoncé
(édition 1979) par le client.
Les clauses peuvent être évoquées dans un appel d’offres ou dans
Nota : le lecteur pourra se reporter à la référence [14]. un contrat d’étude (les valeurs spécifiées de la fiabilité peuvent alors
Il peut être considéré actuellement comme un guide pour l’intro- être laissées libres, mais il faut préciser comment on les obtiendra
duction de clauses de fiabilité dans des contrats de fourniture d’équi- à partir des prévisions de fiabilité. Elles peuvent au contraire être
pements. Il comprend : un guide pour la rédaction et la mise en œuvre fixées impérativement) ; un calcul de prévisions de fiabilité sert de
d’un plan de fiabilité chez le constructeur d’équipement (§ 7.2) ; un base et doit figurer dans une réponse à un appel d’offres. Il doit être
guide pour le choix des clauses de fiabilité ; un recueil de plans fait à partir du recueil national [12] sauf justifications contraires.
d’essais ; les recommandations à suivre dans le cas où les clauses Le titulaire du contrat doit indiquer comment il compte tenir les
portent sur la fiabilité en exploitation. clauses requises (origine, spécifications de composants, plan de fiabi-
lité, etc.). En pratique, ces dispositions sont discutées entre le client
et le fournisseur dans la phase de préparation.
8.7.2 Plans d'essais

Nota : le lecteur pourra se reporter à la référence [14]. 8.7.4 Difficultés


Ils permettent de décider si un lot de pièces est bon ou mauvais
(alors que la méthode décrite au paragraphe 6.2.1 donne seulement Ce sont les mêmes que pour une démonstration, (§ 8.6), car il faut
un intervalle de confiance ). La figure 48 illustre un plan très courant avoir un nombre significatif de défaillances pour décider. Les
(λ1 est le taux de défaillance spécifié ; λ2 est le taux de défaillance clauses ne peuvent donc s’appliquer qu’à des fournitures
maximal acceptable ; α est le risque du fournisseur qu’un équipe- importantes : la figure 49 donne une idée des domaines respectifs
ment ayant un taux meilleur que λ1 soit refusé ; β est le risque du de la démonstration en laboratoire, en exploitation et de l’évalua-
client d’accepter un équipement ayant un taux plus mauvais que λ 2 ). tion sur calcul (où le client suit l’ensemble des dispositions prises).
La figure 48 correspond au cas fréquent où α = β = 10 % ; λ 2 / λ1 = 3. On a tracé des droites λ0 n t = c ; (λ 0 étant le taux prévu pour le
Elle donne les domaines taux/temps cumulé où les décisions sont dispositif acheté, n le nombre de dispositifs achetés, t la durée de
possibles. On poursuit l’essai jusqu’à ce qu’une décision soit la démonstration). Le plan d’essais choisi fixe c ; avec le plan de la
possible. Par exemple, soit un équipement dont le taux λ1 est 10–5/h. figure 48, c est compris entre 1,2 (bonnes fournitures) et 3,4. On a
Au bout d’un temps cumulé d’essai de 2 × 105 h (par exemple 100 supposé que la durée t était limitée respectivement à 1 an et 5 ans
équipements ayant fonctionné 2 000 h), on accepte la fourniture si pour les démonstrations en laboratoire et en exploitation et que les
on observe moins d’une défaillance et l’on refuse si l’on observe plus essais en laboratoire portaient sur 10 % de la fourniture. Les
de cinq défaillances ; on poursuit l’essai pour des valeurs inter- frontières de ces trois domaines ne sont pas rigides : si l’on consent
médiaires. Notons que la méthode s’applique à tout dispositif (équipe- à prendre des risques plus grands, la frontière (1) se déplace vers
ment, composant) pourvu que le taux soit constant (mais elle est la gauche en (1′ ).
impraticable pour les composants pour la même raison que celle
décrite au paragraphe 8.6).
8.7.5 Conclusion

8.7.3 Description succincte de clauses de fiabilité Malgré les difficultés d’application aux petites fournitures ou aux
fournitures de très bonne fiabilité, il est certain que l’introduction de
Un contrat avec clauses de fiabilité doit préciser : les paramètres clauses de fiabilité dans les contrats de fourniture présente un grand
de fiabilité choisis (taux de défaillance, indisponibilité) ; la période intérêt (surtout peut-être pour les objectifs de fiabilité peu sévères,
d’observation retenue [en fonction de la mise en service, de la fin ainsi qu’aux environnements difficiles). Elle permet d’intéresser les
de l’étude, etc. ; il est intéressant de retenir plusieurs périodes ou fournisseurs (par les bonifications) et apporte de la rigueur dans les
une période glissante (par exemple, le contrat est respecté si les relations entre fournisseur et client. Ce dernier ne doit cependant pas
résultats sont satisfaisants pendant dix-huit mois consécutifs au se décharger de la fiabilité : des contacts fréquents entre fournisseur
cours des trois premières années)] ; les valeurs spécifiées des para- et client sont en effet nécessaires, afin d’ajuster les objectifs et de
mètres de fiabilité ; le type de démonstration retenu (en laboratoire lever le doute sur les difficultés qui ne manquent pas de surgir.
Ajoutons enfin que la tendance est de considérer globalement les
clauses de fiabilité et de maintenabilité et même parfois d’acheter
un service (tout ce qui précède est alors à la charge du fournisseur).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 50 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

9.2 Évolution de la technologie

L’évolution de la technologie des composants et des procédés de


fabrication est étroitement liée à l’évolution des conditions écono-
miques. La fiabilité des composants en dépend.
a) L’automatisation des productions pour en diminuer le coût a
tendance à réduire les aléas d’une pièce à l’autre et à les concentrer
sur un même lot de fabrication. Le taux de défaillance moyen a
tendance à diminuer, mais on risque de trouver des lots dont la durée
de vie moyenne est très raccourcie : cela a quelques inconvénients
(la concentration des pièces peu fiables peut être fâcheuse lorsqu’elle
est localisée sur un même système), mais offre des avantages, car
il est beaucoup plus facile de détecter et d’éliminer les lots défec-
tueux qu’une pièce parmi des milliers (§ 7.4.3).
b) L’automatisation de la mise en œuvre des composants sur
les cartes imprimées et celle du câblage entre sous-ensembles doit
aussi améliorer la fiabilité des systèmes.
c) L’emploi de matériaux de base peu coûteux, ou la réduction
des quantités employées, est devenu une nécessité : si les études
correspondantes sont complètes (avec des essais d’endurance), il n’y
a pas de répercussion sur la fiabilité. Dans le cas contraire, on risque
d’amoindrir la tenue des composants à certaines contraintes (d’envi-
ronnement, notamment l’humidité, etc.). Éventuellement, il peut se
faire qu’apparaissent sur le marché des composants économiques
pour des environnements doux ou pour des cycles de fonctionnement
Figure 49 – Domaines respectifs de l’évaluation de la fiabilité peu nombreux (composants de raccordement). Cette tendance n’est
pas évidente et doit être distinguée de la classification d’autrefois
grand public/professionnel (les composants de classe grand public
doivent souvent tenir des contraintes d’environnement très dures –
9. Tendances actuelles comme l’automobile – avec une bonne fiabilité).

en fiabilité. Fiabilité d) Les modifications de technologie risquent d’être plus


fréquentes qu’autrefois : cela résulte du progrès général qui
dans le monde s’accélère (nouvelles technologies), mais aussi des rationalisations
des productions (pour des raisons économiques, il est intéressant
d’adapter une nouvelle technologie à des composants déjà existants).
Il arrive aussi que l’on cherche à reculer les possibilités d’une tech-
9.1 Nouvelles disciplines nologie existante : c’est le cas des semi-conducteurs, lorsque l’on
réduit les dimensions des transistors élémentaires pour augmenter la
densité d’intégration (c’est bien l’évolution des années 1980 à
Si l’on considère le point de vue de l’usager, c’est-à-dire si l’on 1985) : on augmente de ce fait certaines contraintes (densité de
s’intéresse à la fréquence des pannes, à leurs conséquences, au coût courant) et on rend les composants élémentaires plus sensibles aux
global (pannes, exploitation comprise), on a tendance à regrouper des perturbations (en 1980 par exemple, un nouveau défaut est apparu
disciplines dont le nombre s’accroît régulièrement et qui prennent de sur des points de mémoire à semi-conducteurs par suite de leur
plus en plus d’importance : toutes ces disciplines doivent être décharge intempestive par des rayonnements naturels). Lorsque les
considérées dans leur ensemble, même si elles méritent des déve- essais d’endurance sont complets, les risques de mauvaise fiabilité
loppements séparés, car elles visent soit à réduire les risques de sont très faibles, mais il peut se faire qu’apparaissent parfois de
défaillances, soit à annihiler leurs effets, soit à réduire les risques de nouveaux composants encore mal maîtrisés.
défaillances externes (surcharges, fausses manœuvres, etc.). En e) C’est cependant l’emploi généralisé des circuits intégrés et
outre, les méthodes mises au point pour une technique sont appli- l'augmentation de la densité d'intégration (qui doit se poursuivre
cables à d’autres (le calcul de probabilité de rupture de stocks qui encore plusieurs années) qui doivent apporter l’amélioration de fiabi-
relève de la maintenabilité est identique au calcul de lité la plus spectaculaire à fonction donnée (§ 4.8 et figure 50).
disponibilité, § 5.3.5). Nous pouvons citer : la tolérance aux fautes,
f) L’amélioration continuelle des connaissances des mécanismes
la tolérance aux fausses manœuvres (non seulement aux fausses
de dégradation compense en partie l’apparition des risques cités
manœuvres destructives par surcharges, mais aussi à celles qui
précédemment (c, d ). En particulier, la robustesse des semi-
risquent de bloquer un système : cas possible avec les systèmes
conducteurs doit continuer à s’améliorer.
complexes par insuffisance de programmation) ; la tolérance aux
parasites ; la compatibilité entre systèmes, la tolérance aux brouil- g) En résumé, on peut s’attendre à une amélioration continuelle
lages, la tenue aux surcharges. D’autres disciplines complètent aussi et lente du taux de défaillance moyen des composants (qui devrait
la fiabilité : la maintenabilité déjà citée (§ 1.1.2) et plus générale- tendre vers 10–9/h) mais avec l’apparition épisodique de lots défec-
ment les études du coût global de la vie d’un matériel, l’étude des tueux (erreurs de production, modifications de technologie, nouveaux
erreurs humaines, les études de sécurité ou de sûreté de produits). On peut citer les domaines suivants où des progrès sont
fonctionnement (§ 4.9), les études de fiabilité des logiciels. particulièrement attendus (§ 4.7) :
— l'arséniure de gallium (utilisé pour les composants électro-
luminescents et pour hyperfréquences) est un matériau encore
moins bien maîtrisé que le silicium et donnant lieu à plus d'aléas
(thermocompressions, etc.) ;

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 51
FIABILITÉ _____________________________________________________________________________________________________________________________

b ) Certains clients souhaitent avoir une garantie sur la proportion


de pièces défectueuses sur les lots vendus : il est donc envisagé
d’augmenter la sévérité des taux tolérés, à la fois pour les
caractéristiques initiales et pour les essais.
c ) Il existe aussi en 1981 une tendance à un renforcement de la
qualité, par exemple par des déverminages ou par un renforcement
général de la sévérité des prélèvements. Cette tendance a une double
origine :
— la sous-traitance de plus en plus fréquente d'une partie des
fabrications dans des territoires éloignés conduit parfois des clients
à se détourner du système officiel de qualité et à renforcer leur propre
contrôle d'entrée ; on observe même quelquefois une baisse de qua-
lité de ces composants d'origine indéterminée (le système officiel
autorise la sous-traitance mais impose la maîtrise des sous-traitances
par le responsable de la qualité du fournisseur) ;
— l'amélioration progressive de la fiabilité moyenne des
composants risque de diminuer l'efficacité des contrôles de qualité
actuels (§ 7.4.4) ; l'orientation des méthodes de contrôle de qualité
fait l'objet de nombreuses discussions dans les organismes profes-
sionnels ou officiels (UTE, CECC) ; on peut penser que la méthode
qui devrait naturellement prédominer est de faire remonter le suivi
officiel de qualité sur les chaînes de production et de tenir compte
de façon rigoureuse des lots de production (§ 8.3.6). Un déver-
minage est inutile pour une production bien maîtrisée (§ 8.3.7).
La fiabilité est une technique maintenant à l’âge adulte. Le
congrès de fiabilité français est devenu international. Il est organisé
Figure 50 – Taux de défaillance, par transistor élémentaire, en France par le CNET (Centre national d’études des télé-
pour des transistors ou circuits intégrés en fonction de la complexité communications), le CNES (Centre national d’études spatiales), le
et des années de production CEA (Commissariat à l’Énergie atomique) et il est prévu qu’il soit
organisé par plusieurs pays d’Europe successivement.
— la durée de vie utile des composants électroluminescents est Le tableau 13 donne la liste actuelle des documents de la CEI.
encore faible (la durée de vie médiane est de l'ordre de quelques mil- La fiabilité est assez bien connue mais on oublie parfois de
liers d'heures, ce qui est encore 10 à 20 fois trop faible ; on peut l’appliquer à la conception. On oublie aussi que la fiabilité, comme
considérer que la durée de vie des autres composants est grande la qualité, est l’affaire de tous et pas seulement des spécialistes. On
devant 10 à 20 ans) ; croit souvent encore que la fiabilité coûte cher à la production : c’est
— les phénomènes de corrosion sont encore imparfaitement un peu vrai pour les fiabilités très exceptionnelles. Mais dans tous
connus et des progrès sur la connaissance de la dégradation des les autres domaines, la fiabilité diminue les coûts de production.
contacts électriques sont significatifs. (0)
Ce résumé sur l’évolution de la fiabilité reste vrai. L’arséniure de
gallium donne encore des produits très prometteurs mais dont la
fiabilité est à surveiller (grande fragilité, § 4.7).
Par contre, la durée de vie des diodes électroluminescentes peut
être maintenant considérée comme grande (§ 4.7). Il n’en est pas de
même pour les diodes laser dont la durée de vie est encore limitée
(et le taux de défaillance encore fort, par exemple 10–6/h).

9.3 Évolution des méthodes de contrôle


de qualité

Elle découle en partie de ce qui précède.


a ) On étend actuellement le système aux composants à la
demande pour lesquels le contrôle statistique est onéreux (nombreux
modèles et petites séries), en faisant porter les essais d’endurance
sur des spécimens témoins de la production et fabriqués simultané-
ment. Le spécimen est choisi pour être facile à caractériser, tout en
ayant la complexité maximale (application : circuits intégrés mono-
lithiques ou hybrides).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 52 © Techniques de l’Ingénieur, traité Électronique
____________________________________________________________________________________________________________________________ FIABILITÉ

Tableau 13 – Documents sur la fiabilité publiés


jusqu’en 1988 par le Comité d’études
sur la fiabilité de la CEI
Titre du document Numéro Année
Liste des termes de base, définitions et 271 1974
mathématiques applicables à la finalité
271 A 1978
271 B 1983
271 C 1985
Gestion de la fiabilité et de la maintena-
bilité 300 1984
Présentation des données de fiabilité
pour les composants 319 1978
Guide pour l’acquisition des données de
fiabilité, de disponibilité et de maintena-
bilité à partir des résultats d’exploitation
des dispositifs électroniques 362 1971
Guide pour l’inclusion de clauses de fia-
bilité dans les spécifications de compo-
sants pour l’équipement électronique 409 1981
Essais de fiabilité des équipements 605
Prescriptions générales 605-1 1978
Conditions d’essai préférentielles 605-3 1986
Méthode de calcul des estimateurs
ponctuels et des limites de confiance
résultant d’essais de détermination
de la fiabilité d’équipements 605-4 1986
Plan d’essai de conformité pour une pro-
portion de succès 605-5 1982
(add. 1987)
Tests de validité de l’hypothèse d’un
taux de défaillance constant 605-6 1986
Plans d’échantillonnage pour confirmer
le taux de défaillance constant 605-7 1978
Techniques d’analyse de la fiabilité des
systèmes. Procédures d’analyse des
modes de défaillance et de leurs effets 812 1985
Présentation des résultats de la prévision
des caractéristiques de fiabilité 863 1986

Références bibliographiques

[1] MORICE (M. E.). – Les graphiques à échelles [6] SEILER (K.). – Introduction to systems effec- [13] DONDSOM (G. A.) et HOWARD (B. T.). – High
fonctionnelles du statisticien. Rev. tiveness. Publ. ORSA, no 17, Wiley-Inter- stress aging to failure of semiconductor
Statistique Appliquée (F), 13 (1964). science (1965). devices. 7th National Symposium on
[2] DARNELL (M. A.). – Electronic system relia- [7] Le recueil de données de fiabilité. RDF 80, Reliability and Quality Control in Electronics
bility. An American view-point (Fiabilité CNET Lannion (1989). Philadelphia, p. 262-70, Bell Telephone
d’un système électronique. Un point de vue Laboratories, janv. 1961.
[8] Fiabilité des équipements et des systèmes.
américain). Proc. IEE (GB), 3 , no 2, fév. La documentation française, no 190 /CCT [14] LANGLOIS-BERTHELOT (R.). – Durée de
1964. ETCA /NOR /X68-09/1 et annexe 191/CCT - vie, fiabilité, disponibilité des matériels.
[3] HAMMERSLEY et HANDSOMB. – Monte- ETCA /NOR - X 68-09/2 197. 154 p., Dunod (1968).
Carlo method (Méthode de Monte- Carlo). [9] Fiabilité en exploitation et après-vente. [15] MORICE (E.). – Tables et abaques relatifs
Methuen and Co. Ltd [trad. Dunod (1967)] NF X 06-52 AFNOR. aux lois des variables t, χ 2et F non cen-
(1964). trées. Rev. Statistiques Appliquées (F), 17,
[10] Colloque international de la fiabilité et de
[4] SCHWOB (M.) et PEYRACHE (G.). – Traité no 1, p. 79-97 (1968).
maintenabilité. CNET (1978-1980).
de fiabilité. Masson (1969). [16] RYERSON (C. N.). – Correlation of ground
[11] BAZOVSKY (I.). – Reliability theory and
[5] CORAZZA (M.). – Techniques mathéma- air and states failure rates. 11 th National
practice. Prentice Hall Cleffs NJ (1961).
tiques de la fiabilité prévisionnelle. Symposium on Reliability and Quality
[12] CHAPOUILLE (P.) et PAZZIS (R. de). – Control Miami, p. 273-8, Huges Aircraft Co.,
Cepadues Ed. (1975).
Fiabilité des systèmes. 286 p., 102 fig., janv. 1965.
Masson (1968).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Électronique E 1 420 − 53
FIABILITÉ _____________________________________________________________________________________________________________________________

[17] DETHOOR (J. M.) et GROBOILLOT (J. L.). – La [22] MARCOVICI (C.) et LIGERON (J. C.). – Utilisa- [26] Fiabilité. Maintenabilité. Disponibilité.
vie des équipements. Dunod (1967). tion des techniques de fiabilité en mécanique. Recueil de normes. AFNOR (1986).
[18] HAVILAND (R. P.). – Techniques de fiabilité et Technique et documentation (1974). [27] HOWES (M. J.) et MORGAN (D.). – Reliability
durée de vie des équipements. Eyrolles [23] BAJENESCO (T. I.). – Initiation à la fiabilité en and degradation. John Wiley (1986).
(1966). électronique moderne. Masson (1978). [28] Statistique, vocabulaire, estimation et tests
[19] Proccedings Annual Reliability and [24] PAGES et GONDRAN (M.). – Fiabilité des statistiques. Tomes 1 et 2, AFNOR.
Maintainability Symposium IEEE (1966/1980). systèmes. Eyrolles (1980). [29] SHELDON et ROSS (M.). – Initiations aux
[20] CHAPOUILLE (P.). – La fiabilité. PUF (1972). [25] LIGERON (J.-C.), DELAGE (A.) et NEFF (M.). – probabilités. Presses polytechniques
[21] CHAPOUILLE (P.). – Planification et analyse La fiabilité en exploitation. Organisation et romandes (Lavoisier).
des expériences. Masson (1973). traitement des données. Technique et docu- [30] Recueil de données de fiabilité.
mentation Lavoisier (1984). MIL HDBK 217 E. 27.10.1986. Cedocar5

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
E 1 420 − 54 © Techniques de l’Ingénieur, traité Électronique

Vous aimerez peut-être aussi