Vous êtes sur la page 1sur 33

Etude Du Rendement Et Fiabilité

D’une Filière Technologique

Réalisé par : Encadré par :

LAFTIMI Mohammed Mr. LAMHAMDI


JAAFARI Khadija
2
Remerciement

C’est avec notre enthousiasme le plus vif et le plus sincère que nous
Voudrions rendre mérite à tous ceux qui à leur manière nous ont aidé à
mener à bien ce rapport

Nous désirons alors exprimer notre profonde gratitude à notre professeur


Mr. M.Lamhamdi pour les conseils et les directifs hautement instructifs
qu’il nous a prodigués qui nous ont facilité la tâche de tirer le maximum de
profit de ce projet et pour son soutien constant pendant l’élaboration de ce
travail malgré leur nombreuses préoccupations et leur grandes
responsabilités.

3
SOMMAIRE :

Introduction général .................................................................... 4

Partie 1 : étude de la fiabilité

I-Introduction .................................................................................................................... 6

II- Définitions .....................................................................................................................7

III- La fiabilité et les probabilités............................................................................ 8

VI-Mécanismes de défaillance et nature de défauts ................................... 14

V- Nature des défauts des CI ................................................................................... 17

VI- Méthodologie de calcul de la fiabilité .......................................................... 21

VII- Méthodologie de conception pour augmenter la fiabilité ................ 24

4
Partie2 : Notions du rendement

I-Introduction .................................................................................................................. 26

II- Définition et importance ...................................................................................... 26

III- Métrologie .................................................................................................................. 29

VI- Modélisation fonctionnelle du rendement................................................ 29

V-Solution pour améliorer le rendement ......................................................... 31

Bibliographie .................................................................................................................. 58

5
INTRODUCTION
GENERALE

L’électronique est une discipline née de la physique et dédiée à la manipulation


des signaux électriques. Elle permet, au moyen de divers éléments appelés «
composants », de construire des appareils capables de gérer ces signaux électriques dans
le but de transmettre ou de recevoir des informations. La microélectronique désigne
l’ensemble des technologies de fabrication de composants, qui utilisent des courants
électriques pour transmettre, traiter ou stocker des informations, à l’échelle
micrométrique. Elle est en grande partie à l’origine des formidables progrès réalisés ces
dernières décennies dans les domaines de l’informatique, des télécommunications et de
l’imagerie, entre autres. En un siècle, la miniaturisation a permis le passage du tube à
vide au transistor sur matériau solide d’un micromètre carré. Parallèlement, le passage
du signal analogique (à variation continue) au signal numérique (codé en une succession
de 0 et de 1) a facilité le développement de circuits électroniques aux fonctions de plus
en plus performantes.

6
Partie 1 : étude de la fiabilité

I- Introduction

II- Définitions

III- La fiabilité et les probabilités

IV- Mécanismes de défaillance et nature de défauts

V- Nature des défauts des CI

VI- Méthodologie de calcul de la fiabilité

VII- Méthodologie de conception pour augmenter la


fiabilité

7
8
I- Introduction
L’entrée de la technologie CMOS dans les dimensions nanométriques résulte de l’évolution prévue pour les circuits
intégrés, déterminée par l’industrie des semi-conducteurs d’après les feuilles de route établies selon la loi de
Moore. Pourtant, la production des circuits nanométriques présente des défis de plus en plus critiques, qui
demandent des efforts considérables de la communauté scientifique. Ces défis sont liés à des limitations d’ordre
physique, économique et technologique, et se traduisent en un changement du comportement des structures
fortement intégrées et en une difficulté pour les fabriquer avec la précision nécessaire. La majorité des problèmes
associés à la réduction des structures CMOS amène à une réduction du rendement de fabrication et de la fiabilité
d’opération des circuits. Les technologies émergentes, conçues pour étendre, complémenter, voire substituer la
technologie CMOS, seront très sensibles aux variations paramétriques des composants et aux défauts de
fabrication. La fiabilité d’opération des circuits reste un problème critique, pour lequel les solutions proposées font
appel aux techniques de tolérance aux pannes. Selon quelques études, la probabilité d’occurrence des fautes
transitoires dans les systèmes nanométriques montera au fur et à mesure de l’augmentation de densité des
composants intégrés, atteignant le même niveau observé dans les mémoires, où les fautes transitoires sont plus
facilement traitées

II- Définition
La fiabilité est l’aptitude d’un dispositif à accomplir une fonction requise, dans des conditions données d’utilisation
et de maintenance, pendant une durée donnée.
Les activités de maintenance sont donc étroitement liées aux caractéristiques de « fiabilité » des
équipements/produits.
On dit d’un système, d’un équipement ou d’un produit qu’il est fiable lorsque la probabilité qu’il accomplisse ses
fonctions prévues sur une durée donnée correspond à celle spécifiée au cahier des charges.
La fiabilité d’un système, d’un équipement ou d’un produit caractérise son aptitude à fonctionner sans défaillance.
C’est une composante de la qualité qui fait intervenir le temps. Elle ne peut être vérifiée avec certitude à réception.
La théorie de la fiabilité sert à étudier l’aptitude de systèmes à fonctionner correctement durant une période
donnée. Un dispositif peut se trouver dans l’un des deux ´états suivants : I’ Apte à fonctionner correctement, c’est-
à-dire en état de service. Inapte à fonctionner correctement, c’est-à-dire en panne ou hors-service. Nous posons les
hypothèses suivantes : I Au départ, chaque dispositif est en état de service. I Les défaillances se produisent
généralement de façon aléatoire.
Nous définissons la fiabilité d’un dispositif pour une durée donnée comme étant la probabilité qu’aucune
défaillance ne se produise pendant cette durée.

9
Figure 1.Courbe en baignoire du taux de défaillance en fonction du temps

En ingénierie la courbe en baignoire est une représentation classique de la probabilité d’incidents pour des
équipements ou des systèmes1. La courbe en baignoire est la somme de trois composantes :

• une courbe des incidents aléatoires qui est indépendante de l’âge du système ;
• une courbe des incidents liés au rodage du système, qui commence à un niveau élevé puis décroit avec le
temps ;
• une courbe des incidents liés au vieillissement du système qui débute à des niveaux faibles mais croît de façon
continue avec le temps.
Dans le cas des composants électroniques, la partie centrale de la courbe bleue, notée « période productive », est
très plate et très étendue ; on parle de « lambda constants » (la lettre grecque λ désignant le taux de défaillance).
Dans les cas des systèmes mécaniques, en raison de l’usure, la courbe bleue ne présente pas de partie plate et
remonte dès la fin de la période de rodage

10
La loi de fiabilité
La préoccupation principale de la fiabilité est de prédire la probabilité d’occurrence d’une défaillance d’un système
(panne). Ceci se fait en établissant une loi de fiabilité.

1- Fiabilité et qualité
L’Union technique de l’électricité (UTE), sur recommandation de la Commission électrotechnique
internationale, a proposé la définition suivante :
- La fiabilité est l’aptitude d’un dispositif à accomplir une fonction requise dans des conditions données pour une
période de temps donnée.
-La fiabilité est la probabilité de n’avoir aucune défaillance pendant la durée t. Comprise entre 0 et 1 (ou 0 et
100 %), elle est notée R(t) (R pour Reliability, fiabilité en anglais).
Il ne faut pas confondre la fiabilité (fonction du temps) et le contrôle de qualité (fonction statique).
Exemple :
0n teste des circuits intégrés au sortir de la chaîne de production, et on constate que 3 % d’entre eux ne
fonctionnent pas correctement : on peut dire que la « qualité » de cette chaîne (son rendement de production) est
97 % (3 % de défauts).
Une fois ces circuits insérés dans un système, on constate que leur temps moyen de fonctionnement avant
défaillance (MTTF, pour « mean-time to failure ») est de 100 000 heures. C’est une indication de leur fiabilité.
Si les pannes ne sont pas prévisibles et surviennent de façon totalement aléatoire, le nombre de défaillances sur
une durée donnée dépend uniquement du nombre de circuits. Le taux de défaillance λ — nombre de pannes
par unité de temps est constant. La loi de fiabilité est, dans ce cas, exponentielle. En effet, chaque défaillance
diminue l’effectif, et par conséquent la probabilité d’assister à une défaillance dans la prochaine unité de temps.
La loi de fiabilité s’écrit :
R(t) = e-λt
Le temps moyen avant défaillance se déduit de cette fonction exponentielle.
MTTF = 1/λ.
Et réciproquement, λ est l’inverse du temps moyen avant défaillance.
Dans le cas d’une loi exponentielle, quelle que soit la durée de bon fonctionnement déjà accomplie, à tout
instant la probabilité de panne d’un circuit entre l’instant t et l’instant (t + dt) reste constante, et égale à
dt/MTTF (propriété essentielle de la distribution exponentielle).
On constate que, quel que soit le MTTF :

11
• pour t = 0, la fiabilité vaut toujours 1 : aucun système n’est défaillant à la mise en service ;
• pour t tendant vers l’infini, la fiabilité tend vers 0 : les systèmes ont une durée de vie limitée.

Remarque
La baisse de la valeur de la fiabilité avec le temps ne doit pas être confondue avec un phénomène d’usure. Il
s’agit simplement du fait que tout système finit par avoir une défaillance.

12
2-La fiabilité et probabilité

La notion de fiabilité n’est pas déterministe, c’est-à-dire que Les prédictions de fiabilité ont
nécessairement un caractère probabiliste, car elles nécessitent la connaissance du taux de panne de
chaque composant. Ces taux de panne étant obtenus sur des échantillons forcément limités en taille,
leur valeur est gouvernée par les lois de la statistique (intervalles de confiance). La théorie
mathématique de la fiabilité consiste donc en une application particulière de la théorie des
probabilités aux problèmes de durée de fonctionnement sans incidents.
L’approximation la plus courante, surtout en électronique, consiste à supposer la distribution
exponentielle des pannes des composants, en particulier, celle qui permet d’additionner les taux de
panne pour les sous- ensembles non-redondants. La fiabilité et la disponibilité des groupements
redondants de sous-ensembles non- redondants peuvent ensuite être calculées à l’aide des processus
de Markov. La méthode de prévision de la fiabilité des systèmes électroniques nommée FIDES en est
l’exemple concret.

1-2) étude probabiliste :

On désigne par R(t) la fiabilité d’un composant qui présente la probabilité qu’il fonctionne sans
défaillance pendant un intervalle de temps [0, 𝑡]. On peut aussi définir la fonction de défaillance F(t)
comme étant la probabilité qu’il y ait au moins une défaillance dans l’intervalle de temps [0,t], tel que :
R(t) = 1 – F(t)
Ou encore :
𝑡
𝑅(𝑡) = 1 − ∫ 𝑓(𝑡′)𝑑𝑡′
0

= ∫ 𝑓(𝑡′)𝑑𝑡′
𝑡

De cette dernière équation on peut avoir la P.D.F (probabilité de défaillance) :


𝑓(𝑡)= -𝑑R(t)/𝑑t
13
On désigne par 𝜆(𝑡) le taux de défaillance instantané d’un composant. Ceci présente la probabilité
ramenée à l’unité de temps que le composant tombe en panne entre l’instant t et (t+dt),tout en sachant qu’il
fonctionnait correctement à l’instant t :

𝑅(𝑡) – 𝑅(𝑡+𝑑𝑡) 𝑑
𝜆(𝑡)𝑑𝑡 = =− 𝑅(𝑡)
𝑅(𝑡) 𝑅(𝑡)
(Eq.1)
On trouve à la fin
que : 𝑓(𝑡)
𝜆(𝑡) =
𝑅(𝑡)
(Eq.2)
Généralement les composants sont caractérisés par leur taux de défaillance instantané. Donc il est
préférable d’exprimer la fiabilité en fonction de 𝜆(𝑡) :
Si on intègre l’équation (Eq.1) On obtient :
𝑡
∫ 𝜆(𝑡′)𝑑𝑡′ = −ln[𝑅(𝑡)]
0

(Eq.3)
Ou encore :
𝑡
𝑅(𝑡) = exp[ − ∫ 𝜆(𝑡′)𝑑𝑡′]
0

(Eq.4)

14
et pour obtenir la P.D.F on remplace l’équation (Eq.4) dans l’équation (Eq.2) :
𝑡
𝑓(𝑡) = 𝜆(𝑡). Exp[ − ∫ 𝜆(𝑡′)𝑑𝑡′]
0

On définit aussi le temps moyen de fonctionnement avant la première défaillance M.T.T.F ( Mean Time To
Failure) par :

𝑀𝑇𝑇𝐹 = ∫ 𝑅(𝑡)𝑑𝑡
0

Normalement lorsqu’un système tombe en panne ceci engendre une opération de réparation. Si le
dispositif n’est pas réparable, les notions de fiabilité et de défaillance caractérisent bien le dispositif, car la
panne met fin à la vie du dispositif. Mais si ce dernier est réparable alors d’autres notions complémentaires
entrent en jeux pour caractériser les périodes de bon fonctionnement, de réparation et de disponibilité.
Alors si le dispositif est réparable, la durée de la réparation est variable en fonction de la panne et des
ressources mise en œuvre. Ceci nous amène à définir la fonction G(t) qui est la probabilité que le dispositif ne
soit pas réparé dans un intervalle de temps [0,t]. D’une façon complémentaire on définit la maintenabilité M(t)
comme étant la probabilité que le dispositif soit réparé entre l’instant 0 et l’instant t.
Donc on peut écrire :

𝑀(𝑡) = 1 – 𝐺(𝑡)
Par analogie avec la fiabilité, on définit 𝜇(𝑡)comme étant la probabilité ramenée à l’unité
de temps qu’un dispositif sachant qu’il est en panne soit réparé entre l’instant 𝑡 𝑒𝑡 (𝑡 +
𝑑𝑡), alors on a :
𝐺(𝑡) – 𝐺(𝑡 + 𝑑𝑡) 𝑑
𝜇(𝑡) = = 𝑀(𝑡)
𝐺(𝑡) (1 – 𝑀(𝑡))𝑑𝑡
Ou encore :
𝑡
𝑀(𝑡) = 1 – exp[ ∫ 𝜇(𝑡′)𝑑𝑡′ ]
0

Et le temps de réparation moyen M.T.T.R :


∞ ∞
𝑀𝑇𝑇𝑅 = ∫ 𝐺(𝑡)𝑑𝑡 = ∫ (1 – 𝜇(𝑡))𝑑𝑡
0

Avec cela on peut parler maintenant de la disponibilité D d’un dispositif dont la forme générale s’écrit :
15
𝛴(𝑡𝑒𝑚𝑝𝑠 𝑑𝑒 𝑏𝑜𝑛 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑚𝑒𝑛𝑡)
𝐷=
𝑡𝑒𝑚𝑝𝑠 𝑡𝑜𝑡𝑎𝑙 𝑑′𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛

Alors, on définit D(t) comme étant la disponibilité instantanée d’un dispositif et qui représente la
probabilité que le dispositif soit opérationnel à un instant t indépendamment de ses états antérieurs.
Sur un intervalle de temps [t1, t2], on définit la disponibilité moyenne D(t1,t2) comme étant la moyenne
de D(t) qui est égale :
1 𝑡2
𝐷(𝑡1, 𝑡2) = ∫ 𝐷(𝑡)𝑑𝑡
𝑡2 − 𝑡1 𝑡1
La valeur limite de la disponibilité instantanée est la disponibilité stationnaire D qui est égale :
1 𝑇
𝐷 = lim ( ∫ 𝐷(𝑡)𝑑𝑡 )
𝑇−>∞ 𝑇 0

La disponibilité est un facteur important dans les systèmes relativement complexes qui demande un
fonctionnement continu et fiable. Car dans les systèmes de contrôle (ex : centrale nucléaire), une haute fiabilité
n’est pas suffisante pour assurer la disponibilité du système, mais il est aussi nécessaire d’assurer une réparation
rapide et une maintenance planifiée rapide, sans fermer le système si possible.
Pour expliquer d’une manière générale la courbe en baignoire (voir plus haut), pour cela l’équation de la
fiabilité (Eq.4) sera simplifiée avec le taux constant pour donner :
𝑅(𝑡) = 𝑒−𝜆(𝑡)
Avec un P.D.F qui est égal :

16
𝑓(𝑡) = 𝜆 𝑒−𝜆(𝑡)
Cette fiabilité obéit à une loi exponentielle avec une moyenne de temps de
bon Fonctionnement :
∞ 1
𝑀𝑇𝑇𝐹 = ∫ 𝑒−𝜆(𝑡)=
𝜆
Souvent, on suppose que le taux de réparation d’un dispositif est constant et la
maintenabilité est exprimée par :
𝑀(𝑡) = 1 – 𝑒𝜇(𝑡)
Avec un temps moyen de réparation :
∞ 1
𝑀𝑇𝑇𝑅 = ∫ 𝑒𝜇(𝑡) 𝑑𝑡 =
𝜇
L’expression de la disponibilité stationnaire devient :
𝜇
𝐷=
𝜇+𝜆
Cette loi exponentielle n’est qu’un cas particulier de la loi de Weibull. En effet la loi de Weibull est la
distribution la plus utilisée dans le calcul de la fiabilité, car elle permet d’obtenir un modèle mieux ajusté aux
résultats lorsque le taux de défaillance instantané 𝜆 (t)n’est plus constant.
Pour la distribution de Weibull, le taux de défaillance à deux paramètres est exprimé comme suit :
𝜆(t)= (𝑚/𝜃)(𝑡/𝜃)^(m-1)

Le PDF est :

f(t)= 𝜆(t)*exp(-(𝑡/𝜃)^(m-1)

1
Avec m=1 et = , on obtient l’expression de la loi exponentielle avec un taux de défaillance constant, On
𝜆

peut aussi se servir de la loi de Weibull pour modéliser les trois phases de la courbe en baignoire :
la zone 1 : période de mortalité infantile avec m <1.
la zone 2 : période de maturité avec m=1.
la zone 3 : période de sénilité avec m>1.
Il est à noter aussi que la distribution de Gauss peut être bien représentative de la troisième zone de la
courbe en baignoire, soit la période d’usure.

17
L’expression de la fiabilité
est : 𝑡 (𝜏 – 𝑚)2
𝑅(𝑡) =1− ∫ exp[− ] 𝑑𝜏
𝜎√2𝜋 −∞ 2𝜎2
Où :
m est la moyenne et 𝜎2est la variance avec un temps moyen avant panne, MTTF=m.

Fiabilité et conception
Le développement d’un produit procède à partir d’une idée, d’un besoin identifié ou tout simplement d’une
opportunité d’affaires. Les caractéristiques fonctionnelles sont généralement consignées dans un cahier des
charges. Le concepteur fait ensuite appelle à son savoir-faire pour générer des solutions qui répondent aux
spécifications de cahier des charges. La validation de certaines caractéristiques passe par le développement
d’un prototype physique et par une batterie de tests. Pour certaines caractéristiques, telle que la fiabilité,
qui s’exprime par la probabilité que le produit réalise la fonction pour laquelle il a été conçu dans des
conditions données et dans un intervalle de temps donné, le processus de validation peut nécessiter un
nombre important de prototypes physiques pour affirmer que la caractéristique est satisfaite avec un niveau
de confiance donné. Le processus de validation peut se révéler coûteux et matériellement non réalisable
pour un programme de mise en marché du produit. Ce mémoire propose une démarche et des outils qui
permettent au concepteur de comprendre les mécanismes de défaillance des composants du produit, afin
de réduire leur impact sur la tenue de ce dernier et enfin d’évaluer la probabilité de défaillance ou du bon
fonctionnement.

I- Mécanismes de défaillance et nature de défauts :


Avant d’exposer les mécanismes de défaillances, il est important de connaitre l’origine de ces défaillances,
c’est ce qu’on l’appelle les « mécanismes ou sources de défaillances »
Les mécanismes de défaillances d’un circuit peuvent être relatifs à deux choses : Défaillances dus au
processus de fabrication.
Défaillances relatifs à l’utilisation
On peut trouver Les défaillances d’un circuit intégrer à l’aide d’ensembles test
le Test d’un circuit consiste à mettre en évidence son éventuel mauvais fonctionnement dû à une ou
plusieurs défaillances physiques.

18
Tests effectués aux différents stades de vie d’un circuit

Défaillance physique en technologie CMOS :

Mécanismes de défaillance :
➼ Défauts des wafers (contamination, …)

➼ Facteurs humains (pollution, …)

➼impact de l’environnement (poussières, …)

➼ Instabilité du process de fabrication (T°, …)

Ces mécanismes engendrent des défauts de fabrication

➼ Défauts globaux (désalignement de masques, …)

➼ Défauts locaux (rupture totale ou partielle d’interconnexions, court-circuit entre niveaux de masques
(métal-métal, métal diffusion, ...), …)

➼ Défauts paramétriques (retards, …)

Localisation des défaillances dans les circuits intégrer :


La localisation de défauts dans les circuits intégrés est une des étapes les plus difficiles de l’analyse de
défaillance. Cette analyse de défaillance consiste à déterminer l’origine et les mécanismes de défaillance, de
savoir s’il s’agit d’un problème lié à une mauvaise utilisation du circuit (fausse manœuvre d’un opérateur,
environnement électrique mal adapté) ou d’un problème intrinsèque au circuit. Cette analyse, au niveau des
circuits intégrés, se réalise selon trois étapes distinctes : le diagnostic électrique, la localisation de défauts et
leur analyse physico-chimique lorsqu’il s’agit d’un défaut « matériel » ou leur analyse électrique fine pour des
défauts de conception.
19
Figure 2.localisation et mécanismes de défaillances dans un circuit intégré

Sources de défauts de fabrication :

Les défauts de fabrication qui peuvent avoir lieu dans un procédé CMOS sont dus à diverses sources
notamment :
1/Erreurs humaines :
Une partie d’un métal peut être discontinue provoquant un circuit ouvert
- Les dopants peuvent ne pas être diffusés avec la bonne concentration (non uniformité) ou aux zones
appropriées altérant ainsi les caractéristiques des dispositifs ;
- Mauvais alignement des masques ou contamination de ces derniers avec des particules de poussières,
cheveux
2/Imperfection des matériaux
- Les contacts et les vias résistifs
- Deux fils métalliques séparés peuvent être court –circuits
- Imperfection et claquage de la couche SiO2 peuvent causer une augmentation du bruit de la tension ou du
courant ;
- Défauts d’oxyde de grille et défauts dans les couches d’interconnexion
3/Équipement défectueux
4/ Fluctuation de l’environnement de fabrication
- Température

20
Nature de défauts des circuits imprimés

Il existe divers types de défaillances physiques «défauts de fabrication » dans les circuits intégrés. Suivant la
nature du défaut pouvant être statique ou dynamique et de ses paramètres, résistifs et capacitif le circuit va
avoir un comportement différent
On peut attribuer la définition d’une défaillance aux pannes physiques qui affectent le layout d’un circuit.
Fautes ou pannes : représentation des défauts au niveau logique selon un modèle de fautes

Répartition des défauts de fabrication


Pour bien définir un comportement bien défini des défauts de fabrication, des lois ou bien des modèles
mathématiques sont dédiés à ça. On peut parler donc de deux lois qui sont empiriques à savoir :
- la loi de Poisson : ou la loi des évènements rares utilisé depuis longtemps en micro-électronique pour bien
estimer le nombre et la répartition des défauts.
- la loi binomiale négative : Cette loi peut aider à donner une estimation sur la concentration des défauts à
certains endroits du circuit.

La loi de POISSON :

Elle s’applique sur des grandes surfaces de Silicium, en utilisant deux paramètres k et 𝛌. Son équation
mathématique se représente par :
𝜆𝑘
𝑝{𝑋 = 𝑘} =𝑒−𝜆
𝑘!
Avec :

p{X=k} : probabilité que la structure ait k défauts de fabrication


𝜆=n.p : correspond au nombre moyen de défauts de fabrication où n est le nombre de portes

logique (transistors) et p est la probabilité moyenne qu’un transistor soit défectueux.

Les figures suivantes représentent deux exemples de répartition de défauts dans des circuits intégrés par
le diagramme en bâton de la loi de Poisson.

21
.

Figure 8.loi de Poisson pour λ=1

Figure 9.loi de Poisson pour λ=5

22
Nous constatons sur la figure (8), que pour 𝜆 = 1, la probabilité qu’il ait 0 ou 1 défaut et la même
et égale à 36.78%. lorsque le paramètre 𝜆 = 5 , comme la figure(9) le montre, on remarque que le
diagramme se rapproche à une distribution qui suit la loi normale d’espérance et de variance qui égale
à 𝜆 , ce qui peut faciliter les tâches et de travailler avec la loi normale que celle du Poisson.

Lois binomiales négatives :

Cette loi s’applique sur des blocs de Silicium, son équation est définie comme suit :
𝜆𝑘
𝛤(𝛼 + 𝑘) 𝛼
𝑝{𝑋 = 𝑘} = × 𝜆𝑘−𝛼
𝛤(𝛼)𝑘 ! 1+
𝛼

Avec :
- 𝜆 : est le même que la loi de Poisson
-𝛼 : est le paramètre de partitionnement de défauts 𝛼 ∈ ⌊0.5,10⌋
-𝛤 : la fonction « gamma » (n+1) = n 𝛤(n) = n ! , lorsque n est entier
Le tableau (1) présente l’impact du paramètre𝛼 sur les fréquences de répartitions de défauts.
Plus 𝛼 est petit, plus la probabilité qu’il n’y ait aucun défaut de fabrication est importante.

Tableau 1.Répartition du nombre de défauts par loi binomiale négative avec λ=5

Nombre de 0 1 2 3 4 5 6 7 8 9 10
défauts(k)

% qu’il y ait 30.15 13.71 9.34 7.08 5.63 4.61 3.84 3.24 2.76 2.37 2.05
k défauts
𝛼 = 0.5
% qu’il y ait 5.27 9.89 12.36 12.87 12.07 10.56 8.80 7.07 5.53 4.22 3.17
k défauts
𝛼 =3
% qu’il y ait 1.73 5.78 10.60 14.13 15.31 14.29 11.91 9.07 6.43 4.28 2.71
k défauts
𝛼 = 10
% qu’il y ait 0.85 3.87 8.98 14.14 17.04 16.73 13.94 10.14 6.57 3.85 2.06
k défauts
𝛼→∞

23
Les fréquences d’apparition de défauts dans certains circuits intégrés sont données dans les tableaux 2 et 3 :
Tableau 2.Répartition des défectuosités dans les circuits NMOS

Tableau 3. Classification des défauts graves pour les transistors MOS

.
𝑅𝑖(𝑡) : Probabilité que le i-ème élément du système ne tombe en panne avant le temps t.
la distribution exponentielle pour la défaillance des systèmes

II- Méthodologie de conception pour augmenter la fiabilité :


La fabrication d’un circuit fiable passe par l’utilisation d’une succession d’étapes et méthodologies
conceptuelles et structurelles qui peuvent être classées ainsi :
-Prévention des fautes : empêcher l’occurrence ou l’introduction de défauts lors de la fabrication
- tolérance aux fautes : assuré par redondance, la continuité du service conduisant à la fiabilité du circuit en
dépit de défauts.
- élimination de fautes : réduire la présence des défauts.
- Prévision de fautes : estimer la présence, le taux futur et les possibles conséquences des défauts .

24
Partie2 : Notions du rendement

I- Introduction

II- Définition et importance

III- Métrologie

IV- Modélisation fonctionnelle du rendement

V- Solution pour améliorer le rendement

25
I- Introduction
Les procédés de fabrication des circuits semi conducteurs VLSI sont une succession d’étapes de
photolithographie et de dopage ….
Le très faible dimension des motifs conçus actuellement entraine un accroissement de la sensibilité aux
défauts induits par :
-> Des dépôts de particules
-> Un désalignement des masques
->des défauts cristallins

II- Définition et importance


On peut donner une définition au rendement par : « Le rendement est simplement le
pourcentage de «bon» produit Dans un lot de production »
𝑁𝑔
𝑌=
𝑁𝑡𝑜𝑡𝑎𝑙
Avec :
Y :le rendement d’une fabrication(Yeild)
Ng : le nombre des bonnes puces
Ntotal : le nombre total des puces fabriquées.

𝜋(𝑅 − √𝐴)²
𝑁𝑡𝑜𝑡𝑎𝑙=
𝐴

26
A : surface d’une matrice
R : le rayon du substrat

La production des IC souffre de la routine Et la variabilité assignable comme :


• Erreurs humaines.
• pannes d’équipement :
➢ Traitement des instabilités
➢ Non-uniformités matérielles
➢ non-homogénéité des substrats
➢ Taches lithographiques......
La variabilité du processus provoque des déformations. Ces derniers ont des composantes
aléatoires, soit globales et / ou Local, et qui peut être indépendant ou interactives :
➢ Géométrique
° Latéral
° Vertical

➢ Electrique
° Global
° Local
Déformations de la conception idéale :

Figure 10.figure montrant les variations entre la conception(gauche) et réalisation(droite)

27
On constate que Les déformations provoquent des défaillances :
➢ Défauts structurels
➢ Défauts de performance
➢ Défauts de performances souples

➢ Défauts de performances cruciales Les défauts ont un impact sur le Rendement que ca

soit dans la conception ou bien la fabrication :

Rendement de la Rendement de la
conception : fabrication :

-fonctionnelle -substrat : test finaux...

-paramétrique -utilisation des


équipements

28
III- Métrologie :
Rendement paramétrique c’est quoi ?
✓ Lorsque les dispositifs (transistors) n’ont pas la taille exacte pour laquelle ils ont été conçus.
✓ Lorsque l’interconnexion (câblage) n’a pas les valeurs exactes (Ohms / μm, Farads /
μm2, etc.) que le concepteur attendait.
✓ Lorsque différentes structures (couches diffusées, trous de contact et vias, etc.) ne sont
pas exactement correctes,
Le circuit peut fonctionner, mais avec des performances (vitesse, consommation d’énergie,
gain, rejet de mode commun, etc.)Inattendue.

IV- Modélisation fonctionnelle du rendement


Les modèles précoces

Utilisé pour les composants discrets par Wallmark, 1960.


𝑆
𝑌 = (1 – )𝑁
100
Avec : N nombre total des puces
S : les défaillances dans un lot
𝑌 = 𝑒−𝑁𝐴𝐺𝐷

Présenté par Hofstein et Heiman En 1963. Dépend de la surface de grille AG.

Modèles de rendement de Poisson et Murphy

29
Modèles de rendement des composants

Il est entendu que les CI étant traités par étapes, des pertes de rendement se produisent également à
chaque couche. On peut en outre supposer que les types de défauts sont Indépendants les uns des autres

Ou, pour simplifier l’ajustement de modèle, une approximation est faite :

30
La «modélisation» du rendement désigne les modèles agrégés pour une technologie et des
règles de conception (λ). L’objectif de la «Simulation» du rendement est de prédire le rendement
fonctionnel d’une disposition donnée, spécifique, fabriquée dans une ligne connue.
✓ Besoin de connaître la taille des défauts et les distributions spatiales.
✓ Il Doit tenir compte des masques spécifiques, une couche à la fois.

V- Solution pour améliorer le rendement :

La performance ou la précision de la plupart des circuits analogiques, est normalement fondé sur
le haut degré de similitude (« matching ») obtenu entre composants de caractéristiques identiques.
Pour une technologie donnée, le matching entre les composants critiques peut être amélioré, même à
de hautes températures, en appliquant les règles d’implémentation suivantes :
✓ Les dispositifs doivent avoir la même structure. Par exemple, un diviseur résistif R1/(R1+R2)doit
• être implémenté par le courant de fuite du drain du NMOS, car leurs variations selon la
température sont très différentes.
✓ Les dispositifs doivent avoir la même température. Minimiser la distance entre les
dispositifs suffit dans les cas où il n’y a pas de forte dissipation thermique, du fait de la bonne
conductivité thermique du silicium. Sinon, les dispositifs doivent être placés sur le même isotherme,
c’est à dire, de façon symétrique par rapport au point de dissipation de chaleur.
✓ Les dispositifs doivent avoir la même forme et la même taille. Par exemple, dans le cas
des transistors MOS, les valeurs de W et L doivent être les mêmes, et la surface et le périmètre des
diffusions (du drain et de la source) doivent aussi être identiques afin d’obtenir des courants de fuite
similaires, correspondants aux côtés et aux fonds des jonctions.

• avec deux résistances de même nature, d’une part pour assurer que les erreurs de déposition,
dopage et gravure soient les mêmes pour R1 que pour R2, et d’autre part pour que l’évolution en
température soit la même pour les deux résistances. De même, dans un inverseur CMOS, le courant
de fuite dans le drain du PMOS ne peut pas être compensé
✓ La distance entre les dispositifs doit être minimisée. Localement les variations des
paramètres et de la température sont moins importantes qu’entre des points très distants.
31
✓ Utilisation des structures avec le même centre géométrique. Les gradients spatiaux, des
paramètres et de la température, mentionnés peuvent être localement considérés comme constants. Par
conséquent, l’influence de ces variations linéaires est négligeable dans le cas des structures identiques qui ont le

centre géométrique en commun. Les paires de transistors ou de capacités, formées par quatre éléments
disposés en diagonale, deux à deux, autour du centre géométrique, constituent un bon exemple.
✓ Les dispositifs doivent être placés selon la même orientation. De cette façon,
l’anisotropie de certains phénomènes, comme la mobilité des porteurs, est évitée. Ainsi, les courants
drain-source des transistors MOS doivent être strictement parallèles.
✓ Les dispositifs doivent être entourés par les mêmes structures. Cela améliore
l’uniformité des procédés de déposition et de gravure.
✓ Ne pas utiliser des tailles minimales. C’est la meilleure manière de réduire l’influence
des erreurs de gravure et d’améliorer le moyennement spatial des par amètresnon-uniformes.
Les courants de fuite dans les jonctions pn affectent le comportement des composants actifs
d’une manière incontournable, du fait du rôle actif de ces jonctions dans le fonctionnement du
dispositif ou comme isolant. Le concepteur de circuits intégrés, ne pouvant pas modifier les
caractéristiques de ces jonctions, il a seulement la possibilité d’identifier les jonctions critiques et de
réduire au minimum la surface de ces jonctions.
✓ Drain des transistors NMOS et PMOS : Les courants de fuite dans la jonction du drain
augmentent exponentiellement avec la température, et entrent en concurrence avec le courant
drain-source. La taille de cette jonction peut être pratiquement divisée par deux en modifiant la
manière dont le transistor est dessiné (voir Figure). De même, la connexion en s.rie ou en parallèle de

deux transistors MOS doit être implémenté en partageant les diffusions, du drain ou de la source.

Figure 11.

32
Conclusion

L'étude de la fiabilité d'un système électronique doit être un élément


essentiel dès le début d'une phase de conception et ne prend en compte ni
les erreurs de jeunesse, ni la fin de vie des composants. Les défaillances des
composants électroniques sont intrinsèques, mais une large partie des
défaillances vient de l'environnement climatique et électrique extérieur, du
choix des composants et du procédé de montage

33
Bibliographie :
[1]-integratedcircuitmanufacturing-institutefurphysik-universitéedeMunich
[2]-ETUDEDELAFIABILITEDESTECHNOLOGIESCMOSAVANCEES,DEPUISLA
CREATION DES DEFAUTS JUSQU'A LA DEGRADATION DES TRANSISTORS-THESE-Yoann
MAMY RANDRIAMIHAJA-2012
[3]-ÉTUDE DE FIABILITÉ D'UN DÉTECTEUR INTELLIGENT DES VAPEURS DE STYRÈNE-
thèse-JALEL CHABCHOUB-1998
[4]-CMOS ReliabilityOverview-Chapter 2-Analog IC Reliability in Nanometer CMOS-

Maricau, Elie, Gielen, Georges

[5]- FIABILITE DES TECHNOLOGIES CMOS FORTEMENT SUBMICRONIQUES (DSM)


POUR DES APPLICATIONS AVIONIQUES, SPATIALES ET MILITAIRES-thèse-Florian MOLIERE-
2011
[6]- ETUDE ET OPTIMISATION D’UNE FILIERETECHNOLOGIQUE FLEXIBLE
ADAPTEE AU MODE D’INTEGRATION FONCTIONNELLE-thèse-Eric Imbernon
[7]-Conception et Etude de la Fiabilitée des Amplificateurs de Puissance
Fonctionnant aux Fréquences Millimétriques en Technologies CMOS Avancées-thèse-Thomas
Quémerais
[8]-Mémoiredemagister,MlleAITABDELMALEKGhania«Etudeetmodélisation
des défauts des circuits intégrés en vue de leur analyse de fiabilité».
[9]- Special Issues inSemiconductorManufacturing -Costas J. Spanos

[10]- https://docplayer.fr/2549133-Etude-et-modelisation-des-defauts-des-circuits-
integres-en-vue-de-leur-analyse-de-
fiabilite.html?fbclid=IwAR13LLoSvxCdjwtlWyJZSQH78oY8xCbOMGIUf-
dUfMkYqLEi7qedGzz0I48
[11]- https://fr.wikipedia.org/wiki/Circuit_int%C3%A9gr%C3%A9

34

Vous aimerez peut-être aussi