Académique Documents
Professionnel Documents
Culture Documents
C’est avec notre enthousiasme le plus vif et le plus sincère que nous
Voudrions rendre mérite à tous ceux qui à leur manière nous ont aidé à
mener à bien ce rapport
3
SOMMAIRE :
I-Introduction .................................................................................................................... 6
4
Partie2 : Notions du rendement
I-Introduction .................................................................................................................. 26
Bibliographie .................................................................................................................. 58
5
INTRODUCTION
GENERALE
6
Partie 1 : étude de la fiabilité
I- Introduction
II- Définitions
7
8
I- Introduction
L’entrée de la technologie CMOS dans les dimensions nanométriques résulte de l’évolution prévue pour les circuits
intégrés, déterminée par l’industrie des semi-conducteurs d’après les feuilles de route établies selon la loi de
Moore. Pourtant, la production des circuits nanométriques présente des défis de plus en plus critiques, qui
demandent des efforts considérables de la communauté scientifique. Ces défis sont liés à des limitations d’ordre
physique, économique et technologique, et se traduisent en un changement du comportement des structures
fortement intégrées et en une difficulté pour les fabriquer avec la précision nécessaire. La majorité des problèmes
associés à la réduction des structures CMOS amène à une réduction du rendement de fabrication et de la fiabilité
d’opération des circuits. Les technologies émergentes, conçues pour étendre, complémenter, voire substituer la
technologie CMOS, seront très sensibles aux variations paramétriques des composants et aux défauts de
fabrication. La fiabilité d’opération des circuits reste un problème critique, pour lequel les solutions proposées font
appel aux techniques de tolérance aux pannes. Selon quelques études, la probabilité d’occurrence des fautes
transitoires dans les systèmes nanométriques montera au fur et à mesure de l’augmentation de densité des
composants intégrés, atteignant le même niveau observé dans les mémoires, où les fautes transitoires sont plus
facilement traitées
II- Définition
La fiabilité est l’aptitude d’un dispositif à accomplir une fonction requise, dans des conditions données d’utilisation
et de maintenance, pendant une durée donnée.
Les activités de maintenance sont donc étroitement liées aux caractéristiques de « fiabilité » des
équipements/produits.
On dit d’un système, d’un équipement ou d’un produit qu’il est fiable lorsque la probabilité qu’il accomplisse ses
fonctions prévues sur une durée donnée correspond à celle spécifiée au cahier des charges.
La fiabilité d’un système, d’un équipement ou d’un produit caractérise son aptitude à fonctionner sans défaillance.
C’est une composante de la qualité qui fait intervenir le temps. Elle ne peut être vérifiée avec certitude à réception.
La théorie de la fiabilité sert à étudier l’aptitude de systèmes à fonctionner correctement durant une période
donnée. Un dispositif peut se trouver dans l’un des deux ´états suivants : I’ Apte à fonctionner correctement, c’est-
à-dire en état de service. Inapte à fonctionner correctement, c’est-à-dire en panne ou hors-service. Nous posons les
hypothèses suivantes : I Au départ, chaque dispositif est en état de service. I Les défaillances se produisent
généralement de façon aléatoire.
Nous définissons la fiabilité d’un dispositif pour une durée donnée comme étant la probabilité qu’aucune
défaillance ne se produise pendant cette durée.
9
Figure 1.Courbe en baignoire du taux de défaillance en fonction du temps
En ingénierie la courbe en baignoire est une représentation classique de la probabilité d’incidents pour des
équipements ou des systèmes1. La courbe en baignoire est la somme de trois composantes :
• une courbe des incidents aléatoires qui est indépendante de l’âge du système ;
• une courbe des incidents liés au rodage du système, qui commence à un niveau élevé puis décroit avec le
temps ;
• une courbe des incidents liés au vieillissement du système qui débute à des niveaux faibles mais croît de façon
continue avec le temps.
Dans le cas des composants électroniques, la partie centrale de la courbe bleue, notée « période productive », est
très plate et très étendue ; on parle de « lambda constants » (la lettre grecque λ désignant le taux de défaillance).
Dans les cas des systèmes mécaniques, en raison de l’usure, la courbe bleue ne présente pas de partie plate et
remonte dès la fin de la période de rodage
10
La loi de fiabilité
La préoccupation principale de la fiabilité est de prédire la probabilité d’occurrence d’une défaillance d’un système
(panne). Ceci se fait en établissant une loi de fiabilité.
1- Fiabilité et qualité
L’Union technique de l’électricité (UTE), sur recommandation de la Commission électrotechnique
internationale, a proposé la définition suivante :
- La fiabilité est l’aptitude d’un dispositif à accomplir une fonction requise dans des conditions données pour une
période de temps donnée.
-La fiabilité est la probabilité de n’avoir aucune défaillance pendant la durée t. Comprise entre 0 et 1 (ou 0 et
100 %), elle est notée R(t) (R pour Reliability, fiabilité en anglais).
Il ne faut pas confondre la fiabilité (fonction du temps) et le contrôle de qualité (fonction statique).
Exemple :
0n teste des circuits intégrés au sortir de la chaîne de production, et on constate que 3 % d’entre eux ne
fonctionnent pas correctement : on peut dire que la « qualité » de cette chaîne (son rendement de production) est
97 % (3 % de défauts).
Une fois ces circuits insérés dans un système, on constate que leur temps moyen de fonctionnement avant
défaillance (MTTF, pour « mean-time to failure ») est de 100 000 heures. C’est une indication de leur fiabilité.
Si les pannes ne sont pas prévisibles et surviennent de façon totalement aléatoire, le nombre de défaillances sur
une durée donnée dépend uniquement du nombre de circuits. Le taux de défaillance λ — nombre de pannes
par unité de temps est constant. La loi de fiabilité est, dans ce cas, exponentielle. En effet, chaque défaillance
diminue l’effectif, et par conséquent la probabilité d’assister à une défaillance dans la prochaine unité de temps.
La loi de fiabilité s’écrit :
R(t) = e-λt
Le temps moyen avant défaillance se déduit de cette fonction exponentielle.
MTTF = 1/λ.
Et réciproquement, λ est l’inverse du temps moyen avant défaillance.
Dans le cas d’une loi exponentielle, quelle que soit la durée de bon fonctionnement déjà accomplie, à tout
instant la probabilité de panne d’un circuit entre l’instant t et l’instant (t + dt) reste constante, et égale à
dt/MTTF (propriété essentielle de la distribution exponentielle).
On constate que, quel que soit le MTTF :
11
• pour t = 0, la fiabilité vaut toujours 1 : aucun système n’est défaillant à la mise en service ;
• pour t tendant vers l’infini, la fiabilité tend vers 0 : les systèmes ont une durée de vie limitée.
Remarque
La baisse de la valeur de la fiabilité avec le temps ne doit pas être confondue avec un phénomène d’usure. Il
s’agit simplement du fait que tout système finit par avoir une défaillance.
12
2-La fiabilité et probabilité
La notion de fiabilité n’est pas déterministe, c’est-à-dire que Les prédictions de fiabilité ont
nécessairement un caractère probabiliste, car elles nécessitent la connaissance du taux de panne de
chaque composant. Ces taux de panne étant obtenus sur des échantillons forcément limités en taille,
leur valeur est gouvernée par les lois de la statistique (intervalles de confiance). La théorie
mathématique de la fiabilité consiste donc en une application particulière de la théorie des
probabilités aux problèmes de durée de fonctionnement sans incidents.
L’approximation la plus courante, surtout en électronique, consiste à supposer la distribution
exponentielle des pannes des composants, en particulier, celle qui permet d’additionner les taux de
panne pour les sous- ensembles non-redondants. La fiabilité et la disponibilité des groupements
redondants de sous-ensembles non- redondants peuvent ensuite être calculées à l’aide des processus
de Markov. La méthode de prévision de la fiabilité des systèmes électroniques nommée FIDES en est
l’exemple concret.
On désigne par R(t) la fiabilité d’un composant qui présente la probabilité qu’il fonctionne sans
défaillance pendant un intervalle de temps [0, 𝑡]. On peut aussi définir la fonction de défaillance F(t)
comme étant la probabilité qu’il y ait au moins une défaillance dans l’intervalle de temps [0,t], tel que :
R(t) = 1 – F(t)
Ou encore :
𝑡
𝑅(𝑡) = 1 − ∫ 𝑓(𝑡′)𝑑𝑡′
0
∞
= ∫ 𝑓(𝑡′)𝑑𝑡′
𝑡
𝑅(𝑡) – 𝑅(𝑡+𝑑𝑡) 𝑑
𝜆(𝑡)𝑑𝑡 = =− 𝑅(𝑡)
𝑅(𝑡) 𝑅(𝑡)
(Eq.1)
On trouve à la fin
que : 𝑓(𝑡)
𝜆(𝑡) =
𝑅(𝑡)
(Eq.2)
Généralement les composants sont caractérisés par leur taux de défaillance instantané. Donc il est
préférable d’exprimer la fiabilité en fonction de 𝜆(𝑡) :
Si on intègre l’équation (Eq.1) On obtient :
𝑡
∫ 𝜆(𝑡′)𝑑𝑡′ = −ln[𝑅(𝑡)]
0
(Eq.3)
Ou encore :
𝑡
𝑅(𝑡) = exp[ − ∫ 𝜆(𝑡′)𝑑𝑡′]
0
(Eq.4)
14
et pour obtenir la P.D.F on remplace l’équation (Eq.4) dans l’équation (Eq.2) :
𝑡
𝑓(𝑡) = 𝜆(𝑡). Exp[ − ∫ 𝜆(𝑡′)𝑑𝑡′]
0
On définit aussi le temps moyen de fonctionnement avant la première défaillance M.T.T.F ( Mean Time To
Failure) par :
∞
𝑀𝑇𝑇𝐹 = ∫ 𝑅(𝑡)𝑑𝑡
0
Normalement lorsqu’un système tombe en panne ceci engendre une opération de réparation. Si le
dispositif n’est pas réparable, les notions de fiabilité et de défaillance caractérisent bien le dispositif, car la
panne met fin à la vie du dispositif. Mais si ce dernier est réparable alors d’autres notions complémentaires
entrent en jeux pour caractériser les périodes de bon fonctionnement, de réparation et de disponibilité.
Alors si le dispositif est réparable, la durée de la réparation est variable en fonction de la panne et des
ressources mise en œuvre. Ceci nous amène à définir la fonction G(t) qui est la probabilité que le dispositif ne
soit pas réparé dans un intervalle de temps [0,t]. D’une façon complémentaire on définit la maintenabilité M(t)
comme étant la probabilité que le dispositif soit réparé entre l’instant 0 et l’instant t.
Donc on peut écrire :
𝑀(𝑡) = 1 – 𝐺(𝑡)
Par analogie avec la fiabilité, on définit 𝜇(𝑡)comme étant la probabilité ramenée à l’unité
de temps qu’un dispositif sachant qu’il est en panne soit réparé entre l’instant 𝑡 𝑒𝑡 (𝑡 +
𝑑𝑡), alors on a :
𝐺(𝑡) – 𝐺(𝑡 + 𝑑𝑡) 𝑑
𝜇(𝑡) = = 𝑀(𝑡)
𝐺(𝑡) (1 – 𝑀(𝑡))𝑑𝑡
Ou encore :
𝑡
𝑀(𝑡) = 1 – exp[ ∫ 𝜇(𝑡′)𝑑𝑡′ ]
0
Avec cela on peut parler maintenant de la disponibilité D d’un dispositif dont la forme générale s’écrit :
15
𝛴(𝑡𝑒𝑚𝑝𝑠 𝑑𝑒 𝑏𝑜𝑛 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑚𝑒𝑛𝑡)
𝐷=
𝑡𝑒𝑚𝑝𝑠 𝑡𝑜𝑡𝑎𝑙 𝑑′𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛
Alors, on définit D(t) comme étant la disponibilité instantanée d’un dispositif et qui représente la
probabilité que le dispositif soit opérationnel à un instant t indépendamment de ses états antérieurs.
Sur un intervalle de temps [t1, t2], on définit la disponibilité moyenne D(t1,t2) comme étant la moyenne
de D(t) qui est égale :
1 𝑡2
𝐷(𝑡1, 𝑡2) = ∫ 𝐷(𝑡)𝑑𝑡
𝑡2 − 𝑡1 𝑡1
La valeur limite de la disponibilité instantanée est la disponibilité stationnaire D qui est égale :
1 𝑇
𝐷 = lim ( ∫ 𝐷(𝑡)𝑑𝑡 )
𝑇−>∞ 𝑇 0
La disponibilité est un facteur important dans les systèmes relativement complexes qui demande un
fonctionnement continu et fiable. Car dans les systèmes de contrôle (ex : centrale nucléaire), une haute fiabilité
n’est pas suffisante pour assurer la disponibilité du système, mais il est aussi nécessaire d’assurer une réparation
rapide et une maintenance planifiée rapide, sans fermer le système si possible.
Pour expliquer d’une manière générale la courbe en baignoire (voir plus haut), pour cela l’équation de la
fiabilité (Eq.4) sera simplifiée avec le taux constant pour donner :
𝑅(𝑡) = 𝑒−𝜆(𝑡)
Avec un P.D.F qui est égal :
16
𝑓(𝑡) = 𝜆 𝑒−𝜆(𝑡)
Cette fiabilité obéit à une loi exponentielle avec une moyenne de temps de
bon Fonctionnement :
∞ 1
𝑀𝑇𝑇𝐹 = ∫ 𝑒−𝜆(𝑡)=
𝜆
Souvent, on suppose que le taux de réparation d’un dispositif est constant et la
maintenabilité est exprimée par :
𝑀(𝑡) = 1 – 𝑒𝜇(𝑡)
Avec un temps moyen de réparation :
∞ 1
𝑀𝑇𝑇𝑅 = ∫ 𝑒𝜇(𝑡) 𝑑𝑡 =
𝜇
L’expression de la disponibilité stationnaire devient :
𝜇
𝐷=
𝜇+𝜆
Cette loi exponentielle n’est qu’un cas particulier de la loi de Weibull. En effet la loi de Weibull est la
distribution la plus utilisée dans le calcul de la fiabilité, car elle permet d’obtenir un modèle mieux ajusté aux
résultats lorsque le taux de défaillance instantané 𝜆 (t)n’est plus constant.
Pour la distribution de Weibull, le taux de défaillance à deux paramètres est exprimé comme suit :
𝜆(t)= (𝑚/𝜃)(𝑡/𝜃)^(m-1)
Le PDF est :
f(t)= 𝜆(t)*exp(-(𝑡/𝜃)^(m-1)
1
Avec m=1 et = , on obtient l’expression de la loi exponentielle avec un taux de défaillance constant, On
𝜆
peut aussi se servir de la loi de Weibull pour modéliser les trois phases de la courbe en baignoire :
la zone 1 : période de mortalité infantile avec m <1.
la zone 2 : période de maturité avec m=1.
la zone 3 : période de sénilité avec m>1.
Il est à noter aussi que la distribution de Gauss peut être bien représentative de la troisième zone de la
courbe en baignoire, soit la période d’usure.
17
L’expression de la fiabilité
est : 𝑡 (𝜏 – 𝑚)2
𝑅(𝑡) =1− ∫ exp[− ] 𝑑𝜏
𝜎√2𝜋 −∞ 2𝜎2
Où :
m est la moyenne et 𝜎2est la variance avec un temps moyen avant panne, MTTF=m.
Fiabilité et conception
Le développement d’un produit procède à partir d’une idée, d’un besoin identifié ou tout simplement d’une
opportunité d’affaires. Les caractéristiques fonctionnelles sont généralement consignées dans un cahier des
charges. Le concepteur fait ensuite appelle à son savoir-faire pour générer des solutions qui répondent aux
spécifications de cahier des charges. La validation de certaines caractéristiques passe par le développement
d’un prototype physique et par une batterie de tests. Pour certaines caractéristiques, telle que la fiabilité,
qui s’exprime par la probabilité que le produit réalise la fonction pour laquelle il a été conçu dans des
conditions données et dans un intervalle de temps donné, le processus de validation peut nécessiter un
nombre important de prototypes physiques pour affirmer que la caractéristique est satisfaite avec un niveau
de confiance donné. Le processus de validation peut se révéler coûteux et matériellement non réalisable
pour un programme de mise en marché du produit. Ce mémoire propose une démarche et des outils qui
permettent au concepteur de comprendre les mécanismes de défaillance des composants du produit, afin
de réduire leur impact sur la tenue de ce dernier et enfin d’évaluer la probabilité de défaillance ou du bon
fonctionnement.
18
Tests effectués aux différents stades de vie d’un circuit
Mécanismes de défaillance :
➼ Défauts des wafers (contamination, …)
➼ Défauts locaux (rupture totale ou partielle d’interconnexions, court-circuit entre niveaux de masques
(métal-métal, métal diffusion, ...), …)
Les défauts de fabrication qui peuvent avoir lieu dans un procédé CMOS sont dus à diverses sources
notamment :
1/Erreurs humaines :
Une partie d’un métal peut être discontinue provoquant un circuit ouvert
- Les dopants peuvent ne pas être diffusés avec la bonne concentration (non uniformité) ou aux zones
appropriées altérant ainsi les caractéristiques des dispositifs ;
- Mauvais alignement des masques ou contamination de ces derniers avec des particules de poussières,
cheveux
2/Imperfection des matériaux
- Les contacts et les vias résistifs
- Deux fils métalliques séparés peuvent être court –circuits
- Imperfection et claquage de la couche SiO2 peuvent causer une augmentation du bruit de la tension ou du
courant ;
- Défauts d’oxyde de grille et défauts dans les couches d’interconnexion
3/Équipement défectueux
4/ Fluctuation de l’environnement de fabrication
- Température
20
Nature de défauts des circuits imprimés
Il existe divers types de défaillances physiques «défauts de fabrication » dans les circuits intégrés. Suivant la
nature du défaut pouvant être statique ou dynamique et de ses paramètres, résistifs et capacitif le circuit va
avoir un comportement différent
On peut attribuer la définition d’une défaillance aux pannes physiques qui affectent le layout d’un circuit.
Fautes ou pannes : représentation des défauts au niveau logique selon un modèle de fautes
La loi de POISSON :
Elle s’applique sur des grandes surfaces de Silicium, en utilisant deux paramètres k et 𝛌. Son équation
mathématique se représente par :
𝜆𝑘
𝑝{𝑋 = 𝑘} =𝑒−𝜆
𝑘!
Avec :
Les figures suivantes représentent deux exemples de répartition de défauts dans des circuits intégrés par
le diagramme en bâton de la loi de Poisson.
21
.
22
Nous constatons sur la figure (8), que pour 𝜆 = 1, la probabilité qu’il ait 0 ou 1 défaut et la même
et égale à 36.78%. lorsque le paramètre 𝜆 = 5 , comme la figure(9) le montre, on remarque que le
diagramme se rapproche à une distribution qui suit la loi normale d’espérance et de variance qui égale
à 𝜆 , ce qui peut faciliter les tâches et de travailler avec la loi normale que celle du Poisson.
Cette loi s’applique sur des blocs de Silicium, son équation est définie comme suit :
𝜆𝑘
𝛤(𝛼 + 𝑘) 𝛼
𝑝{𝑋 = 𝑘} = × 𝜆𝑘−𝛼
𝛤(𝛼)𝑘 ! 1+
𝛼
Avec :
- 𝜆 : est le même que la loi de Poisson
-𝛼 : est le paramètre de partitionnement de défauts 𝛼 ∈ ⌊0.5,10⌋
-𝛤 : la fonction « gamma » (n+1) = n 𝛤(n) = n ! , lorsque n est entier
Le tableau (1) présente l’impact du paramètre𝛼 sur les fréquences de répartitions de défauts.
Plus 𝛼 est petit, plus la probabilité qu’il n’y ait aucun défaut de fabrication est importante.
Tableau 1.Répartition du nombre de défauts par loi binomiale négative avec λ=5
Nombre de 0 1 2 3 4 5 6 7 8 9 10
défauts(k)
% qu’il y ait 30.15 13.71 9.34 7.08 5.63 4.61 3.84 3.24 2.76 2.37 2.05
k défauts
𝛼 = 0.5
% qu’il y ait 5.27 9.89 12.36 12.87 12.07 10.56 8.80 7.07 5.53 4.22 3.17
k défauts
𝛼 =3
% qu’il y ait 1.73 5.78 10.60 14.13 15.31 14.29 11.91 9.07 6.43 4.28 2.71
k défauts
𝛼 = 10
% qu’il y ait 0.85 3.87 8.98 14.14 17.04 16.73 13.94 10.14 6.57 3.85 2.06
k défauts
𝛼→∞
23
Les fréquences d’apparition de défauts dans certains circuits intégrés sont données dans les tableaux 2 et 3 :
Tableau 2.Répartition des défectuosités dans les circuits NMOS
.
𝑅𝑖(𝑡) : Probabilité que le i-ème élément du système ne tombe en panne avant le temps t.
la distribution exponentielle pour la défaillance des systèmes
24
Partie2 : Notions du rendement
I- Introduction
III- Métrologie
25
I- Introduction
Les procédés de fabrication des circuits semi conducteurs VLSI sont une succession d’étapes de
photolithographie et de dopage ….
Le très faible dimension des motifs conçus actuellement entraine un accroissement de la sensibilité aux
défauts induits par :
-> Des dépôts de particules
-> Un désalignement des masques
->des défauts cristallins
𝜋(𝑅 − √𝐴)²
𝑁𝑡𝑜𝑡𝑎𝑙=
𝐴
26
A : surface d’une matrice
R : le rayon du substrat
➢ Electrique
° Global
° Local
Déformations de la conception idéale :
27
On constate que Les déformations provoquent des défaillances :
➢ Défauts structurels
➢ Défauts de performance
➢ Défauts de performances souples
➢ Défauts de performances cruciales Les défauts ont un impact sur le Rendement que ca
Rendement de la Rendement de la
conception : fabrication :
28
III- Métrologie :
Rendement paramétrique c’est quoi ?
✓ Lorsque les dispositifs (transistors) n’ont pas la taille exacte pour laquelle ils ont été conçus.
✓ Lorsque l’interconnexion (câblage) n’a pas les valeurs exactes (Ohms / μm, Farads /
μm2, etc.) que le concepteur attendait.
✓ Lorsque différentes structures (couches diffusées, trous de contact et vias, etc.) ne sont
pas exactement correctes,
Le circuit peut fonctionner, mais avec des performances (vitesse, consommation d’énergie,
gain, rejet de mode commun, etc.)Inattendue.
29
Modèles de rendement des composants
Il est entendu que les CI étant traités par étapes, des pertes de rendement se produisent également à
chaque couche. On peut en outre supposer que les types de défauts sont Indépendants les uns des autres
30
La «modélisation» du rendement désigne les modèles agrégés pour une technologie et des
règles de conception (λ). L’objectif de la «Simulation» du rendement est de prédire le rendement
fonctionnel d’une disposition donnée, spécifique, fabriquée dans une ligne connue.
✓ Besoin de connaître la taille des défauts et les distributions spatiales.
✓ Il Doit tenir compte des masques spécifiques, une couche à la fois.
La performance ou la précision de la plupart des circuits analogiques, est normalement fondé sur
le haut degré de similitude (« matching ») obtenu entre composants de caractéristiques identiques.
Pour une technologie donnée, le matching entre les composants critiques peut être amélioré, même à
de hautes températures, en appliquant les règles d’implémentation suivantes :
✓ Les dispositifs doivent avoir la même structure. Par exemple, un diviseur résistif R1/(R1+R2)doit
• être implémenté par le courant de fuite du drain du NMOS, car leurs variations selon la
température sont très différentes.
✓ Les dispositifs doivent avoir la même température. Minimiser la distance entre les
dispositifs suffit dans les cas où il n’y a pas de forte dissipation thermique, du fait de la bonne
conductivité thermique du silicium. Sinon, les dispositifs doivent être placés sur le même isotherme,
c’est à dire, de façon symétrique par rapport au point de dissipation de chaleur.
✓ Les dispositifs doivent avoir la même forme et la même taille. Par exemple, dans le cas
des transistors MOS, les valeurs de W et L doivent être les mêmes, et la surface et le périmètre des
diffusions (du drain et de la source) doivent aussi être identiques afin d’obtenir des courants de fuite
similaires, correspondants aux côtés et aux fonds des jonctions.
• avec deux résistances de même nature, d’une part pour assurer que les erreurs de déposition,
dopage et gravure soient les mêmes pour R1 que pour R2, et d’autre part pour que l’évolution en
température soit la même pour les deux résistances. De même, dans un inverseur CMOS, le courant
de fuite dans le drain du PMOS ne peut pas être compensé
✓ La distance entre les dispositifs doit être minimisée. Localement les variations des
paramètres et de la température sont moins importantes qu’entre des points très distants.
31
✓ Utilisation des structures avec le même centre géométrique. Les gradients spatiaux, des
paramètres et de la température, mentionnés peuvent être localement considérés comme constants. Par
conséquent, l’influence de ces variations linéaires est négligeable dans le cas des structures identiques qui ont le
centre géométrique en commun. Les paires de transistors ou de capacités, formées par quatre éléments
disposés en diagonale, deux à deux, autour du centre géométrique, constituent un bon exemple.
✓ Les dispositifs doivent être placés selon la même orientation. De cette façon,
l’anisotropie de certains phénomènes, comme la mobilité des porteurs, est évitée. Ainsi, les courants
drain-source des transistors MOS doivent être strictement parallèles.
✓ Les dispositifs doivent être entourés par les mêmes structures. Cela améliore
l’uniformité des procédés de déposition et de gravure.
✓ Ne pas utiliser des tailles minimales. C’est la meilleure manière de réduire l’influence
des erreurs de gravure et d’améliorer le moyennement spatial des par amètresnon-uniformes.
Les courants de fuite dans les jonctions pn affectent le comportement des composants actifs
d’une manière incontournable, du fait du rôle actif de ces jonctions dans le fonctionnement du
dispositif ou comme isolant. Le concepteur de circuits intégrés, ne pouvant pas modifier les
caractéristiques de ces jonctions, il a seulement la possibilité d’identifier les jonctions critiques et de
réduire au minimum la surface de ces jonctions.
✓ Drain des transistors NMOS et PMOS : Les courants de fuite dans la jonction du drain
augmentent exponentiellement avec la température, et entrent en concurrence avec le courant
drain-source. La taille de cette jonction peut être pratiquement divisée par deux en modifiant la
manière dont le transistor est dessiné (voir Figure). De même, la connexion en s.rie ou en parallèle de
deux transistors MOS doit être implémenté en partageant les diffusions, du drain ou de la source.
Figure 11.
32
Conclusion
33
Bibliographie :
[1]-integratedcircuitmanufacturing-institutefurphysik-universitéedeMunich
[2]-ETUDEDELAFIABILITEDESTECHNOLOGIESCMOSAVANCEES,DEPUISLA
CREATION DES DEFAUTS JUSQU'A LA DEGRADATION DES TRANSISTORS-THESE-Yoann
MAMY RANDRIAMIHAJA-2012
[3]-ÉTUDE DE FIABILITÉ D'UN DÉTECTEUR INTELLIGENT DES VAPEURS DE STYRÈNE-
thèse-JALEL CHABCHOUB-1998
[4]-CMOS ReliabilityOverview-Chapter 2-Analog IC Reliability in Nanometer CMOS-
[10]- https://docplayer.fr/2549133-Etude-et-modelisation-des-defauts-des-circuits-
integres-en-vue-de-leur-analyse-de-
fiabilite.html?fbclid=IwAR13LLoSvxCdjwtlWyJZSQH78oY8xCbOMGIUf-
dUfMkYqLEi7qedGzz0I48
[11]- https://fr.wikipedia.org/wiki/Circuit_int%C3%A9gr%C3%A9
34