Vous êtes sur la page 1sur 9

Chapitre 2 : Evaluation de la situation actuelle

Maitriser un process signifie maitriser les variations de ce process au court du temps. En effet,
au cours de l’utilisation de ce process, de nombreux paramètres vont modifier son état (pH,
Température, Densité de courant, etc…). Cela va forcément avoir un impact sur la variabilité
du procédé. C’est pour cette raison d’ailleurs que l’on règle le process en fin de production
pour être le plus proche possible de la cible. Dans notre projet on va s'intéresser à l'unité
d'électrolyse qui est la plus sensible dans tout le processus .

Pour nous permettre de régler cette unité au juste nécessaire, on utilise les cartes de contrôle
qui permettent de suivre l’évolution d’un processus (l'évaluation des paramètres qui
influencent à l'unité d'électrolyse) au court du temps et de réagir si une déviation de la
dispersion est détectée.Pour mettre en œuvre ces cartes, il faut connaître tout d’abord la loi
que suit le caractère contrôlé (poids) qui est Généralement la loi normale.cad ces cartes
n'utilisent pas directement les données brutes. Elles sont basées sur des données normalisées

De même pour le calcul de la capabilité du procédé, les tests de normalité sont à l’origine de
ce calcul.

I. Test de normalité :

Vérifier la normalité des données continues est une étape cruciale avant la réalisation d'un test
d'hypothèse mettant en jeu une ou plusieurs variables continues. Il s'agit donc de s'assurer que
les variables continues sont distribuées selon la loi normale. Si cela est le cas, les tests
d'hypothèse classiques sont applicables. Si la condition de normalité est violée, il faudra
trouver une alternative dite "non paramétrique" au test d'hypothèse à réaliser

Il existe plusieurs tests pour affirmer la normalité d'une distribution. Tous ces tests ont en
commun d'avoir comme hypothèse nulle: La distribution empirique suit une loi
Gaussienne(normale) dans notre cas on va proposer trois tests pour tester la normalité d'un
échantillon :

1. Le test de Shapiro-Wilk

Un des tests permettant de vérifier la normalité de la variable x est le test de Shapiro-Wilk. Il


est applicable pour des échantillons allant jusqu'à 50 valeurs. Il utilise le rapport de deux
estimations de la variance. Dans le cas d'une variable normale, ces deux estimations
coïncident et le rapport est voisin de 1, alors que si la variable n'est pas normale le rapport est
plus petit que 1
Afin de vérifier visuellement si l'échantillon suit une loi normale, il est possible d'utiliser le
graphique P-P qui permet de comparer la fonction de répartition empirique d'un échantillon à
celle d'un échantillon distribué suivant une loi normale de même moyenne et même variance.
À l’aide du logiciel MINITAB, nous pouvons tester la normalité de nos échantillons en
utilisant le test de Shapiro – Wilks. La sortie du logiciel nous donne le graphe illustré sur la
figures ci-dessous :
Interprétation des résultats :

Nous voyons ici que la fonction de répartition empirique est moins proche de la bissectrice.
Le test de Shapiro-Wilk donne une probabilité de dépassement de 0.01 inférieure à 0.05, donc
l'hypothèse de normalité est donc rejetée.
2 . Le test de Kolmogorov-Smirnov
Le test de Kolmogorov-Smirnov permet de tester l'ajustement des données x à n'importe
quelle loi, dont la loi normale. Il est intéressant d'opter pour ce test plutôt que celui de
Shapiro-Wilk en cas de très grands échantillons. Ce test détermine si les observations d'un
échantillon peuvent raisonnablement provenir d'une distribution théorique donnée.La sortie du
logiciel nous donne le graphe illustré sur la figure ci-dessous :

Interprétation des résultats :


Le test de Kolmogorov-Smirnov donne une probabilité de dépassement de 0.03 inférieure à
0,05, donc on peut dire aussi que l'hypothèse de normalité est donc rejetée.
Histogramme de fréquence :
possible...

II. Normalisation des données

D’après les graphes qu'on a dessiné, on trouve que nos données ne suive pas la loi normale,
pour résoudre ce problème on peut transformer nos données vers la normalité en utilisant une
transformation de type Box-Cox qui a pour objectif d'augmenter la normalité des données. on
peut soit imposer une valeur de Lambda, soit décider que Minitab doit l'optimiser. Si l'option
d'optimisation est choisie, minitab maximise la vraisemblance de l'échantillon, étant supposé
qu'après transformation l'échantillon suit une loi normale.
Minitab choisira pour nous la meilleure fonction mathématique possible pour transformer nos
données. cette fonction est définie par :
𝑥𝜆 − 1
𝑦= 𝑠𝑖 𝜆 ≠ 0
𝜆
𝑦 = 𝑙𝑛(𝑥) 𝑠𝑖 𝜆 = 0
Les résultats du test de Shapiro – Wilks et ..... pour les nouvelles données, obtenues par la
transformation de Box-Cox, sont illustrés dans la figure suivante :
Interprétation
Comme il est montré sur les figures précédent les coefficients de corrélation linéaire obtenus
pour les nouvelles données tendent vers 1. la probabilité de dépassement de 0.1 est supérieur à
0,05 donc on peut déduire que nos échantillons après la transformation sont des échantillons
normalisés.
Le diagramme ci-dessus montre comment, grâce à une transformation de Box-Cox, effectuée par
l'Assistant Minitab (dans une analyse de la capabilité), une distribution asymétrique a été
transformée en une distribution tout à fait symétrique et normale (avec un test de normalité qui
valide la normalité des données après transformation)

Analyse de Capabilité :

L'analyse de la capacité permet d'établir par des calculs statistiques si nos processus sont
capables de satisfaire les spécifications. Ces spécifications sont des attentes, des exigences ou
des standards définis par nos clients, nos gestionnaires, ou nos concepteurs. L'analyse de la
capabilité nous aide à cibler les meilleurs améliorations pour accroître la qualité de nos
processus. Différents outils sont proposes pour effectuer ce type d’analyse : des outils
graphiques (histogramme ou graphe de probabilité) et des indices de capabilité.
Les calculs de capabilité qu'on va présenter ici sont basés sur l’hypothèse que le procédé visé
obéisse à une loi normale (loi de Gauss) c'est ce qu'on a montré avant. S’il en est
différemment, les calculs n’ont plus de sens
Pour bien apprécier la capabilité d’un processus la notion de temps est particulièrement
importante car on différencie deux types d'indicateurs :
1. l'indicateur court-terme Cp et Cpk :
lorsque l’on produit deux pièces consécutivement, ces deux pièces ne seront pas tout à fait
équivalentes à causes des variations intrinsèques de la machine. Cette indicateur court-terme
dépend principalement de la machine.
Pour calculer les indicateurs Cp et Cpk, nous menons une étude de dispersion
sur une courte période (milieu), dans une matière uniforme, avec un opérateur averti
(main d’oeuvre) et avec les mêmes méthodes. Ces indicateurs se calculent de la manière
suivante

Cp peut s’interpréter comme une mesure du pourcentage de l’intervalle de tolérance utilise


par la caractéristique ou comme une mesure de la capabilité potentielle du procédé à produire
une certaine proportion de produit dans les spécifications.
Si, Cp < 1, quelle que soit la moyenne X du procédé, le taux de non conforme sera toujours
trop élevé.
Dans le cas où Cp < 1 une révision plus complète de la variabilité du procédé est nécessaire.
En général, on choisit Cp = 1.33 comme valeur minimum à atteindre.
L’indice Cpk mesure simultanément la position et la dispersion de la caractéristique. Il est
défini par :

2. l'indicateur long-terme Pp et Ppk :


lorsque l’on produit sur un même process pendant une plus longue période, la machine elle-
même va se dérégler, les changements de série, le changement de lot matière etc… vont
apporter de nouvelles sources de variation. Cet indicateur long-terme dépend de la machine
mais également de nombreuses sources de variabilité extérieures et de la manière de piloter le
process.
a. Performance intrinsèque du procédé Pp
Cet indicateur représente le rapport entre l’intervalle de tolérance ciblé et la dispersion du
processus. Un procédé sera dit capable si l’intervalle de tolérance est plus grand que la
dispersion aléatoire du procédé, c’est-à-dire lorsque le Pp est supérieur à 1,33. Le calcul de
cet indicateur est réalisé à partir d’un échantillon représentatif de l’ensemble d’une
production. En général, la période retenue pour le calculer est au moins d’une semaine. Cet
indicateur est définie par :

intervalle de tolérance Ts − Ti
Pp = =
6σLong terme 6σ
Tels que : Ts : tolérance supérieur et Ti : tolérance inférieur

b. Indicateur de déréglage Ppk


L’indicateur de déréglage Ppk est un indice de performance qui tient compte de
la distribution des données qui sont centrées ou décentrées autour de la valeur cible ou
la moyenne. L’une des conditions pour qu’un procédé soit adapté sur le long terme est que
l’indicateur Pp soit supérieur à 1,33.
l'indicateur Ppk se calcule de la manière suivante :

̅
X − Ti Ts − ̅
X
Ppk = Min | ; |
3σ 3σ

Il est important de noter que les indicateurs les plus importants sont le Pp et le Ppk car ils
traduisent la qualité des pièces livrées au client.

3.Test de capabilité :
La figure présentent les résultats du calcul de capabalité.
Interprétation du résultat :
Etablissement des cartes de contrôle

Les cartes de contrôles permettent de piloter la production (régler les consignes appliquées
aux machines) par rapport aux limites naturelles du processus (il s’agit de la dispersion du
moyen de production autour de sa consigne en l’absence de cause particulière de déréglage) et
non par rapport aux spécifications (intervalle de tolérance défini par la tolérance supérieure,
TS et la tolérance inférieur, TI), qui servent seulement à accepter ou non une production.
Le choix des limites de contrôle est l’une des décisions cruciales a prendre quand on établit
une carte de contrôle. Ces limites dépendent de la caractéristique ou statistique représentée sur
la carte mais sont choisies suivant un principe commun.
La ligne centrale et les limites de contrôles sont en général définies comme suit :
• Limite de contrôle supérieure : LSC = X + A2 R
• Ligne centrale : LC = X
• Limite de contrôle inferieure : LIC = X - A2 R
Pour la carte des étendues, on a :LSCR = D4*R
CL = R
LICR = D3*R
Les coefficients A2, D3, D4 sont déterminées a l’aide de tableau

Avant de placer un procédé sous contrôle, il est nécessaire de vérifier qu’il est capable de réaliser la
caractéristique contrôlée en respectant les tolérances demandées .Pour vérifier cette capabilité on
peut calculer un indice de capabilité, il en existe plusieurs :

Après avoir vérifié que les données du pH suites une loi normale, nous allons fait une analyse
du capabilité du procédé. maintenant on passe a la dernière étapes qui sert à établir les cartes
de contrôle. Les cartes les plus utilisées sont les cartes de contrôle par mesure de la
moyenne et de l'étendue. Ces cartes sont établies ensemble et interprétées ensemble. En effet,
la distribution des résultats modélisée par une loi Normale est caractérisée par la moyenne et
la dispersion (écart type).
Contrôle :
Le contrôle en cours de fabrication est la vérification du respect des consignes de
qualité et fabrication des éléments et articles, à différents stades de la fabrication.
Le contrôle en cours est donc une vérification de la conformité de la qualité en étapes
de fabrication et/ou du produit sorti de la chaîne, avec le dossier technique.
2 .Pourquoi contrôler les paramètres ?
L’industrie utilise des équipements de plus en plus sophistiques et automatisés. De ce
fait, l’homme intervient de moins en moins sur le produit. Il n’a donc plus autant de regard sur
la production pendant que celle-ci est en cours. De plus, les cadences des équipements
deviennent de plus en plus rapides. Ainsi, il devient difficile pour l’homme d’effectuer un
mirage de 100% du produit conditionné en cours de production.
Le contrôle en cours est donc une étape hors production, qui permet aux opérateurs de
vérifier, avec attention, que le produit final est stable et conforme aux attentes du client
Choix des limites de contrôle :
Le choix des limites de controle est l’une des decisions cruciales a prendre quand on etablit
une carte de contrôle. Ces limites dépendent de la caractéristique ou statistique représentée sur
la carte mais sont choisies suivant un principe commun.
La ligne centrale et les limites de contrôles sont en général définies comme suit :
• Limite de controle superieure : LSC = X + A2 R
• Ligne centrale : LC = X
• Limite de controle inferieure : LIC = X - A2 R
Pour la carte des étendues, on a :
LSCR = D4*R
CL = R
LICR = D3*R

Les coefficients A2, D3, D4 sont déterminées a l’aide de tableau illustré dans l'annexe

Interprétation des cartes de contrôles :


âpres l'établissement des graphiques X-Bar, R ,Il est conçu pour vous permettre de déterminer
si les données proviennent d'un processus qui est dans un état de contrôle statistique. Les
cartes de contrôle sont construites sous l'hypothèse que les données proviennent d'une
distribution normale avec une moyenne égale à 0,6913 et un écart type égal à 0,0764 Ces
paramètres ont été estimés à partir des données. Sur les 12 points non exclus indiquées sur les
cartes, 9 sont au-delà des limites de contrôle sur le premier graphique alors que 4 sont au delà
des limites sur le deuxième graphique.
la probabilité de voir 12 points ou plus au-delà des limites par hasard est 0,0 si les données
proviennent de la distribution présumée, nous pouvons déclarer que le processus soit hors de
contrôle au niveau de confiance de 95%.
Conclusion
Dans ce chapitre nous avons pu établir les cartes de contrôle après avoir effectué une
série de testes qui ont montré que la distribution des résultats ne suit pas une loi normale. Pour
remédier cette problématique, nous avons utilisé des transformations statistiques, en
l’occurrence la transformation de Box-Cox. Cette dernière est jugée plus efficace.
L’utilisation de ces cartes de contrôle ainsi établies, ont montré que le processus de flottation
n’est pas stable ce qui affecte nettement sur la capabilité du procédé.
:

Vous aimerez peut-être aussi