Vous êtes sur la page 1sur 40

Modèles linéaires,

corrélation et régression
Modelisation SISO
Y = a0 + a1X
X Y

Xmin ≤ X ≤ Xmax
Experience :
1 Y1=a0+a1(Xmax)
2 Y2=a0+a1(Xmin)
Identification
Y1 = a0 + a1.(Xmax)
Y2 = a0 + a1.(Xmin)
Sous forme matrixciele

Y1 1 Xmin a0
=
Y2 1 Xmax a1

a0
=?
a1
normalisation
X-Xtb
X*=
ΔX
ΔX= (Xmax – Xmin)/2
Xtb = (Xmax + Xmin)/2

X X* Xmax

ΔX
Xtb

ΔX Xmin
Modele normallise
Y=a0* + a1* .X*
Forme matrixcielle des experiances

Y1 1 Xmax a0
=
Y2 1 Xmin a1

Après normallisation
Y1 1 1 a0*
=
Y2 1 -1 a1*

Y = H.Θ*
Matrix d’outil
1 1 1 1 1 0
H= H= T
H H=
T
1 -1 1 -1 0 1

Y = H.Θ*

HT.Y = HT.H.Θ*

HT.Y = Θ*

Θ*= HT.Y
Y

tgα = a1*
a0*

X*

Y = a0* + a1* .X*

Y = a0 + a1.X
Passage de Y* à Y
a0 = a0* - Xtb
ΔX

a1*
a1 =
ΔX
remaque
Y = a0 + a1.X
Y = a0* + a1* .X*
Modelisation MIMO
Y = a0 + a1.X1 + a2.X2 + a3.X3
X1 Y

X2
X3

X1min ≤ X1 ≤ X1max
X2min ≤ X2 ≤ X2max
X3min ≤ X3 ≤ X3max
Modele normallise
Y = a0 *+ a1*.X1* + a2*.X2* + a3*.X3*

ou
Xi-Xtbi
Xi*=
ΔXi
ΔXi= (Ximax – Ximin)/2
Xitb = (Ximax + Ximin)/2
Matrixce des experience

X1 X2 X3 Y X1* X2* X3*


max max max
1 y1 1 1 1
min max min
2 y2 -1 1 -1
max min min
3 y3 1 -1 -1
min min max
4 y4 -1 -1 1
Forme matrixcielle
y1 = a0 + a1.X1max + a2.X2max + a3.X3max
y2 = a0 + a1.X1min + a2.X2max + a3.X3min
y3 = a0 + a1.X1max + a2.X2min + a3.X3min
y4 = a0 + a1.X1min + a2.X2min + a3.X3max
Introduction des valeur
normalisation
Xi-Xitb
X*i=
ΔXi
ΔXi= (Ximax – Ximin)/2

Xitb = (Ximax + Ximin)/2


Forme matrixcielle
y1 = a0* + a1*.X1*max + a2*.X2*max + a3*.X3*max
y2 = a0* + a1*.X1*min + a2*.X2*max + a3*.X3*min
y3 = a0* + a1*.X1*max + a2*.X2*min + a3*.X3*min
y4 = a0* + a1*.X1*min + a2*.X2*min + a3*.X3*max

y1 ao*
1 1 1 1
y2 a1*
= 1 -1 1 -1
y3
1 1 -1 -1 a2*
y4
1 -1 -1 1 a3*
y1 ao*
1 1 1 1
y2 a1*
= 1 -1 1 -1
y3 a2*
1 1 -1 -1
y4 a3*
1 -1 -1 1

Y = H.Θ H c’est matrice 4x4

Θ = H-1.Y

Methode MCRS

Y = M.Θ Θ = (MTM)-1MT.Y
Remarque:
 1) a0 =0 système noncausal
 2) a3 << a2 entre X3 n’est pas emportance
Introduction: corrélation
population

 Existe-t-il un lien (XY) entre les


variables quantitatives x et y ?
 Quel est la direction (covariance) et la
force (r de Pearson) du lien ?
 Le lien entre les variables x et y est-il
significatif ?
 x et y sont des variables aléatoires (par
opposition à des variables contrôlées).
Représentation matricielle
Objet
Covariance
 La covariance (Sxy) indique la dispersion
conjointe de deux variables quantitatives
autour de leur moyenne (centroïde).
n

Variance ~
 (x  x )
i
2

S  2
x
i 1
X * X n 1
n

Covariance ~  ( x  x )( y  y )
i i

X * Y
S xy  i 1

n 1
Représentation géométrique
Représentation géométrique

Y Y Y
I Y
II Y Y

X X X

III IV

Covariance positive Covariance négative ???


Corrélation simple de Pearson
 La corrélation rxy (de Pearson) est
simplement la covariance de deux variables
centrées-réduites (2 étapes).
Corrélation simple de Pearson

3- Calcul de la covariance sur les données non transformées


cov( x, y )
rxy 
var( x ) var( y )
Étapes 1-3
 1- Existe-t-il un lien d’association entre les
variables x et y?

 2- Le test peut être bi-latéral (…pas de lien


entre x et y) ou uni-latéral (…il existe un lien
positif ou négatif entre x et y).
H1 : rxy  0
 3- Hypothèses: H1 : rxy  0
H 0 : rxy  0
H1 : rxy  0
Statistique test (F ou t)
 Calcul d’une statistique test FOBS avec v1 = 1 et v2 = n-
1 degrés de libertés (dl).

 Pour des raisons mathématiques, lorsque v1 =1 la


statistique F peut se transformer en une statistique t
avec v =n-2 dl.
Conditions d’application au test
de corrélation.
 1- Les deux variables x et y sont
quantitatives et aléatoires.
 2- Bi-normalité: Cette condition est
vérifiée en examinant la normalité de
chaque variable séparément.
 3- La relation est linéaire entre les
variables x et y.
Vérification de la linéarité
Non Non

y y

x x
Non Oui

y y

x x
Construction du modèle
Introduction: Régression
 Existe-t-il un lien de dépendance entre les variables x
et y?

 Quel modèle mathématique permet de prédire y


(variable dépendante, ou variable prédite) à partir de
x (variable indépendante, ou variable prédictive)?

 Si x et y sont des variables aléatoires: régression de


type II; si x est contrôlée: régression de type I
(Régession des Moindres Carrés Ordinaires).
Introduction: Régression
Présentation du modèle de
régression

Population: y i  axi  b   i
Modèle: yˆi  aˆxi  bˆ
 Cette équation correspond à une ligne droite
traversant le nuage de points et permettant
de calculer une valeur estimée ŷi pour chaque
point. Cette droite porte le nom de droite de
régression (ou d’estimation) de y en x.
Présentation du modèle de
régression

Pente

Ordonnée à
l’origine
Représentation géométrique

εi = Résidus de

y l’observation i.

= yˆi , Valeur prédite


= yi, Valeur originale

x = Centroïde (moyenne x, moyenne y)


Partition de la variance en y

SCET = SCEE + SCER


Somme Carrés Écarts Totaux = SC Écarts Résidus + SC Écarts Expliqués par x
Représentation géométrique de la
partition de la variance en y
SCER = Écart expliqué

SCEE = Écart
résiduel
y
= yˆi , Valeur prédite
= yi, Valeur originale

x = Centroïde (moyenne x, moyenne y)


Coefficient de détermination R2

= R2

(r de Pearson)2 = R2, où 0  R2  1

**Le coefficient de détermination R2 mesure donc la


quantité de dispersion (variation) en y qui est
expliquée par la droite de régression sur la dispersion
totale en y. Si on multiplie R2 par 100, on parle alors
d’un pourcentage de variation en y expliqué par x.
Étapes 1-3
 1- Existe-t-il un lien de dépendance entre les
variables x et y?

 2- Le test peut être bi-latéral (…pas de lien


entre x et y) ou uni-latéral (…il existe un lien
positif ou négatif entre x et y).
H1 : Rxy  0
 3- Hypothèses: H1 : Rxy  0
H 0 : Rxy  0
H1 : Rxy  0
Statistique test (F ou t)
 Calcul d’une statistique test FOBS avec v1 = 1 et v2 = n-
1 degrés de libertés (dl).
SCER R 2 (n  2)
FOBS  
SCEE /(n  2) 1 R 2

 Pour des raisons mathématiques, lorsque v1 =1 la


statistique F peut se transformer en une statistique t
avec v =n-2 dl.
Conditions d’application au test
de régression.
 1-3 Les trois mêmes que pour la
corrélation.

 4- Homogénéité des résidus εi.

 5- Normalité des résidus εi.

Vous aimerez peut-être aussi