Vous êtes sur la page 1sur 24

APPROXIMATION AU SENS DES

MOINDRES CARRES
Chapitre 3

1
1.0 Introduction
Si les données présentent un degré important d’erreur
ou de « bruit »,l interpolation polynomiale n’est pas
approprié et donne des résultats insatisfaisant pour les
valeurs intermédiaires. La stratégie la plus approprié
consiste à dériver une seule courbe qui représente la
tendance générale des données. Parce que n’importe
quel point de données individuel peut être incorrecte.
Au contraire, la courbe est conçue pour suivre le
modèle des points pris en tant que groupe. Une
approche de cette nature s’appelle la régression des
moindres carrés.
2
3
2.0 Régression Linéaire
Le cas le plus simple est d’ajuster une ligne droite a un certain nombre de
paires de pts (xi,yi). L’équation de la droite est donnée par:

𝑦 = 𝑎0 + 𝑎1 𝑥 + 𝑒

e représente l’erreur entre le modèle d’ajustement et les observations.


𝑒 = 𝑦 − 𝑎0 − 𝑎1 𝑥

4
3.0 Critère de meilleur Ajustement
• Une stratégie d’ajustement de
la meilleur droite est de
minimiser la somme des
erreurs résiduelles pour toutes
les points.
𝑛 𝑛

𝑒𝑖 = (𝑦𝑖 − 𝑎0 − 𝑎1 𝑥𝑖 )
𝑖<1 𝑖<1
n: nombre total des points.

Ceci n’est pas un critère adéquat


comme c’est montré par la figure
2a.

5
3.0 Critère de meilleur Ajustement
• Un second critère est de
minimiser la somme des
valeur absolues des erreurs.
La figure 2b démontre que
ce critère est aussi pas
adéquat. Pour quatre points,
toute ligne droite qui se
trouve entre les droites en
pointilles minimise cette
somme. Donc se critère ne
donne pas une solution
unique.

6
3.0 Critère de meilleur Ajustement
• Un troisième critère est le
critère min-max. Pour cette
technique, la droite choisie,
minimise la distance entre la
droite est les points. Ce
critère n est pas adéquat.
Comme le démontre le
figure 3c, un point loin de
ligne, avec une large erreur,
peut minimiser la distance
total et l’erreur.

7
3.0 Critère de meilleur Ajustement
Une stratégie qui donne une droite unique est de
minimiser la somme des carrés des erreurs entre y
mesuré et y calculé par le modèle linéaire.
𝑛 𝑛 𝑛

𝑆𝑟 = 𝑒2 = (𝑦𝑖,𝑚𝑒𝑠𝑢𝑟𝑒 − 𝑦𝑖,𝑚𝑜𝑑𝑒𝑙𝑒 )2 = (𝑦𝑖 − 𝑎0 − 𝑎1 𝑥𝑖 )2


𝑖<1 𝑖<1 𝑖<1

Pour obtenir les valeurs de a0 et a1, il faut résoudre:


𝜕𝑆𝑟
=0
𝜕𝑎0
𝜕𝑆𝑟
=0
𝜕𝑎1

8
3.0 Critère de meilleur Ajustement

9
3.0 Critère de meilleur Ajustement
La résolution du système d’équations donne:

𝑛 𝑥𝑖 𝑦𝑖 − 𝑥𝑖 𝑦𝑖
𝑎1 = 2
𝑛 𝑥𝑖 2 − ( 𝑥𝑖 )

𝑎0 = 𝑦𝑚 − 𝑎1 𝑥𝑚
Ou:
ym: moyenne des yi.
xm : moyenne des xi.
10
Exemple 3.1
Ajuster une ligne droite aux n=7, xm=28/7=4;
données suivantes: ym=24/7=3.4285;

x y x*y x^2 7 119.5 ;28(24)


𝑎1 = =0.8393
1 0.5 0.5 1 7 140 ;(28)2
2 2.5 5 4
3 2 6 9
4 4 16 16 𝑎0 = 3.4285 − 0.8393 4 = 0.0714
5 3.5 17.5 25
6 6 36 36
7 5.5 38.5 49 r=0.932
Somme 28 24 119.5 140

11
7

ymodel
y
3

0
0 1 2 3 4 5 6 7 8

12
3.2 Coefficient de Corrélation
Pour vérifier la qualité de l’ajustement on calcul le
coefficient de corrélation r qui est donne par:

𝑛 𝑥𝑖 𝑦𝑖 ;( 𝑥𝑖 )( 𝑦𝑖 )
𝑟=
2 2
𝑛 𝑥𝑖 2 ;( 𝑥𝑖 ) 𝑛 𝑦𝑖 2 ;( 𝑦𝑖 )

-1<r<1
Il est aussi recommandé d’inspecter le graph obtenu
pour analyser l’ajustement.
13
4.0 Linéarisation des relations non linéaires.
• Dans certains cas, les données ne présentent pas une relation
linéaire, dans ce cas des transformations sont utilisées pour
pouvoir ajuster une ligne droite .

14
4.0 Linéarisation des relations non linéaires
• Cas 1:
• 𝒚 = 𝜶𝟏 𝒆𝜷𝟏 𝒙
• lny=lnβ1*x*lne+lnα
• comme lne =1
• Donc 𝒍𝒏𝒚 = 𝒍𝒏𝜷𝟏 ∗ 𝒙 +lnα

On pose X*=x et Y*=Lny

Y*=a1x+a0; a1= β et a0=lnα

a1 et a0 seront calculés avec les équations précédentes en utilisant les


variables Y* et X*.

15
4.0 Linéarisation des relations non linéaires
• Cas 2:
y =∝ 𝑥 β
log 𝑦 = 𝛽2 𝑙𝑜𝑔𝑥 + 𝑙𝑜𝑔𝛼

X*=log x et Y*=log y
a1=𝛽 …..et a0=logα

16
4.0 Linéarisation des relations non linéaires

• Cas 3:
𝑥
y= 𝛼
𝛽:𝑥
1 𝛽1 1
= +
𝑦 𝛼𝑥 𝛼
X*=1/x et Y*=1/y
a1=β/α et a0=1/ α

17
18
Exemple 4.1
Ajuster une courbe exponentiel aux données suivantes:
x 0.4 0.8 1.2 1.6 2 2.3

y 800 975 1500 1950 2900 3600

x y X* Y* X * Y* (X*) ^2
1 0.4 800 0.4 6.68 2.673845 0.16
2 0.8 975 0.8 6.88 5.50595 0.64
3 1.2 1500 1.2 7.31 8.775864 1.44
4 1.6 1950 1.6 7.58 12.12094 2.56
5 2 2900 2 7.97 15.94493 4
6 2.3 3600 2.3 8.19 18.83398 5.29
moy 1.383333 7.436168
somme 8.3 44.61701 63.85551 14.09

On obtient: a1=0.819 et a0=6.304


Donc β=0.819 et α=546.755

𝑦 = 546.755𝑒 0.819𝑥
19
5.0 Régression Polynomiale
Une autre alternative aux techniques de transformation est la régression
polynomiale.
Cas de Polynôme de degré 2:
𝑦 = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 + 𝑒
La somme des carres des résidus est:
𝑛

𝑆𝑟 𝑦𝑖 − 𝑎0 − 𝑎1 𝑥𝑖 − 𝑎2 𝑥𝑖 2 2

𝑖<1
Si on prend la dérivée:

20
5.0 Régression Polynomiale
Si on met ces équations égales a zéro et réarrange on obtient:

On obtient un système d’équations linéaire. Les coefficients a0, a1, et a2


peuvent être calculés a partir des données.

Cette analyse peut être étendue aux polynômes d’ordre m>2.

21
5.0 Régression Polynomiale
• Exemple:
Ajuster un polynôme d’ordre 2 aux donnes suivantes:

22
5.0 Régression Polynomiale
• Exemple:
On doit résoudre le système suivant:

a0= 2.47857; a1=2.35929; a3=1.86071.

Donc le polynôme d’ajustement quadratique est:

Et r=0.99925…très bon ajustement


23
70

60

50

40

Y
Yajust
30

20

10

0
0 1 2 3 4 5 6

24

Vous aimerez peut-être aussi