Vous êtes sur la page 1sur 7

LEÇON N˚ 8 :

Séries statistiques à deux variables numériques. Nuage de points associé. Ajustement affine par la méthode des moindres carrés. Droites de régression. Applications. L’exposé pourra être illustré par un ou des exemples faisant appel à l’utilisation d’une calculatrice.

Pré-requis :

Résultats sur les séries statistiques à une variable ;

Trinôme du second degré (forme canonique, minimum) ;

Equation d’une droite dans P.

On se place dans un plan affine euclidien P, rapporté à un repère orthogonal 1 (O, i, j ), de direction

P .

8.1 Séries statistiques à deux variables

, ω n } une population de taille n N . On dit que deux variables X

et Y définissent sur une série statistique double (x i , y i ) 1 i n , avec X (ω i ) = x i et Y (ω i ) = y i ,

lorsque :

Définition 1 : Soit Ω = { ω 1 ,

x 1 · · · x n ;

X (Ω) et Y (Ω) ne sont pas des singletons.

Conséquence - notation : Nous avons donc les résultats suivants (aussi valables en remplaçant X par Y et x i par y i ), qui introduisent des notations utilisées dans la suite :

X = 1

des notations utilisées dans la suite : X = 1 n n i =1 x i

n

n

i=1

x i

et

V (X ) = σ

X = 1

2

n

n

i=1

(x i X ) 2 = X 2 X 2 .

1

:

M i j 0 i
M
i
j
0
i

H i car y i ax i b = M i H i si le repère n’est pas orthogonal. En effet, pour le calcul, M i H i correspond à la longueur du segment bleu, et y i ax i b correspond à la longueur du segment

rouge. Cette notion d’orthogonalité doit être présente, et amène la variante de démonstration du théorème 1 présente en fin de leçon.

2

Séries statistiques à deux variables numériques

2 Séries statistiques à deux variables numériques

Exemple : On demande à 8 élèves de terminale leur taille (T ) et leur poids (M ) (ou être physiquement exact !). Voici les résultats :

.« masse » pour

Taille (cm)

158

159

165

165

172

174

180

182

Poids (kg)

54

53

58

53

63

69

81

84

On entre (x i ) et (y i ) dans les deux premières colonnes de l’éditeur de listes de la calculatrice, et on fait tracer le nuage de points associé à cette série statistique double (attention à bien configurer la fenêtre gra- phique ! ! !) :

à bien configurer la fenêtre gra- phique ! ! !) : Cet exemple sera utilisé dans
à bien configurer la fenêtre gra- phique ! ! !) : Cet exemple sera utilisé dans

Cet exemple sera utilisé dans toute la suite de cette leçon.

Définition 2 : Dans (O, j ), on appelle nuage de points associé à la série statistique double

(x i , y i ) i i n l’ensemble des points M i P de coordonnées (x i , y i ). Le point de coordonnées

i,

(X, Y ) est appelé point moyen et est noté G.

Remarque 1 : G est l’isobarycentre du système de points {M i } 1 i n .

Définition 3 : Soit (x i , y i ) i i n une série statistique double. On appelle covariance du couple (X, Y ) le réel noté Cov(X, Y ) ou σ X,Y , égal à

Cov(X, Y ) = σ X,Y = 1

n

n

i=1

(x i X )(y i Y ).

3 Séries statistiques à deux variables numériques

3

Séries statistiques à deux variables numériques

Exemple : G = 1355

8

, 129

2

= (169, 375; 64, 5) et σ T,M = 1503 = 93, 9375.

16

Proposition 1 :

(i) σ X,Y = 1

n

n

i=1

x i y i X Y ;

(ii) Pour tous réels a, b, c, d , σ aX+b,cY +d = ac σ X,Y ;

(iii) | σ X,Y | σ X σ Y , avec égalité si et seulement si les M i sont tous alignés.

démonstration :

(i)

Il suffit de faire quelques calculs pour démontrer cette égalité :

σ X,Y

=

=

1

n

1

n

n

i=1

n

i=1

(x i X )(y i Y ) = 1

n

n

i=1

(x i y i Y x i X y i + X Y )

x i y i 2X Y + X Y = 1

X y i + X Y ) x i y i − 2 X Y +

n

n

i=1

x i y i X Y .

(ii)

(iii)

Il suffit à nouveau de faire des calculs, en utilisant le résultat précédent :

σ aX + b,cY + d =

=

=

=

1

n

1

n

n

i=1

n

i=1

(ax i + b )(cy i + d ) aX + b cY + d

(acx i y i + adx i + bcy i + bd ) (aX + b )(c Y + d )

ac 1

n

ac

n

i=1

x i y i + ad X + bc Y + bd acX Y ad X bc Y bd

1

n

n

i=1

x i y i X Y = ac σ X,Y .

Pour tout λ R, on a σ λX + Y 0. Or σ λX + Y = · · · = λ 2 σ X +2λσ X,Y + σ Y . Notons que σ X car X (Ω) n’est par définition pas un singleton. Nous sommes donc en présence d’un trinôme du

second degré qui est positif, son discriminant est donc négatif, c’est-à-dire σ soit | σ X,Y | σ X σ Y .

De plus, σ i ∈ {1,

Y ∆ = 0 ⇔ ∃ λ 0 R | σ λ 0 X + Y = 0. Or σ λ 0 X + Y = 0 ⇔ · · · ⇔

0

2

2

2

2

=

2 X,Y σ

X 2 σ

Y 2 0,

2

X,Y = σ X σ 2

2

2

2

i, M i (x i , y i ) d , où d est la droite d’équation

λ 0 (x X ) + (y Y ) = 0. Réciproquement, s’il existe une droite d’équation y = ax + b telle que

, n}, λ 0 (x i X ) + (y i Y ) = 0

pour tout i, y i = ax i + b , alors Y = aX + b , et le calcul donne σ

2

X,Y = a 2 σ

2

X = σ X σ Y .

Remarque 2 : L’inégalité de (iii) porte généralement le nom d’inégalité de Schwarz.

8.2 Ajustement affine

On cherche une droite d’équation y = ax + b qui approche au mieux tous les points du nuage d’une série statistique double. Soit (x i , y i ) 1 i n une telle série. Il existe alors plusieurs méthodes :

4

Séries statistiques à deux variables numériques

4 Séries statistiques à deux variables numériques

manuelle : on trace une telle droite selon le « bon sens » sur le graphique, et l’on en déduit a et b .

– moyenne : il s’agit de calculer pour chaque sous-nuage les coordonnées du point moyen. On obtient donc

un nouveau nuage de points : G 1 , G 2 ,

et l’on recommence avec ce nuage.

des moindres carrés : c’est celle que l’on va développer ci-dessous.

On cherche a et b tels que ϕ (a, b ) = i=1 n (y i ax i b )2 soit minimale. Dans (O, i, j ), si l’on se donne la droite D d’équation y = ax + b et H i le projeté de M i parallèlement à l’axe (Oy ) pour tout i entre 1 et n , alors on a

ϕ (a, b ) =

n

i=1

(M

i H i ) 2 .

Définition 4 : Si a et b minmisent ϕ , alors D : y = ax + b est la droite réalisant un ajustement affine du nuage de points selon la méthode des moindres carrés. On dit que D est la droite de régression de

Y en X .

Théorème 1 : Il existe une unique droite D réalisant un ajustement affine du nuage de points selon la méthode des moindres carrés. Son coefficient directeur est a = σ X,Y X et elle passe par le point moyen. On a donc :

D : y = σ X,Y x + (Y a X ).

2

σ

2

X

démonstration : On a :

n

i=1

(M i H i ) 2 =

=

=

=

n

i=1

n

i=1

(y i ax i b ) 2 =

n

i=1

y

2

i

2a

n

i=1

x i y i + a 2

[(y i ax i ) 2 2b (y i ax i ) + b 2 ]

n

x

i=1

2

i

+ n b (Y aX ) 2 n (Y aX ) 2

n

i=1

y

i 2 n Y 2 2a

n

i=1

x i y i n X Y + a 2

n (b Y + aX ) 2 + a σ X σ X,Y 2 + 1 (σ

σ

X

σ

2

X

2

Y σ

n

i=1

2

x i

n X 2 + n b (Y aX ) 2

2

X σ

X,Y ) .

2

Or σ

X

2

(σ

2

Y σ 2

X σ X,Y ) est un nombre positif indépendant de a et b , donc

2

avec égalité si et seulement si

n

i=1

(M i H i ) 2 1 (σ

2

σ X

b Y + aX = 0

a σ X σ X,Y

= 0

σ X

2

Y σ

2

X σ

2

X,Y ),

a = σ X,Y

σ

2

X

b = Y aX.

En fin de leçon est proposée une variante à cette démonstration.

5 Séries statistiques à deux variables numériques

5

Séries statistiques à deux variables numériques

Remarques :

1. D’après cette démonstration, i=1 n M i H i = 0 σ l’on retrouve un résultat précédent ;

2. On peut aussi déterminer la droite D de régression de X en Y . Si l’on note D : x = a y + b , alors (en inversant les rôles de X et Y dans le théorème précédent), on a

Y σ X,Y ) = 0 ⇔ |σ X,Y | = σ X σ Y , et

2

X

(σ

2

X σ 2

2

a = σ X,Y

σ

2

Y

et

b = X a Y .

Donc :

* D G car X = a Y + b .

* Si σ X,Y = 0, alors a = a = 0, donc D // (Ox ) et D // (Oy ).

* Si σ X,Y = 0, alors a = 0 et donc

Alors D

= D a = 1/a σ

: y = 1 x b

a

a .

2

X σ

2

Y

D

2

X,Y = σ

M i alignés. Il est à noter que la condition

b

= b /a n’est pas utile puisque les deux droites passent par le point moyen.

* et a ont même signe, celui de σ X,Y , donc

a

σ

2 X,Y σ

X 2 σ

Y 2 ⇒ |a |

1

a

.

Définition 5 : On appelle coefficient de corrélation linéaire entre X et Y le réel noté R égal à

R = σ X,Y

σ X σ Y

.

Remarque 4 :

1 R 1 (car |σ X,Y | σ X σ Y ) ;

– Plus les points du nuage sont « alignés », plus |R | sera proche de 1.

Exemple : On détermine dans notre exemple que

D : y = 1, 305x 156, 53

et

D : y = 1, 424x 176, 66,

ainsi que R = 0, 957, d’où une bonne « corrélation » entre P et T . Voici la capture d’écran obtenue à la calculatrice (dans l’éditeur de liste, la possibilité de calculer l’équation d’une droite de régression et de la mémoriser dans une variable se fait via le menu F5) :

calculer l’équation d’une droite de régression et de la mémoriser dans une variable se fait via

6

Séries statistiques à deux variables numériques

6 Séries statistiques à deux variables numériques

8.3

Applications

8.3.1 Ajustement par une fonction exponentielle

Si l’on a l’impression à la calculatrice que le nuage de points pourrait être approché par une fonction ex- ponentielle, on détermine d’abord une droite de régression y = mx + p = ln(a )x + ln(λ ) (a et λ existent

dans R + car ln : R

le nuage de points initial est ajusté par y ) exp(ax + b ) = λ a x .

+ −→ R est une bijection) du nuage de points associé à la série doubl e ( x i , ln y i ). Alors

8.3.2 Ajustement par une fonction puissance

Si les points M i (x i , y i ) sont proche de la courbe d’équation y = λ x a , alors les points (ln x i , ln y i ) sont proches de la droite d’équation y = ax + lnλ , et réciproquement.

8.3.3 Autres

Evolution (linéaire, exponentielle,

produit,

.) en fonction du temps.

.) d’une statistique simple (par exemple une population, le tarif d’un

Variante de la démonstration du théorème 1

On pose Y = (y 1 ,

, y n ), X = (x 1 ,

, x n ), U = (1,

, 1) et ϕ (a, b ) = Y aX BU 2

2

X aX + bU 0 U
X aX + bU
0
U

Y

( a, b ) = Y − aX − BU 2 2 X aX + bU

H

:

On cherche donc a et b tels que aX + bU = OH −−→ . Sachant que OY −−→ − OH −−→ = HY −−→ , on a

(Y

aX

bU ) · X = 0

(1)

(Y

aX bU ) · U = 0.

(2)

(a, b ) est unique par unicité du projeté orthogonal H de Y (si X et U sont non colinéaires, ce qui est exclus

par le fait que X (Ω) n’est pas un singleton). Alors (2) n Y an X bn = 0 b = Y a X (ou encore

7 Séries statistiques à deux variables numériques

7

Séries statistiques à deux variables numériques

Y = a X + b , donc G est sur la droite). On conclut ensuite avec l’équation (1) :

(1)

n

i=1

(y i ax i b ) x i = 0

n

i=1

x i y i a

n XY an X 2 (Y a X )n X = 0

a X 2 a X 2 = XY X Y

a = σ X,Y .

2

σ X

n

i=1

x

2

i

b

n

i=1

x i = 0

c

2011 par Martial LENZEN.

Aucune reproduction, même partielle, autres que celles prévues à l’article L. 122-5 du code de la propriété intellectuelle, ne peut être faite sans l’autorisation expresse de l’auteur.