Académique Documents
Professionnel Documents
Culture Documents
Nous examinons l’exemple de prédiction de la dureté d’un type de bois (Janka) en fonction de
sa densité. Nous avons obtenu les mesures suivantes.
L’idée est bien sûr que nous croyions que la dureté est fonction de la densité :
𝑑𝑢𝑟𝑒𝑡𝑒 = 𝑔(𝑑𝑒𝑛𝑠𝑖𝑡𝑒),
Cette croyance est supportée en partie par le nuage de points de la figure 1 obtenu à partir de
la table 1.
Un regard plus attentif à cette table suggère qu’il y a un aspect aléatoire. Néanmoins, la valeur
de densité 51.5 lui correspond 2 valeurs de dureté). Le nouveau modèle est
Dans notre cas nous suggérons une fonction 𝑔 lineaire 𝑔(𝑥) = 𝑎𝑥 + 𝑏. Nous parlons d’un
modèle simple de régression linéaire dont la définition est
Nous supposons que les 𝑥 , 𝑥 , … , 𝑥 sont non aléatoires mais 𝑦 , 𝑦 , … , 𝑦 sont des
réalisations de variables aléatoires 𝑌 , 𝑌 , … , 𝑌 tel que
𝑌 = 𝑎𝑥 + 𝑏 + 𝑈 Avec
𝑈 , 𝑈 , … , 𝑈 sont des v.a. indépendantes qui représentent les fluctuations avec
𝐸(𝑈 ) = 0 et 𝑉𝑎𝑟(𝑈 ) = 𝜎 .
Nomenclature :
𝑎 = 𝑝𝑒𝑛𝑡𝑒, 𝑏 = 𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡,
L’Independence des 𝑈 implique l’Independence des 𝑌 . Par contre, les 𝑌 ont des distributions
différentes quand les valeurs explicatives sont fixes. Nous supposons, les 𝑌 ont même variance.
Donc :
Le maximum de vraisemblance (MV) fournit un moyen pour estimer des paramètres quelconques
dans un modèle quand nous connaissons la distribution. Malheureusement, il n’est pas universel.
Nous montrons alors comment nous utilisons l’estimateur des moindres carres (MC) pour
estimer les paramètres 𝑎 et 𝑏 dans un modèle linéaire. La relation entre (MV) et (MC) sera aussi
investiguée la distribution des 𝑌 est connue.
Nous choisissons 𝑎 et 𝑏 de telle manière que la droite colle au mieux aux données (Fig2).
La méthode des moindres carres (MC) classique est minimiser la somme des erreurs au carré
entre la valeur observée 𝑦 et la valeur estimée (prédite) par la droite (𝑎𝑥 + 𝑏) (Fig4).
On obtient
= 0 𝑒𝑡 = 0 donc
⎧ 2(𝑦 − 𝑎𝑥 − 𝑏) (−𝑥 ) = 0 ⎧𝑎
⎪ 𝑥 +𝑏 𝑥 = 𝑥 𝑦
⎪ ⎪
donc
⎨ ⎨
⎪ ⎪ 𝑎 𝑥 + 𝑛𝑏 = 𝑦
⎪ 2(𝑦 − 𝑎𝑥 − 𝑏) (−1) = 0 ⎩
⎩
𝑛∑𝑥 𝑦 − ∑𝑥 ∑𝑦
⎧𝑎 =
On obtient 𝑛 ∑ 𝑥 − (∑ 𝑥 )
⎨
⎩ 𝑏 = 𝑦 − 𝑎𝑥
Remarque:
L’équation 2 donne 𝑎𝑥 + 𝑏 = 𝑦 ce qui signifie que toujours (𝑥̅ , 𝑦 ) ∈ droite de régression.
1646.4 𝒂 + 36 𝒃 = 52 901
1 1
𝐸(𝐵 ) = 𝐸(𝑌 − 𝑎 𝑥 ) = 𝐸(𝑌 ) − 𝑥 𝐸(𝐴) = (𝑎𝑥 + 𝑏) − 𝑥 𝑎
𝑛 𝑛
= 𝑎𝑥 + 𝑏 − 𝑥 𝑎 = 𝒃
Nous avons relevé pour un groupe d’élèves les notes de contrôle continu en mathématiques 𝑥 (note
sur 100) et les notes correspondantes 𝑦 dans l’examen final
𝑥 40 55 60 65 70 75 80 86 90 94
𝑦 30 45 65 70 60 85 75 92 88 98