Académique Documents
Professionnel Documents
Culture Documents
Gaussienne simple
Introduction
• Le 1 janvier 1801 Giuseppe Piazzi découvre l'astéroïde Cérès et réussi
à l’observer jusqu’au 14 février 1801.
• Carl Friedrich Gauss propose une estimation de la trajectoire de Cérès
Avec les erreurs (ou bruits) supposées suivre une loi normale centrées, de même variance
(homoscédasticité) et non corrélées entre elles.
Plus précisément on pose
Introduction droite de régression avec EXCEL
La plupart des tableurs permettent de déterminer la droite de
régression par la méthode des MCO.
Equation de la droite de régression par la
MCO
• Exemple
Graphique
Ligne de tendance
Droite de régression : MCO
MCO
Nous avons vu que :
On appelle estimateurs des Moindres Carrés Ordinaires (en abrégé MCO) β1 et β2 les valeurs
minimisant la quantité :
Qui s’écrivent
Exemple de droite de régression
Faisons le calcul des estimateurs
Prévision
Un modèle de régression est construit dans le but d’expliquer à partir des
observations dans quelles conditions se détermine Y, mais aussi de
prévoir les valeurs futures de cette variable.
Calculs
Cas de deux variables
Le tableau ci-après donne les ventes mensuelles et le prix unitaire correspondant. Ces
valeurs représentent les observations qui vont servir à l'estimation de la fonction de
demande.
Février 15 6
Mars 9 10
Avril 14 9
Mai 3 11
Juin 9 13
Juillet 10 9
Août 17 6
Septembre 11 5
Octobre 16 3
Novembre 7 11
Décembre 3 15
Nuage de points
16
Dans la théorie traditionnelle le prix
14
est une fonction de la demande.
12 prix=a*demande+b.
10
Mais on peut se poser la question
réciproque, en agissant sur le prix
8
puis-je modifier la demande?
6
demande= m*prix+c
4 y = -0,6426x + 15,706
0
0 2 4 6 8 10 12 14 16 18
Qualité de l ajustement
Deux questions se pose à nous:
Dans quelle mesure le phénomène est-il bien représenté par la droite?
Peut-on faire confiance aux coefficients du modèle?
Validité globale du modèle
Pour construire le modèle de régression linéaire nous avons supposé
que Y dépend de X. Comparons ce modèle avec celui où Y est
indépendant de X (hypothèse 𝐻0 ).
2
𝑌𝑖 −𝑌 𝑌𝑖 −𝑌𝑖 2
R² = 2 = 1- 2
𝑌𝑖 −𝑌 𝑌𝑖 −𝑌
Interprétation
• Si R² = 1, le modèle explique tout, c’est-à-dire que les points de l’échantillon sont
parfaitement alignés sur la droite des moindres carrés
• Si R² = 0 ou proche de 0, cela veut dire que Le modèle de régression linéaire est
inadapté
Le coefficient de corrélation est la racine carré du coefficient de
détermination. C’est l’indicateur le plus couramment employé.
2
𝑌𝑖 −𝑌
R= 2
𝑌𝑖 −𝑌
Nous tentons ici d’expliquer les ventes en fonction du temps, c’est une série
temporelle
La représentation graphique nous montre qu’une régression linéaire est envisageable
Par la méthode des moindres carrés nous obtenons
Y=1,2143 X + 3,1429
Il suffit de remplacer X par la variable temps, par exemple X=8, dans cette formule pour obtenir une
prévision des vente pour la 8ième semaine.
Vente de la semaine 8: 12,84
semaine vente vente-moyenne (vente -moy)^2 estimation y vente-estimation (vente-estimation)^2
moyenne 8
R^2 0,86011905
2 2
Nous pouvons démontrer que 𝑌𝑖 − 𝑌 𝑒𝑡 𝑌𝑖 − 𝑌𝑖 suivent des
loi du χ²
D’où
2
𝑌𝑖 −𝑌
1
2 suit une loi de Fisher (1, n-2)
𝑌𝑖 −𝑌𝑖
𝑛−2
Dans notre exemple: F=30,76. Cette valeur doit être comparée à celle qui est lue
dans la table de Fisher (1;5) pour un seuil de confiance que l’on se fixe.
Pour un seuil de confiance fixé à 1 pour cent, la valeur du 𝐹théorique
lue dans le tableau est de 16,26.
Ici nous avons 𝐹𝑜𝑏𝑠𝑒𝑟𝑣é =30,76, nous allons donc rejeter l’hypothèse 𝐻0
avec un risque d’erreur de première espèce inférieur à 1 pour cent.
Ecart type de l’erreur
Nous pouvons calculer la vraisemblance de l’échantillon et les estimateurs qui
maximisent cette vraisemblance.
Nous avons une estimation de la variance de l’erreur
2
𝑌𝑖 − 𝑌𝑖
σε ² =
𝑛−2
Nous pouvons démontrer que:
Exemple
=1,34296
Nous avons vu que la méthode que l’on utilise pour estimer les
paramètres d’un modèle de régression est la méthode des moindres
carrés ordinaires.
On a
𝐸(𝑎) = 𝑎 et 𝐸 𝑏 = 𝑏
Et
σ²ε 1 𝑋²
Var(𝑎)= (𝑥𝑖 −𝑋)² et Var(𝑏)=𝜎 2 ε (𝑛 + )
(𝑥𝑖 −𝑋)²
Avec 𝜎 2 ε variance des erreurs
4 8 0 0 8,0001 0 0
28 56 0 28 6,71428578
1 𝑋² 1
σ𝑏 = σε + et σ𝑎 = σε
𝑛 (𝑥𝑖 −𝑋)² (𝑥𝑖 −𝑋)²
sont des statistiques qui suivent des lois de Student à (n-2) degrés de
liberté.
Les intervalles de confiance à un seuil α sont donnés par
𝑎−𝑡 α σ𝑎 ; 𝑎 + 𝑡 α σ𝑎
1− ;𝑛−2
2 1− ;𝑛−2
2
et
𝑏−𝑡 α σ ;𝑏 + 𝑡 α σ
1− ;𝑛−2 𝑏 1− ;𝑛−2 𝑏
2 2
Dans notre exemple
Semaines Vente en
milliers
1 6
2 4
3 6
4 8
5 10
6 10
7 12
𝑎 ∈ 0,7730; 1,6556
De même, nous avons 𝑏 = 3,1429, σ𝑏 =0,9794
b∈ 1,1694; 5,1164
Prévision à l’aide du modèle
Le modèle de régression est construit afin d’expliquer à partir
d’observations données dans quelles conditions se détermine la valeur
de la variable.
En prenant en compte que le modèle a été construit à partir d’un
certain échantillon de données , ce qui entraine un certain aléa, nous
pouvons estimer les valeurs futures de cette variable
Soit 𝑥𝑛+1 une nouvelle valeur, pour laquelle nous voulons prédire
𝑦𝑛+1 .
Le modèle est toujours le même
𝑌𝑛+1 = 𝑎𝑋𝑛+1 + 𝑏 + 𝜀𝑛+1
Avec 𝜀𝑛+1 indépendants des autres ε𝑖 et 𝜀𝑛+1 ~𝒩(0, σε )
2
1 (𝑋n+1 −𝑋)²
σ²𝜀𝑛+1 = 𝜎ε (1 + + )
𝑛 (𝑥𝑖 − 𝑋)²
2
1 (𝑋n+1 −𝑋)²
σ²𝜀𝑛+1 = 𝜎ε (1 + + )
𝑛 (𝑥𝑖 − 𝑋)²
𝜎ε 2 est estimé par σ²ε =1,3430
Donc
1 (8−4)²
σ²𝜀8 =1,3430*(1+ + )=2,3023
7 28
Et donc
σ𝜀8 =1,5173
Remarque
Ainsi la variance augmente lorsque xn+1 s’éloigne du centre de gravité
du nuage. Autrement dit, faire de la prévision lorsque xn+1 est “loin” de
𝑥 est périlleux, puisque la variance de l’erreur de prévision peut être
très grande !
Ceci s’explique intuitivement par le fait que plus une observation xn+1
est éloignée de la moyenne 𝑥 et moins on a d’information sur elle.
Intervalle de confiance pour la prédiction
Avec les notations et hypothèses précédentes, on a
𝜀𝑛+1
~𝑡𝑛−2
σ𝜀𝑛+1
d’où pour un α donné, on déduit l’intervalle de confiance suivant pour
yn+1 :
yn+1 − 𝑡 α σ𝜀𝑛+1 ; yn+1 + 𝑡 α σ𝜀𝑛+1
1− ;𝑛−2 1− ;𝑛−2
2 2
Exemple
Nous avons
σ𝜀8 =1,5173, yn+1 =12,84, 𝑡0,975;5 =2,015
donc
yn+1 − 𝑡 α σ𝜀𝑛+1 ; yn+1 + 𝑡 α σ𝜀𝑛+1
1− ;𝑛−2
2 1− ;𝑛−2
2
Donne
12,84 − 2,015 ∗ 1,5173; 12,84 + 2,015 ∗ 1,5173
On a
𝑦8 𝑎 𝑢𝑛𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 95% 𝑑′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑒𝑛𝑖𝑟 à 9,7826; 15,8973