Vous êtes sur la page 1sur 4

DS 1 Le modèle linéaire simple

QCM Répondre par vrai ou Faux


1/ L’économétrie sert seulement à valider les modèles proposés par la théorie
économique

1/ Faux. L'économétrie sert à la fois à valider les modèles proposés par la


théorie économique et à les estimer en utilisant des données empiriques.

2/ Les données qui combinent une dimension temporelle et une dimension


individuelle sont appelées « données en coupe instantanée »

2/ Faux. Les données qui combinent une dimension temporelle et une


dimension individuelle sont appelées "données de panel" ou "données
longitudinales".

3/Il est possible d’observé ε t

3/ Vrai. εt représente généralement le terme d'erreur aléatoire dans un


modèle économétrique, et il est possible de l'observer à partir des résidus
ou des écarts entre les valeurs observées et les valeurs prédites par le
modèle.
Questions
1/ Donner les estimateurs de β 0 et β 1selon la méthode MCO

La méthode des moindres carrés ordinaires (MCO) est une technique


couramment utilisée pour estimer les paramètres d'une régression linéaire.
Pour un modèle de régression linéaire simple avec une variable explicative,
les estimateurs des coefficients β₀ (l'ordonnée à l'origine) et β₁ (la pente)
sont calculés comme suit :

Estimateur de β₀ (l'ordonnée à l'origine) : β₀ = ȳ - β₁x̄

Estimateur de β₁ (la pente) : β₁ = Σ ((xi - x̄)(yi - ȳ)) / Σ((xi - x̄)²)

Où :

 ȳ est la moyenne des valeurs observées de la variable dépendante (y),


 x̄ est la moyenne des valeurs observées de la variable explicative (x),
 xi et yi sont les valeurs individuelles observées de x et y, respectivement,
 Σ représente la somme des éléments sur l'ensemble des observations.

Ces formules permettent de calculer les estimateurs des coefficients de la


régression linéaire par la méthode des moindres carrés ordinaires (MCO).

2/ Donner les hypothèses nécessaires pour que les estimateurs des MCO
affichent les bonnes propriétés statistiques.
Pour que les estimateurs des moindres carrés ordinaires (MCO) affichent
les bonnes propriétés statistiques, certaines hypothèses doivent être
satisfaites. Voici les hypothèses clés du modèle de régression linéaire sous-
jacent :

1. Linéarité : La relation entre la variable dépendante et les variables


explicatives est linéaire dans les coefficients. Cela signifie que la relation
fonctionnelle entre les variables peut être représentée par une équation
linéaire.
2. Homoscédasticité : La variance des erreurs est constante pour toutes les
valeurs des variables explicatives. Autrement dit, la dispersion des résidus
autour de la ligne de régression est constante.
3. Non-colinéarité : Les variables explicatives ne sont pas parfaitement
corrélées entre elles. Une colinéarité parfaite peut entraîner des problèmes
d'identification des coefficients et des estimations instables.
4. Valeurs attendues nulles des erreurs : Les erreurs ont une moyenne nulle
conditionnelle pour chaque valeur des variables explicatives. Cela signifie
que, en moyenne, les erreurs ne sont pas systématiquement biaisées.
5. Aucune corrélation sérielle : Les erreurs ne sont pas corrélées entre elles au
fil du temps ou de l'observation. Il ne devrait pas y avoir de structure de
dépendance temporelle ou spatiale dans les erreurs.
6. Normalité des erreurs : Les erreurs suivent une distribution normale avec
une moyenne nulle et une variance constante. Cette hypothèse n'est pas
nécessaire pour l'efficacité des estimateurs, mais elle est essentielle pour
réaliser des tests statistiques valides et pour construire des intervalles de
confiance.

Lorsque ces hypothèses sont satisfaites, les estimateurs des MCO


présentent des propriétés statistiques souhaitables, notamment l'efficacité,
la consistance et la normalité asymptotique.

3/ Définir le R2 ou le coefficient de détermination

Le coefficient de détermination, également appelé R², est une mesure


statistique utilisée pour évaluer la qualité d'ajustement d'un modèle de
régression aux données observées. Il indique la proportion de la variance
de la variable dépendante qui est expliquée par les variables explicatives du
modèle.

Le R² est une valeur comprise entre 0 et 1. Une valeur de 0 indique que le


modèle ne parvient pas du tout à expliquer la variabilité de la variable
dépendante, tandis qu'une valeur de 1 indique que le modèle explique
parfaitement la variabilité de la variable dépendante.

Mathématiquement, le R² est calculé de la manière suivante :

R² = 1 - (SSE / SST)

où :

 SSE (Sum of Squares Error) est la somme des carrés des résidus, qui
représente la variation non expliquée par le modèle.
 SST (Sum of Squares Total) est la somme des carrés totale, qui représente la
variation totale de la variable dépendante par rapport à sa moyenne.

Plus le R² est proche de 1, plus le modèle est capable d'expliquer la


variation de la variable dépendante. Cependant, il est important de noter
que le R² seul ne fournit pas d'informations sur la validité des variables
explicatives ou la pertinence du modèle. Il est recommandé de l'interpréter
conjointement avec d'autres mesures d'évaluation du modèle.

Vous aimerez peut-être aussi