:
Une équation de comportement
Une équation technique
Une équation institutionnelle
Une variable économique
Une variable systématique
Une variable aléatoire
Une variable endogène
Une variable exogène
Un paramètre structurel
Une série chronologique
Point d’observation en coupe transversale
Biais : le biais est l'écart systématique qui existe entre les résultats d'une méthode d'estimation
et la vraie valeur du paramètre qu'on cherche à estimer. Le biais s'évalue par une expérience
de pensée : qu'adviendrait-il en moyenne si l'on répétait de nombreuses fois la même méthode
d'estimation sur des échantillons différents ? La méthode d'estimation est sans biais si l'on
obtient alors, en moyenne, la vraie valeur.
Calibration : la calibration est une méthode pour quantifier les paramètres d'un modèle
théorique complexe. Elle se distingue de l'estimation par son caractère moins direct : elle
consiste à simuler le modèle pour différentes valeurs des paramètres et à retenir le jeu de
paramètres qui donne des résultats compatibles avec un ensemble de faits observés.
Convergent : une méthode d'estimation est convergente si les résultats qu'elle donne tendent
vers la vraie valeur du paramètre à estimer lorsque la taille de l'échantillon utilisé devient
infinie. Par exemple, un sondage électoral par tirage aléatoire dans les listes électorales est
une méthode convergente : si l'on augmentait la taille de l'échantillon jusqu'à couvrir toute la
population, on estimerait aussi précisément qu'on le souhaite les intentions de vote dans la
population.
Doubles différences : l'approche des doubles différences est une stratégie empirique qui
consiste à déduire l'effet causal d'un événement (ou traitement) en comparant les évolutions
d'un groupe affecté par cet événement (le groupe de traitement) et d'un groupe non affecté (le
groupe de contrôle). Pour être valide, la méthode des doubles différences suppose qu'on
puisse faire les deux hypothèses identificatrices suivantes : 1) les deux groupes auraient, en
l'absence de traitement, connu les mêmes évolutions ; 2) le groupe de contrôle n'a pas été
affecté, même indirectement, par le traitement.
Effet Hawthorne : dans le cadre d'une expérience contrôlée, l'effet Hawthorne est le
changement de comportement induit par le fait de participer à l'expérience, et non par le
contenu de l'expérience elle-même. L'effet Hawthorne peut biaiser les résultats de l'expérience
si l'on attribue à la mesure elle-même cet effet qui est lié au protocole expérimental et qui
disparaîtrait en conditions réelles.
Endogène : une variable est dite endogène si elle est déterminée à l'intérieur du système qu'on
étudie. En économétrie, le fait qu'une variable explicative soit endogène pose problème. En
effet, il n'est alors pas possible, à moins de mettre en œuvre des outils spécifiques (comme les
variables instrumentales), de savoir si les effets apparents de cette variable sont bien les effets
causaux qu'elle induit ou s'ils sont dus à des causes en amont, inobservées. Ces causes
inobservées sont alors un exemple de variable manquante (voir ci-dessous).
Erreur de la variable manquante (ou omise) : on parle d'erreur de la variable omise lorsqu'on
veut expliquer une variable dépendante (ou expliquée) par une variable explicative
particulière (dite variable d'intérêt) et qu'on ne tient pas compte d'une troisième variable
susceptible d'expliquer la variable dépendante et corrélée avec la variable d'intérêt. L'erreur de
la variable manquante vient biaiser l'estimation de l'effet causal : on attribue à la variable
d'intérêt des variations de la variable dépendante qui sont en réalité dues à la variable
manquante. Par exemple, lorsqu'on explique le salaire par la durée des études sans prendre en
compte le milieu social d'origine, l'erreur de la variable omise est qu'on interprète comme un
effet des études des hausses de salaire qui sont en partie dues au fait que ceux qui font des
études plus longues viennent de milieux plus aisés, ce qui leur facilite l'accès à des emplois
plus rémunérateurs.
Estimation : l'estimation consiste à quantifier un paramètre théorique, tel qu'il est défini pour
une population, à partir de l'observation d'une partie de la population, appelée l'échantillon.
Exogène : une variable est dite exogène si elle est déterminée en dehors du système qu'on
étudie.
Expérience naturelle : une expérience naturelle est un événement (par exemple, une réforme
législative, ou la naissance de jumeaux plutôt que d'un seul enfant) qui crée de façon non
intentionnelle une situation analogue à celle qu'aurait produite « artificiellement » une
expérience contrôlée. Par exemple, l'expérience naturelle crée une différence de traitement
fiscal entre deux groupes par ailleurs aussi comparables que s'ils avaient été définis par tirage
au sort ; on peut alors étudier l'effet du traitement fiscal en comparant ces deux groupes.
Expérimentation (ou expérience) contrôlée : l'expérience contrôlée consiste à traiter
différemment deux groupes d'individus par ailleurs strictement comparables, comme pour le
test clinique d'un médicament. La plupart du temps, on s'assure de la comparabilité des deux
groupes en y assignant les individus de façon aléatoire (tirage au sort).
Identification :stricto sensu, un paramètre est dit identifié lorsque les hypothèses qu'on fait
permettent de le définir de façon unique. Par exemple, les deux inconnues d'un système de
deux équations non colinéaires sont des paramètres identifiés. Plus concrètement, lorsque le
paramètre qu'on étudie est l'effet causal d'une variable sur une autre, ce paramètre est identifié
lorsqu'il existe une comparaison dont le résultat permette de déduire l'effet recherché.
L'identification repose en général sur des hypothèses dites identificatrices (voir ci-dessus
l'exemple des hypothèses identificatrices des doubles différences).
Inférence : l'inférence consiste à déduire les caractéristiques d'une population de l'observation
d'un échantillon, sur un mode probabiliste. Le caractère probabiliste de l'inférence provient du
risque d'erreur d'échantillonnage : si l'on a tiré par malchance un échantillon peu représentatif
de la population, il existe un écart entre la valeur estimée à partir de l'échantillon et la vraie
valeur dans la population. L'inférence prend typiquement la forme suivante : « Au vu de
l'échantillon tiré (et sous réserve qu'il ne soit pas particulièrement peu représentatif, ce qui
peut arriver dans x % des cas), on peut affirmer que la vraie valeur du paramètre se trouve
dans telle fourchette. »
Instrument (ou variable instrumentale) : un instrument est une variable qui remplit deux
conditions : 1) elle a un impact sur la variable explicative dont on souhaite mesurer l'effet ; 2)
elle n'a pas d'impact direct sur la variable expliquée (cette seconde condition est dite condition
d'exclusion).
Maximum de vraisemblance : la méthode du maximum de vraisemblance est une méthode
d'estimation alternative à d'autres méthodes comme les moindres carrés ordinaires. Elle
s'applique par exemple dans le cas où la variable expliquée est qualitative.
Moindres carrés ordinaires : les moindres carrés ordinaires sont la méthode standard
d'estimation d'une régression multiple (voir chapitre II).
Multicolinéarité : des variables sont (strictement) multicolinéaires si elles sont reliées par une
relation linéaire (i.e. l'une d'entre elles est la somme pondérée des autres). Dans ce cas, il n'est
pas possible d'estimer simultanément les effets linéaires de chacune de ces variables : il faut
nécessairement en ôter une. On parle de multicolinéarité approchée lorsque les variables sont
presque reliées par une relation linéaire. L'estimation est alors possible, mais imprécise,
surtout si l'échantillon est petit. Par exemple, l'expérience professionnelle et l'âge étant
presque colinéaires, il est difficile d'estimer séparément leurs effets sur le salaire.
Panel : un panel est un suivi de plusieurs individus sur plusieurs périodes. Les données varient
donc dans deux dimensions : la dimension interindividuelle et la dimension intra-individuelle,
ou temporelle.
Réduit : une estimation est en forme réduite lorsqu'on étudie l'effet d'une variable sur une
autre sans détailler les mécanismes intermédiaires, et sans quantifier les paramètres
fondamentaux sous-jacents (en particulier, les paramètres qui décrivent les comportements
microéconomiques). « Réduit » s'oppose à « structurel ». Par exemple, une estimation en
double différence de l'effet d'un traitement est une estimation en forme réduite (voir chapitre
V, section « Une évaluation de dispositif : l'allègement des charges sur les emplois à bas
salaires »).
Régression : méthode d'analyse d'une variable dépendante (ou expliquée) en fonction d'une ou
plusieurs variables indépendantes (ou explicatives). On parle de régression simple lorsqu'il y a
une seule explicative, de régression multiple sinon (voir chapitre II).
Résidus : lors d'une estimation, les résidus sont les variations de la variable dépendante (ou
expliquée) dont les variables explicatives ne permettent pas de rendre compte. Ils reflètent
l'existence d'un terme d'erreur (principalement l'erreur de mesure) ainsi que l'omission de
certaines variables explicatives.
Significativité : la significativité statistique reflète le fait qu'on peut ou non, à un niveau de
confiance donnée (i.e. avec un risque d'erreur donné), affirmer qu'un paramètre est différent
de 0. C'est une question d'inférence : au vu de ce qui est observé dans l'échantillon, est-il
possible d'affirmer (avec un risque d'erreur donné) que deux variables sont liées dans la
population ?
Stochastique : une variable est stochastique si elle comporte une part d'aléa : elle peut prendre
différentes valeurs selon l'état du monde qui se réalise.
Structurel : une estimation est dite structurelle si elle vise à identifier des paramètres
fondamentaux (dits structurels) comme, par exemple, les préférences des agents
microéconomiques. « Structurel » s'oppose à « réduit ». L'approche structurelle suppose de
faire un lien précis entre un modèle théorique où les comportements sont modélisés et le
modèle statistique estimé (voir l'exemple du chapitre V, section « Une approche structurelle :
estimer les possibilités de substitution entre travail et capital »).
Variables qualitatives : une variable est qualitative si elle peut prendre un nombre fini de
valeurs (par exemple, une variable indicatrice ou binaire qui vaut 0 ou 1 – l'individu sort du
chômage ou non). Lorsqu'on veut expliquer des variables qualitatives, des modèles
spécifiques s'appliquent (modèles logit et probit) : voir chapitre IV, section « Les
enseignements des "expériences naturelles" en France ».
Histoire de l'économétrie
La société d'économétrie et la Cowles Commission
Si la science économique s'est souvent tournée vers les mathématiques pour appréhender son
objet d'étude, on peut considérer que l'économétrie commence à se développer sous sa forme
moderne dans les années 1920. L'économiste norvégien Ragnar Frisch va jouer un rôle
important dans la naissance de cette discipline et dans son institutionnalisation. On lui attribue
d'ailleurs souvent la paternité du terme. En 1930, accompagné d'Irving Fisher, il fonde la
Société d'économétrie (Econometric society) dont l'objet essentiel est de " favoriser les études
à caractère quantitatif qui tendent à rapprocher le point de vue théorique du point de vue
empirique dans l’exploration des problèmes économiques ", puis en 1933, il crée la revue
Econometrica qui sera le principal véhicule de la pensée économétrique.
Les travaux de la Cowles Commission for research in economics (groupe de recherche créé en
1932 à l'université du Colorado, qui s'installe à l'université de Chicago puis à l'université de
Yale, dont les travaux portent sur la relation entre les théories économiques, les
mathématiques et les statistiques) permettront le développement de techniques d'estimations
pour des systèmes d'équations simultanées. Trygve Haavelmo, lauréat du P"prix Nobel
d'économie" en 1989, fait partie de ce groupe de recherche.
Elle acquiert tout d'abord une forte renommée grâce à l'attribution de nombreux "prix Nobel
d'économie", à des économistes réputés pour le formalisme mathématique de leurs travaux.
Elle gagne du terrain dans le champ de la science économique qui devient de plus en plus
dépendante des mathématiques.
Elle acquiert un statut institutionnel de plus en plus important. En France par exemple, son
enseignement est dispensé dans de nombreuses universités.
Les techniques économétriques se perfectionnent, ce qui les rend plus opérationnelles, et ce
qui en fait des outils précieux d'aides aux décisions économiques.
On peut distinguer deux grandes périodes dans la recherche économétrique moderne. Jusqu'à
la fin des années 1970, les travaux s'orientent vers la spécification et la solvabilité de modèles
macroéconomiques à équations simultanées. Puis, à la suite de l'introduction des anticipations
rationnelles et de la critique de Lucas, la recherche se tourne vers la microéconomie et
l'analyse des séries temporelles.
Dans les techniques économétriques au sens strict, on trouve en premier lieu les modèles de
régression linéaire classiques qui reposent sur de nombreuses hypothèses, puis des modèles
plus complexes, qui font sauter une à une ces mêmes hypothèses.
l'agrégation des comportements des agents économiques qui ne prennent pas tous leur
décision de manière rigoureusement identique,
l'existence d'erreurs de mesure des variables,
l'existence des variables explicatives qui ne sont pas inclues dans la relation,
des erreurs qui viennent de ce que la vraie relation n'est pas linéaire.
Dans ces trois derniers cas l’on dit que la relation a été mal spécifiée. Ces sources d'erreurs
dont considérées comme aléatoires. On les appelle des éléments aléatoires. Très souvent on
suppose que de ces éléments aléatoires autour de la valeur théorique, suit une loi normale, ce
qui permet de faire des estimations des paramètres du modèle d'ajustement, et d'effectuer des
tests. L'objectif est alors de trouver des relations linéaires entre les variables qui minimisent
l'erreur aléatoire. Différentes méthodes existent. On peut par exemple utiliser la méthode des
moindres carrés.
La technique de régression dans les modèles linéaires classiques s'appuie sur quelques
hypothèses fondamentales :
Lorsqu'on fait sauter une ou plusieurs de ces hypothèses, on entre dans des modèles
économétiques particuliers, dont les modèles non linéaires.
Concernant les applications, l'économétrie va trouver des débouchés dans la finance et dans
les politiques économiques budgétaires et financières. Le modèle développé par Black et
Scholes par exemple, permet de calculer la valeur des options. Des modèles
macroéconométriques ont également été mis en place dès les années 1950 pour prévoir
l'impact des politiques économiques. La question se pose dès lors de savoir si l'utilisation des
modèles macroéconométriques a un impact sur son objet d'étude. Problème que les
monétaristes et les théoriciens des anticipations rationnelles comme Lucas ne manqueront pas
de souligner.
Bref, l'économétrie est bien loin d'être une " science dure ". Cependant, si on fait abstraction
de ces nombreuses difficultés, il faut admettre qu'elle a fait preuve d'une certaine efficacité
pour mesurer l'impact des politiques macro-économiques. La partie " validation des théories "
faisant quant à elle l'objet d'interminables controverses.
D'autre part, on remarquera que le succès de l'économétrie ne fait pas forcément l'unanimité
chez les économistes. Certains penseurs de l'école autrichienne comme Ludwig von Mises,
contestent l'intérêt de la formalisation du comportement économique. De plus, comme John
Kenneth Galbraith l'avait noté, l'économie professionnelle est organisée hiérarchiquement :
économie hétérodoxe à la base, économie néo-libérale au sommet et les formes les plus
mathématiques de l'économie néo-libérale à la pointe. On se doute bien que ce classement
hiérarchique crée des dissensions au sein de la communauté des économistes, dont certains
membres refusent d'adopter un formalisme mathématique jugé parfois excessif et superflu.
Il faut aussi noter que récemment, l'économie expérimentale, nouvelle branche de l'économie
consistant à effectuer des expériences de laboratoire pour tester les modèles micro-
économiques, est venue concurrencer l'économétrie sur le terrain de la validation des théories.
Les résultats qui émanent de cette nouvelle discipline sont souvent en contradiction flagrante
avec les hypothèses qui sous-tendent les modèles écométriques fondés sur des modèles
d'équilibre général, ce qui tend à réduire la portée heuristique de la micro-économétrie.
Économétrie
L’économétrie est une discipline au croisement de l'économie et de la statistique, et désigne
généralement l’ensemble des techniques statistiques, et mathématiques pour mesurer diverses
grandeurs afin d’en déduire ou de vérifier des relations entre celles-ci, des phénomènes
économiques. (Par exemple la relation entre niveau d’étude, et salaire…)
Ainsi à partir de données récoltées (données de panel, séries temporelles, Tableaux
statistiques issus d’échantillons), et avec des outils mathématiques pour les traiter, méthodes
pour présenter ces données de manières visibles (Graphes, Histogrammes, ou indicateurs
particuliers: [Moyenne, écart type, Mode, coefficient de variation…]), il est possible de tirer
quelques conclusions générales à partir d’observations particulières(inférence statistique)
L’économétrie comporte aussi un volet d’expérimentation dépassant la simple étude
statistique à partir de données de la comptabilité nationale ou autres instituts producteurs de
données quantitatives tels l’INSEE. Cette expérimentation va permettre de mieux vérifier les
relations de corrélation ou causalité, ce qui est d’une grande utilité quand il s’agit de mesurer
l’impact que va avoir telle ou telle mesure affectant un système socioéconomique (qu’il soit
local, tel un village ou de plus grande échelle), et/ou de voir la réalité d’un modèle
économique.
Méthodes de Régression
La régression statistique est une des méthodes de traitement de données statistique parmi les
plus utilisées, notamment pour représenter des données statistiques par des formules qui
«résument» en quelques signes de tels tableaux de données. Il s’agit d’extrapoler, de dégager
des relations entre différentes variables à partir d’un ensemble de données (par exemple le
taux de scolarisation, selon telle pour telle variable).
Sous ce nom générique, il y a plusieurs techniques selon le nombre de variables utilisées, mais
aussi la forme de la relation dégagée. La plus simple étant la régression linéaire avec une
relation de type affine (chaque variable associée à un coefficient est de degré 1), où un nuage
de point est approché par une droite par la méthode des moindres carrés ordinaires (MCO:
minimisation de l’erreur provoquée par la régression)
Utilité
En économie, l'utilité est la satisfaction engendrée par la consommation. Elle dépend de la
quantité de biens consommés.
Utilité marginale
l'utilité marginale est l'utilité supplémentaire engendrée par la consommation d'une unité
supplémentaire de bien. Mathématiquement, elle correspond à la dérivée de l'utilité en
fonction de la quantité de biens consommés.