Vous êtes sur la page 1sur 22

LSG2 FSEGS 2020-2021

STATISTIQUE INFERENTIELLE

Introduction

CHAPITRE I: LES LOIS STATISTIQUES

2éme Année Licence Sciences de Gestion

ESSADDIK.E Page 1
LSG2 FSEGS 2020-2021

Introduction

Terminologie : induction- déduction

On parle de problème d’induction, si la population présente une grande variabilité, cela va


empêcher de conclure avec certitude sur la population à partir des données acquises sur un
échantillon. Quand on parle de variabilité, on aborde le problème de l’incertitude. Quand on a
des données sur l’échantillon on a de l’information.

Statistique descriptive et Statistique inférentielle

La statistique descriptive s’intéresse à la sous-population formée par l’échantillon. Elle a pour


objet de décrire la variabilité de l’échantillon.

La statistique inférentielle s’intéresse à la population dont l’échantillon est issu. Elle vise inférer
à partir des seules caractéristiques de l’échantillon , des propriétés générales concernant la
population. Elle est basée sur la théorie des probabilités et correspond à la démarche inverse.

Schéma représentatif

Echantillon
Echantillon
Population

Stat. Inférentielle Théorie des probabilités


Théorie des probabilités : Connaissant la distribution d’une variable dans une population,
la théorie des probabilités permet de tirer aléatoirement un échantillon.

La statistique inférentielle : On va faire l’inverse : l’inférence statistique consiste à


induire les caractéristiques inconnues d’une population à partir d’un échantillon issu de dette
population.

Les caractéristiques de l’échantillon, une fois connues reflètent avec une marge d’erreur
possible celles de la population. En effet, à partir des valeurs prises, par une variable sur un
échantillon, la statistique inférentielle essaie de préciser la distribution de la variable dans la
population.

On parle de recensement, si les valeurs observées des variables sont relatives à l’ensemble
de la population observée → on utilise alors la Statistique descriptive , on n’a pas besoin de
statistique inférentielle. L’étude statistique concerne l’étude des caractéristiques d’une
population.

ESSADDIK.E Page 2
LSG2 FSEGS 2020-2021

Le sondage : dans ce cas, on s’intéresse à une partie de la population appelée :


échantillon .Au chapitre 2 de ce cours, on va nous intéresser aux diverses méthodes de sondage
. A travers l’étude des caractéristiques de l’échantillon , on cherche à extrapoler à la
population entière ces propriétés mises en évidence sur l’échelle → Statistique
inférentielle.

Avantages de la statistique inférentielle : Avoir de l’information. Pour résoudre le problème


de l’induction on a recours à la Théorie des probabilités.

.Hypothèses :

 La population est considérée comme infinie ( très grande) .


 Les variables statistiques qui la décrivent sont considérées comme des variables
aléatoires : En effet, la valeur prise par la variable statistique X pour un individu donné
de la population ne peut pas être déterminée avec précision. Elle dépend de plusieurs
paramètres, alors considérée comme résultat d’une expérience aléatoire .
 La répartition des valeurs de ces variables sont caractérisées par des lois de
probabilité : La répartition d’une variable statistique X sur la population est décrite par
une loi de probabilité :
- Qui est caractérisée par une densité de probabilité X continue ou une séquence de
fréquences relatives à chacune de ses valeurs (X discrète) .
- Possédant des caractéristiques ( E (X) , V(X)) qui résument la distribution .
 Des variations simultanées de 2 ou plusieurs variables statistiques sont décrites par une
loi jointe : ( variable continues ou discrétes ) .
 Ces lois de probabilité sont :
- Totalement inconnues : Problème de statistique inférentielle non paramétrique (on
ignore la loi) .
- Partiellement inconnues : La loi est connue mais les paramètres sont inconnus
problème de statistique inférentielle paramétrique.

Objectifs :

 Tirer des conclusions concernant certaines caractéristiques de la population à partir des


informations contenues dans l’échantillon .
 Identifier les lois dans un échantillon de valeurs de variables obtenu à travers un sondage
dans la population, grâce aux méthodes suivantes : d’estimation, des tests
d’hypothèses , de modélisation et de prévision .
 La pertinence de ces méthodes repose sur la qualité du sondage effectué → théorie de
l’échantillonnage .

La théorie des probabilités est l’analyse mathématique des phénomènes dans lesquels le hasard
intervient . Cette théorie va servir comme outil de base à un ensemble de méthodes ou de règles
permettant d’utiliser des données pour fixer la précision avec laquelle on estime les paramètres
ou on teste les hypothèses.

ESSADDIK.E Page 3
LSG2 FSEGS 2020-2021

Rappel

Propriétés de l’espérance et de la variance

Soit X une variable aléatoire

 ∀a∈ℝ: E (X + a) = E(X) + a
 ∀a∈ℝ: E (a X) = a E(X)
 Si X et Y sont 2 variables aléatoires : E (X + Y ) = E(X) + E(Y)
 V(X) ≥ 0
 ∀a∈ℝ: V (X + a) = V (X)
 ∀a∈ℝ:: V (a X) = a2 V(X)
 Si X et Y sont deux variables aléatoires, V (X + Y ) = V (X) + V(Y)

Covariance et coefficient de corrélation


1
Cov(X,Y) = ∑𝑛𝑖:1(𝑥𝑖 − 𝑋̅ )(𝑦𝑖 − 𝑌̅)
𝑛

𝐶𝑜𝑣(𝑋,𝑌)
𝜌𝑋,𝑌 =
𝜎𝑋 𝜎𝑌

1
Avec 𝜎𝑋 = √𝑉(𝑋) = √ ∑𝑛𝑖:1(𝑥𝑖 − 𝑋̅)2
𝑛

Si 𝜌𝑋,𝑌 -1 : Forte corrélation négative


0 : Absence de corrélation

1 : Forte corrélation positive

ESSADDIK.E Page 4
LSG2 FSEGS 2020-2021

LES LOIS STATISTIQUES

Objectifs du chapitre :- Présentation de quelques notions en probabilité


- Présentation de quelques lois usuelles discrètes et continues (servant à
l’estimation par intervalles de confiance et à réaliser les différents tests statistiques)

I/ Probabilité et variables aléatoires :


1- Définitions

* Le résultat d’une expérience aléatoire est appelé événement . La quantification des


chances qu’un tel événement se réalise s’appelle probabilité .

* Un espace aléatoire :l’ensemble des résultats possibles = événements élémentaires =


univers .

*notion de probabilité : C’est une expérience dont on ne peut pas prévoir le résultat à
priori. Soit Ω un ensemble fondamental ou l’ensemble des résultats possibles . A  Ω : A
est une partie de Ω appelée : événement . on cherche à probabiliser tous les événements de
Ω.  A  Ω , on lui associe une probabilité : 0  P (A)  1.

P : A → [0,1]

A ⟼ P(A)
Exemple : On tire une boule dans une urne contenant une boule noire, deux blanches et cinq
rouges. D’où : Ω = {noire, blanche, rouge}.

2- Tribu d’événements :

Un événement étant un élément de P(Ω) obéit à la théorie des ensembles.

Ensemble Evénement
On a observé le résultat 𝜔, 𝜔 ∈ 𝐴. L’évènement A est réalisé.
A=B Les évènements A et B sont identiques .
A⊂𝐵 L’évènement A implique l’évènement B.
∅ Evènement impossible
Ω Evènement certain.
A∪𝐵
Un au moins des deux évènements est réalisé.
A 𝐵
Les deux événements A et B sont réalisés.
A 𝐵 = ∅.
Les deux événements A et B sont incompatibles.
𝐴̅ = Ω - A
L’évènement A n’est pas réalisé.

Le couple (Ω, P(Ω)) est un espace probabilisable .

ESSADDIK.E Page 5
LSG2 FSEGS 2020-2021

Soit une épreuve aléatoire un ensemble non vide des parties de Ω qui vérifie les conditions
suivantes :

 ∀ A ∈ 𝒜 alors 𝐴̅ ∈ 𝒜.
 ∀ A ∈ 𝒜 et B ∈ 𝒜 , alors A ∪ 𝐵 ∈ 𝒜.
 ∀ A ∈ 𝒜 et B ∈ 𝒜 , alors A 𝐵 ∈ 𝒜.

Propriétés :

i) L’événement impossible est de probabilité nulle : P(∅) = 0


ii) P (𝐴̅) = 1 – P (A) ; 𝐴̅  𝒜 ; A est stable par complémentation.  A 𝒜 → 𝐴̅  𝒜 .
iii) P ( A ∪ B ) = P(A) + P(B) ; avec A  B = ∅ . A et B sont stables par union disjointe :

 A 𝒜 et B  𝒜 ; A ∪ B  𝒜 .

P ( A ∪ B ) = P(A) + P(B) -P (A  B)

iv) A⊂ B ⇒ 𝑃 (𝐴) ≤ 𝑃(𝐵).


𝒄𝒂𝒓𝒅 𝑨 𝒏𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒄𝒂𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔
Calcul de P(A) = =
𝒄𝒂𝒓𝒅Ω 𝒏𝒐𝒍𝒎𝒃𝒓𝒆 𝒅𝒆 𝒄𝒂𝒔 𝒑𝒐𝒔𝒔𝒊𝒃𝒍𝒆𝒔

* Probabilités conditionnelles :

Soit l’espace probabilisé (Ω, A, P) et un événement particulier B de A / P(B) > 0 . La


connaissance de la réalisation de B modifie la probabilité de réalisation d’un événement
élémentaire, vu que l’ensemble des résultats possibles est devenu B et pas Ω. On note : A/B ,
𝑷(𝑨∩𝑩)
A sachant B . P(A/B ) =
𝑷(𝑩)

Elle est fonction des évènements ayant une partie commune avec B et A .

*Indépendance en probabilité :
Deux événements A et B sont indépendants ssi : P(𝐴 ∩ 𝐵) = P(A) P(B)
𝑷(𝑨∩𝑩)
D’où : P(A/B ) = = P(A/B ) = P(A) P(B)
= P(B) : la réalisation d’un évènement ne
𝑷(𝑩) 𝑷(𝑩)
modifie pas la probabilité de réalisation de l’autre.

3- Variable Aléatoire :
Une variable aléatoire qui suit une certaine loi de probabilité, ses réalisations, ses
échantillons, sont encadrés par ces probabilités de réalisation.

Une variable aléatoire X est une variable associée à une expérience ou un groupe
d’expériences et servant à caractériser le résultat de cette expérience ou de ce groupe
d’expériences. On distingue des Variables Aléatoires Discrètes (VAD) et des variables
aléatoires continues (VAC).

ESSADDIK.E Page 6
LSG2 FSEGS 2020-2021

a/ Variables Aléatoires Discrètes ( VAD) :

Une VAD prend un nombre dénombrable de valeurs. L’ensemble des valeurs prises par X
s’écrit sous la forme : {𝑥𝑖 , 𝑖 ∈ 𝐸 } , avec E ⊂ ℕ. La loi de la variable aléatoire X est la suite des
probabilités pi = P (X = 𝒙𝒊 )= p(x) ,  i ∈ 𝐸.

La relation entre x et p(x) est appelée loi de probabilité. Elle vérifie les conditions suivantes :

P(x) ≥ 𝟎 𝒆𝒕 ∑𝒊 𝒑𝒊 =1. ⇒ 𝑫𝒆𝒏𝒔𝒊𝒕é 𝒅𝒆 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒕é (ddp) d’une VAD.

Espérance de X notée: 𝜇𝑥 = E(X) : E(X) = ∑𝑖 𝑥𝑖 𝑃(𝑥𝑖 ),

Variance : 𝜎𝑥2 correspond à l’espérance des carrés des écarts par rapport à la moyenne :

𝜎𝑥2 = 𝐸 [(𝑋 − 𝜇𝑥 )2 ] = ∑𝑖 (𝑥𝑖 − 𝜇𝑥 )2 𝑃(𝑥𝑖 ) = ∑𝑖 𝑥𝑖2 𝑃(𝑥𝑖 ) - 𝜇𝑥2

= ∑𝑖 𝑥𝑖2 𝑃(𝑥𝑖 ) - ∑𝑖 (𝑥𝑖 𝑃(𝑥𝑖 ))2

Soit 𝜎𝑥 = √𝜎𝑥2

Fonction de répartition :Appelée aussi : fonction de distribution cumulée , F(X) , exprime la


probabilité que X ne dépasse pas la valeur de x. F(X) = P (X ≤ xi) = ∑𝑖 𝑝𝑖

La fonction de répartition F associée à X est croissante, à valeurs dans [0,1] , vérifie :

lim F ( x)  0; lim F ( x)  1 , d’où 0 ≤ F(X) ≤ 1


x  x 

La dérivée de F s’appelle densité de x ou Px.

On a aussi, la probabilité que X soit comprise entre a et b ( b > a)/ P ( a x b) = F (b) - F (a)

Exemple : Soit X : La variable aléatoire relative à la somme de deux dés.

On va lancer deux dés homogènes simultanément et on s’intéresse à la somme obtenue.

Tableau : La distribution de probabilité pour la somme des deux dés

Xi pi
2 1/36
3 2/36
4 3/36
5 4/36
6 5/36
7 6/36
8 5/36
9 4/36
10 3/36
11 2/36
12 1/36
Total 1

ESSADDIK.E Page 7
LSG2 FSEGS 2020-2021

Détails du calcul des probabilités :

P(Xi = 2) = 1/36 = ( dé 1, dé1)

P(Xi = 3) = (1, 2) ou (2,1) = 1/36 + 1/36 = 2/36

P(Xi = 4) = (3,1) ou (1,3) ou (2,2 ) = 3/36

P(Xi = 5) = (4,1 ) ou (1,4) ou (3,2) ou (2,3) = 4/36

P(Xi = 6) = (5,1 ) ou (1,5) ou (4,2) ou (2,4) ou (3,3) = 5/36 = 1/36 + 1/36 + 1/36 + 1/36 + 1/36

P(Xi = 7) = (6,1 ) ou (1,6) ou (5,2) ou (2,5) ou (3,4) ou (4,3) = 6/36

P(Xi = 8) = (6,2 ) ou (2,6) ou (5,3) ou (3,5) ou (4,4) = 5/36

P(Xi = 9) = (6,3 ) ou (3,6) ou (5,4) ou (4,5) = 4/36

P(Xi = 10) = (7,3 ) ou (3,7) ou (5,5) = 3/36

P(Xi = 11) = (5,6 ) ou (6,5) = 2/36

P(Xi = 12) = (6,6) = 1/36

Moyenne et écart type d’une vad : Une population est caractérisée par son espérance E(X) et
son écart type 𝜎.

La moyenne de la variable aléatoire « X :la somme des deux dés » .

𝜇 = 2 (1/36) + 3(2/36) +4 (3/36) + 5 (4/36) + 6(5/36) +7 (6/36) + 8(5/36) + 9(4/36) +10 (3/36)
+ 11 (2/36 ) +12 (1/36) = 7.

On peut aussi calculer d’une autre manière, en ajoutant une colonne 𝑥𝑖 𝑝𝑖 au tableau .

Xi pi 𝑥𝑖 𝑝𝑖
2 1/36 2/36
3 2/36 6/36
4 3/36 12/36
5 4/36 20/36
6 5/36 30/36
7 6/36 42/36
8 5/36 40/36
9 4/36 36/36
10 3/36 30/36
11 2/36 22/36
12 1/36 12/36
Total 1 7

E (X) = 7 = ∑𝑖 𝑥𝑖 𝑝𝑖

ESSADDIK.E Page 8
LSG2 FSEGS 2020-2021

Interprétation : la moyenne théorique est égale à 7. Cad, si on répète cette expérience aléatoire,
plusieurs fois () , toujours la moyenne espérée des sommes obtenues serra égale 7.

Calcul de l’écart-type de la VAX = somme des 2 dés :

Formule à appliquer : 𝜎 = √∑𝑖 (𝑥𝑖 − 𝜇)2 𝑝𝑖 ; il suffit alors d’ajouter au tableau 3 colonnes :

𝑥𝑖 − 𝜇 ; (𝑥𝑖 − 𝜇)2 ; (𝑥𝑖 − 𝜇)2 𝑝𝑖

Xi 𝑥𝑖 − 𝜇 (𝑥𝑖 − 𝜇 ) 2 pi (𝑥𝑖 − 𝜇)2 𝑝𝑖


2 -5 25 1/36 25/36
3 -4 16 2/36 32/36
4 -3 9 3/36 27/36
5 -2 4 4/36 16/36
6 -1 1 5/36 5/36
7 0 0 6/36 0
8 1 1 5/36 5/36
9 2 2 4/36 16/36
10 3 9 3/36 27/36
11 4 16 2/36 32/36
12 5 25 1/36 25/36
Total 1 210/36

On a alors : 𝜎 = √210/36 = 2.42

On sait que l’écart-type est une mesure de dispersion, plus la valeur de 𝜎 est petite , plus la
probabilité que la VA soit proche de la moyenne est élevée.

Répartition de 720 lancers de 2 dés en fonction de la somme obtenue

Xi ni fi
2 15 0.0208
3 42 0.0583
4 57 0.0792
5 84 0.1167
6 108 0.15
7 112 0.1556
8 94 0.1306
9 77 0.1069
10 66 0.0917
11 41 0.0569
12 24 0.0333
Total 720 1

b/ Variable Aléatoire Continue (VAC) :

Une VAC est une variable aléatoire telle que l’ensemble des valeurs possibles
correspond à un intervalle réel . Exemple : le poids, la taille …

ESSADDIK.E Page 9
LSG2 FSEGS 2020-2021

On appelle VA réelle définie sur (Ω, 𝐴) , une application X : Ω → ℝ / ∀ l’intervalle I


⊂ ℝ on a : X-1(I) = {𝜔 ∈ Ω/X(𝜔) ∈ 𝐼 } ∈ 𝐴.

Un intervalle continu contient une infinité de valeurs. La probabilité d’obtenir


exactement un résultat donné est généralement nulle. La notion de distribution de probabilité
n’a donc pas de sens dans le cas continu. La fonction de répartition conserve sa signification.

f(x) , est la dérivée de la fonction de répartition de F(x), appelée fonctions de ddp. Une
VAC est caractérisée par une probabilité positive et le cumul de sa ddp doit être égal à 1.
+∞
f une ddp pour une VAC, ssi : 𝐟 ≥ 𝟎 ∀ 𝐱 ∈ ℝ 𝐞𝐭 ∫−∞ 𝐟(𝐱)𝐝𝐱 = 𝟏

x
Fonction de répartition : 𝐹 (𝑥 ) = ∫−∞ f(t)dt = P(X≤ 𝑥)

Propriétés d’une VAC :

 P(X= x) = 0.
 P(X≤ 𝑥) = P(X< 𝑥)
b
 P ( a ≤ x≤ b) = F (b) - F (a) = ∫a f(t)dt
 P(X≥ 𝑥) = 1 - P(X≤ 𝑥) = 1 – F (b)

+∞
Espérance : E(X) = ∫−∞ 𝒙 𝒇(𝒙)𝒅𝒙 ;

+∞
Variance : V(X) = E(X2) - [E(X) ]2 = ∫−∞ (𝑥 )2 𝑓 (𝑥 )𝑑𝑥 − [E(X) ]2

II/ Les lois usuelles discrètes :

Certaines distributions de probabilités de VA correspondent aux modèles de


phénomènes aléatoires , Elles sont appelées : lois de probabilité , on distingue deux types lois
Discrétes et lois Continues .

1-La loi uniforme:

On dit que X suit la loi uniforme discrète définie sur X() = 0, 1, 2, ..,n si elle admet
𝟏
pour fonction de probabilité : f(x) = 𝑷(𝑿 = 𝒙) = ; ∀ x ∈ X(𝜴)
𝒏

On dit que les événements sont équiprobables (cad ont des probabilités identiques) :
1
𝑃 (𝑋 = 𝑥1 ) = 𝑃(𝑋 = 𝑥2 ) = ⋯ … . = 𝑃(𝑋 = 𝑥𝑛 ) = ; ∀ x ∈ X(𝛺)
𝑛

ESSADDIK.E Page 10
LSG2 FSEGS 2020-2021

𝒏+𝟏 𝒏𝟐 −𝟏
Espérance et variance : E(x) = V(X) =
𝟐 𝟏𝟐

Exemple : Le jet du dé, exercice traité dans le cas de VAD.

2-La loi de Bernoulli:

Soit une population infinie composée d’un premier type d’individus en proportion p et un
second type en proportion 1-p. L’expérience aléatoire qui consiste à tirer au hasard un individu
de cette population fait apparaitre l’événement A « l’individu tiré est du type 1 » avec une
probabilité p. 𝐴̅ : L’individu tiré est du type 2 avec une probabilité 1- p .

On définit la variable aléatoire de de Bernoulli X / X =1 si l’évènement se réalise et X =0 sinon.


On dit que X suit la loi de Bernoulli de paramètre p , où 0 <p<1 ; (X → ℬ(𝑝)) si elle
admet comme fonction de probabilité :

f(x) = 𝑷(𝑿 = 𝒙) = px (1-p)1-x ; ∀ x ∈ X(𝜴) = {𝟎, 𝟏}

𝑃(𝑋 = 0) = 1- p
{
𝑃(𝑋 = 1) = p

Espérance et variance: E(x) = p V(X) = p (1-p)

Fonction génératrice des moments : Mx(t) = (𝟏 − 𝐩) + 𝒆𝒕 𝒑

Propriétés : La loi de Bernoulli: n’est pas stable par addition : la somme de 2 variables
Bernoulli de même paramètre n’est pas une variable de Bernoulli .

Soient 2 variables aléatoires indépendantes X1 et X2 / X1 → ℬ(𝑝1 ) et X2 → ℬ(𝑝2 ), la


variable Z = X1 + X2 ne suit pas une loi de Bernoulli.

Exemple1 : Si on jette une pièce de monnaie équilibrée. Soit X une VA / X= 1 si pile, et


X= 0 sinon.

Exemple2 : Au service des mines et lors de la visite technique d’une voiture, on définit
la variable aléatoire X = 1 si la voiture est acceptée et X = 0 sinon. D’après l’expérience, les
voitures acceptées sont en proportion p , alors X suit une loi de Bernoulli de paramètre p. (X →
ℬ(𝑝)).

ESSADDIK.E Page 11
LSG2 FSEGS 2020-2021

3-La loi Binomiale:

Elle joue un rôle important pour obtenir des estimations de pourcentages, ou de taux.

Définition :

Une épreuve de Bernoulli , est une expérience aléatoire qui ne comporte que deux
résultats possibles : succès / échec . Soit p la probabilité de réalisation du succès ; 1-p : la
probabilité de réalisation de l’échec .

Si on répète l’expérience n fois dans les mêmes conditions et ces expériences sont
indépendantes alors la variable aléatoire X : Nombre de succès obtenu suit une loi binomiale.

On dit que X suit la loi Binomiale de paramètre n et p ; X→ 𝐵 (𝑛, 𝑝) si elle admet pour
fonction de probabilité :

f(x) = 𝑷(𝑿 = 𝒙) = C nx px (1-p)n-x ,  x = 0, 1…..n

Avec n : Nombre d’expériences répétées

p : la probabilité de succès à chaque expérience .

Elle peut être aussi décrite comme une suite en terme de variables aléatoires, en associant à
l’expérience une variable de type Bernoulli ( (p) ) Xi / Xi = 1 s’il s’agit de succès et Xi = 0
sinon . (x1, x2,….. xn) n variables indépendantes .

On définit la V A X , le nombre de succès dans la suite des n expériences .

X = f (x1, x2,….. xn)/ X = ∑𝒏𝒊:𝟏 𝒙𝒊 ,  i 𝜖 {0,1 … . 𝑛}

Alors la variable aléatoire X = ∑𝑛𝑖:1 𝑥𝑖 suit la loi binomiale (n, p).

𝒏!
Remarque : La combinaison C nx , avoir x parmi n est calculée ainsi : C nx =
𝒑!(𝒏−𝒙)!

Espérance et variance : E(x) = np V(X) = np (1-p).

Fonction génératrice des moments : Mx(t) = ((𝟏 − 𝐩) + 𝒆𝒕 𝒑)𝒏


Addition: Si deux variables aléatoires indépendantes X1 et X2 suivent respectivement
(n1 , p) et (n 2 , p) alors (X1+ X2 ) suit une loi binomiale (n1 +n 2 , p) .

Exemple1 : Un hôpital possède 50 chambres. Au printemps, le taux de remplissage est de 75%.


On note X : le nombre de chambres occupé un jour donné, c’est une variable aléatoire.

x 𝜖 {0,1 … .50} prend un nombre fini de valeurs → une VAD.

La loi de X est une loi binomiale de paramètres n = 50 et p = 0.75.

ESSADDIK.E Page 12
LSG2 FSEGS 2020-2021

 i {0,1 … .50} , on a : f(x) = 𝑃(𝑋 = 𝑥) = 𝐶50


𝑥 𝑥 (
𝑝 1 − 𝑝)50−𝑥 , avec p =0.75
50
La probabilité que l’hôtel soit complet : P(X=50) = 𝐶50 0.7550 (1 − 0.75)0 = 0.7550

Exemple 2 : Dans une grande population, on compte 40 % des individus qui sont fumeurs. On
prend au hasard un échantillon de 30 personnes. On définit la variable aléatoire X : « Le nombre
d’individus qui sont fumeurs dans l’échantillon tiré. » Alors X suit la binomiale B (30 ,0.4).

4-La loi Hypergéométrique:

Cette loi intervient dans le cas de plusieurs expériences aléatoires dépendantes


auxquelles on associe un caractère étudié quelconque. Elle dépend de 3 paramètres.

On considère une population de taille N dont K individus présentent exactement un


certain caractère A. On prélève sans remise un échantillon de n individus. Soit X la VA qui
représente le nombre d’individus ayant le caractère A dans l’échantillon .

On dit que X suit la loi Hypergéométrique ( X →H(n, N, K)). Si elle admet pour fonction
𝑪𝒙𝑲 𝑪𝒏−𝒙
𝑵−𝑲
de probabilité : f(x) = 𝑷(𝑿 = 𝒙) =
𝑪𝒏
𝑵

avec: 𝑴𝒂𝒙[0 ; n-(N-K)] ≤ x ≤ Min (n, K)

Si Max =0 et min =n alors 0 x n ; X() = 0, 1, ..,n

Espérance et variance :

K K N K N-n N-n
E(x) = n = np V(X) = n = np (1-p)
N N N N-1 N-1

K N-n
Avec: = p et :le facteur d’exhaustivit é.
N N-1

Exemple : Dans une population de 40 personnes dont 6 sont originaires du Sud, 14 du Nord, 12
de l’Est et 8 de l’Ouest. On choisit au hasard un échantillon de 4 personnes.

La variable aléatoire X désigne le nombre d’individus de l’échantillon qui sont originaires du


Nord. La population étant finie et les prélèvements s’effectuent sans remise ; X suit une loi
Hypergéométrique ( X →H(n, N, K Hypergéométrique ( X →H(n, N, K)

N = 40, n=4, K = 14. ( X →H(4, 40, 14).

X(Ω) = {0,1,2,3,4}

ESSADDIK.E Page 13
LSG2 FSEGS 2020-2021

0 𝐶4
𝐶14 26
Probabilité de n’avoir aucune personne du Nord : P(X=0) = 4 = 0.1636
𝐶40

Avoir 0 individus du nord ,revient à choisir les 4 individus parmi ceux qui ne sont pas du ord
0 4
(40-14=26) cad faisant partie des autres régions =𝐶14 𝐶26 / cardinal de Ω = choisir 4 individus
parmi 40.

5-La loi de Poisson:

Cette loi décrit le nombre d’apparition X pendant un instant t d’un événement dont la
réalisation ne dépend pas du nombre de réalisations passées et n’influence pas sur les futures.

Exemple d’application de cette loi : nombre de pannes d’une chaine de production, le nombre
d’appels téléphoniques par minute dans un centre d’appel, le nombre de clients dans une file
d’attente dans une grande surface, nombre de conducteurs passés à un péage pendant une
période de temps ….

On dit que X suit la loi de Poisson de paramètre  ; (X P( ) ) , où >0; si elle admet


𝑒 −𝜆 𝜆𝑥
pour fonction de probabilité : f(x) = 𝑃(𝑋 = 𝑥) = ;∀x ∈ ℕ
𝑥!

Espérance et variance: E(x) =  V(X) = 


𝒕
Fonction génératrice des moments : Mx(t) = 𝒆𝝀(𝒆 −𝟏)
Addition: Si deux variables aléatoires indépendantes X1 et X2 suivent respectivement
les lois P(1) et P(2) alors la variable (X1+ X2) suit une loi de Poisson de paramètre (1+2).

Exemple : Le nombre de clients observé au cours de cinq minutes dans une file d’attente
au guichet d’une banque est une variable aléatoire X qui suit la loi de poisson de paramètre  .

III/ Les lois usuelles continues :

1-La loi uniforme :

Soit X une variable aléatoire continue . On dit que X a une distribution uniforme sur
l’intervalle a,b si sa densité de probabilité (d.d.p) s’écrit sous la forme suivante :

𝟏
; 𝒙 ∈ [𝒂, 𝒃]
f(x) = { 𝒃−𝒂
𝟎 ; 𝐬𝐢𝐧𝒐𝒏

On note : X →U [𝑎,b] .
La densité est constante sur a,b .

ESSADDIK.E Page 14
LSG2 FSEGS 2020-2021

𝒂+𝒃 (𝒃−𝒂)𝟐
Espérance et variance: E(x) = V(X) =
𝟐 𝟏𝟐

𝒆𝒃𝒕 −𝒆𝒂𝒕
Fonction génératrice des moments : Mx(t) = (𝒃−𝒂)𝒕

0; 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
Fonction de répartition : F(X) = {𝑏−𝑎 ; 𝑎 ≤ 𝑥 < 𝑏
1; 𝑠𝑖 𝑥 ≥ 𝑏
Propriétés :

-La loi uniforme n’est pas stable par addition. La somme de deux ou plusieurs variables
uniformes ne suit pas une loi uniforme.

-La transformation linéaire d’une variable uniforme est une variable qui suit la loi
uniforme.

Exemple : Le temps d’attente de rames de métro se suivant à un intervalle de temps 𝛼


minutes est une VA X →la loi uniforme [0, 𝛼 ] ,

𝛼 𝛼2
E(X) = ,V(X) = , 𝑎𝑣𝑒𝑐 𝛼: 𝑙𝑎 𝑑𝑢𝑟é𝑒 𝑑′ 𝑎𝑡𝑡𝑒𝑛𝑡𝑒 𝑚𝑎𝑥𝑖𝑚𝑎𝑙 .
2 12

2- La loi Gamma :
Cette loi est utilisée généralement dans la modélisation de durée de vie, durée d’une
tache de production …soit X  𝛾(p, 𝜃) , avec p > 0 𝑒𝑡 𝜃 > 0.
𝜽𝒑
La ddp est la suivante : f(x) = 𝒙𝒑−𝟏 𝒆−𝜽𝒙, ∀ x > 𝟎
𝚪(𝐩)
+∞ 𝒑−𝟏 −𝒛
Où 𝚪 (p) = ∫𝟎 𝒛 𝒆 𝒅𝒛, ∀ p > 𝟎.

Propriétés :
i) Γ (1) = 1, ii) Γ (p) = (p-1) Γ (p-1) , ∀ p> 1
iii) Γ (p) = (p-1) ! ∀ p= 2,3…., iv) Γ (1/2) = √𝜋

Γ(p+α)
Espérance et variance: E(𝑋 𝛼 ) = , pour p + α > 0,
Γ(p)𝜃 𝛼
𝒑 𝒑
E(X) = , V(X) =
𝜽 𝜽𝟐
𝛉 𝐩
Fonction génératrice des moments : Mx(t) = ( ) ,∀𝛉>𝟏
𝛉−𝐭

ESSADDIK.E Page 15
LSG2 FSEGS 2020-2021

Exemple :Une société utilise 4 machines de même type où le fonctionnement sans panne
d’une machine quelconque ne dépend pas de celui d’une autre. La durée de fonctionnement
sans panne de la machine i , i = 1,….4. est une variable aléatoire Zi → 𝛾 (p, 𝜃)
On définit V = ∑4𝑖:1 𝑍𝑖 : la durée totale du fonctionnement sans panne des 4 machines ,
W = ¼ V la durée moyenne du fonctionnement par machine. U = a V
V → 𝛾(4p, 𝜃)
𝜃 𝜃
W → 𝛾 (4p, 1/4) = (4p, 4𝜃) ; U→ 𝛾 (4p, 𝑎 )

3- La loi exponentielle :
C’est un cas particulier de la loi Gamma 𝛾 (p, 𝜃) pour p = 1 : avec , 𝜃 ≻ 0
X → 𝛾 (1, 𝜃) ⇔ X → exp(𝜽) ; Sa ddp est : f(x) = 𝜽 𝒆−𝜽𝒙 ; 𝒙 ≻ 0

𝟏 𝟏
Espérance et variance: E(𝑿) = , V(X) =
𝜽 𝜽𝟐
𝜽
Fonction génératrice des moments : Mx(t) = ( ), ∀ 𝜽 > 𝒕
𝜽−𝒕

Soient X1 , X2,..Xn, n variables aléatoires indépendantes de même loi , avec X i →exp(𝜃)

, 𝑥𝑖 → 𝛾(1, 𝜃) i:1…..n. On a :
𝟏
∑𝒏𝒊:𝟏 𝒙𝒊 → 𝜸(𝐧, 𝜽) et W = ∑𝒏𝒊:𝟏 𝒙𝒊 → 𝜸(𝐧, 𝐧𝜽)
𝒏
Exemple :
La durée de transfert d’un courrier électronique n’est pas prévisible avec certitude à
l’avance. On modélise la durée de transfert par une variable aléatoire X distribuée selon une loi
exponentielle , d’espérance mathématique E(𝑋) = 𝛽 . On a pris à n moments différents d’une
journée un échantillon de n durées (en milles secondes) X1 , X2, ……,Xn.
L’expérience porte sur le même message , alors on suppose que les expériences sont
indépendantes .
1 1
On cherche la ddp de X , on a E(𝑋) = 𝛽 = , alors X → exp ( )
𝜃 𝛽
1
1 − 𝑥
f(x) = 𝑒 𝛽 , ∀𝑥 ≻ 0
𝛽
1
𝛽 1
Fonction génératrice des moments = 1 =
−𝑡 1−𝛽𝑡
𝛽
1
Pour déterminer la loi de 𝑥̅ = ∑𝑛𝑖:1 𝑥𝑖 , on procède ainsi:
𝑛

ESSADDIK.E Page 16
LSG2 FSEGS 2020-2021

1
Les variables X1 , X2, ……,Xn sont indépendantes et suivent , Xi iid →exp ( ) ⟺
𝛽
1 1 𝑛
𝛾 (1, ), i :1…n . alors ∑𝑛𝑖:1 𝑥𝑖 → 𝛾 (𝑛, ) d’où 𝑥̅ → 𝛾 (𝑛, )
𝛽 𝛽 𝛽

𝛽 2
E(𝑋̅) = 𝛽 ; V(𝑋̅) =
𝑛
4 -La loi normale généralisée : (Laplace Gauss)

La loi normale joue un rôle important en recherche statistique et intervient dans la


définition d’autres lois. La loi normale ou loi de Laplace Gauss est une des distributions que
l’on rencontre le plus souvent en pratique. Elle occupe une position importante en probabilités
et en statistiques. Une multitude des phénomènes correspond à cette loi.

Soit X une VA à valeurs dans ℝ. On note : X→N(m, ) : la variable X suit la loi


normale de moyenne m et d’écart type . La fonction de répartition de X, notée F(X), se déduit
𝑋−𝑚
𝜎 −𝑡2
𝑋−𝑚 1
comme suit : F(x) = F( )= ∫ 𝑒 2 𝑑𝑡
𝜎 √2𝜋
−∞

La d.d.p s’obtient par dérivation et s’exprime ainsi :


−𝟏 𝑿−𝒎 𝟐
𝟏 ( )
f(X) = 𝒆 𝟐 𝝈 , ∀ 𝑿 ∈ ℝ, 𝝈 > 𝟎
𝝈√𝟐𝝅
Cette fonction est symétrique par rapport à m. Cette fonction admet un maximum pour
Y = m.
Espérance et variance: E(X) = m V(X) = 2

𝟏
Mx(t) = 𝒆𝒎𝒕 𝒆𝟐 
𝟐𝐭 𝟐
Fonction génératrice des moments :

Propriétés :
 La transformation linéaire d’une variable normale est une variable normale.
Si X → N (m, 2) , alors Y = a X + b → N (a m + b, a2 2) .
 Soient (X1, X2,…Xn) n variables aléatoires indépendantes , Xi → N(𝑚𝑖 , 𝜎𝑖2 ), i :1….n,
alors : ∑𝑛𝑖:1 𝑋𝑖 → N(∑𝑛𝑖:1 𝑚𝑖 , ∑𝑛𝑖:1 𝜎𝑖2 ) ; de plus , si 𝑚𝑖 = 𝑚 𝑒𝑡 𝜎𝑖2 = 2 ∀ i :1….n alors
∑𝑛𝑖:1 𝑋𝑖 → N(𝑛𝑚, 𝑛2).

ESSADDIK.E Page 17
LSG2 FSEGS 2020-2021

5 -La loi normale centrée et réduite :

La loi normale centrée et réduite est définie soit par sa densité de probabilité soit par sa
fonction de répartition. Elle admet l’ensemble des nombres réels comme ensemble de valeurs
−𝒁𝟐
𝟏
possibles et sa d.d.p s’écrit : f(Z) = 𝒆 𝟐 ; ∀ z ∈ ℝ.
√𝟐𝝅

𝑿−𝒎
Si X → N (m, 2) alors : Z = → N (0, 1)
𝝈

Cette fonction de densité est symétrique par rapport à l’axe des ordonnées.

𝑧 −𝑡2
1
La fonction de répartition notée F(Z) est définie par : F(Z) = ∫ 𝑒 2 𝑑𝑡
√2𝜋
−∞

La fonction de répartition est toujours croissante .


Espérance et variance : E(Z) = 0 V(Z) = 1

Propriétés: x 0 , on a :

F(-x) = 1 – F(x) P(-x <X <x) = 2 P(X x) –1


P( X  x) =1- F(x)  P(xa X xb) = F(xb) - F(xa)
 P( |𝑿| < x) =2 F(x) –1

Calcul pour la loi normale :


X une variable normale de moyenne 𝑚 et d’écart-type 𝜎 . pour calculer P(X x), on
𝑋−𝑚
se ramène à une loi normale standard, , soit U = ⇔X=𝜎Y+µ
𝜎
𝑋−𝑚 𝑋−𝑚
P(X x) = P(𝜎 U + m x) = P(U )=F( )
𝜎 𝜎
Liens entre les lois Si la loi U est une loi normale de moyenne 0 et d’écart-type 1, alors
la loi de X = 𝜎 U + m est une loi normale de moyenne m et d’écart-type 𝜎.

Lecture de la table statistique de la fonction de répartition d’une loi normale centrée


et réduite
Soit Z → N(0,1) , déterminer la probabilité F(z) = P(Z< z) . Il suffit de lire les valeurs de
la table statistique.

ESSADDIK.E Page 18
LSG2 FSEGS 2020-2021

P(Z< 1.96 ) = F(1.96) = 0.975

P( Z  1.64) =1- P(Z< 1.64 ) = 1- F(1.64) = 1- 0.9495 = 0.0505 = 5.05%

P(Z< - 1.96 ) =1- P(Z< 1.96 ) = 1- F(1.96) = 0.025

Chercher la valeur de z / P(Z< z ) = 0.997 , en lisant sur la table : z = 2.75.

Si on a une loi normale N(m,𝜎 2 ) , dans ce cas , on ne peut pas calculer P(X< 𝑥) d’après
𝑋−𝑚
la lecture de la table. Il faut commencer par centrer et réduire la variable.Soit Z =
𝜎
Exemples :
𝑋−4
-Si X est une loi normale de moyenne 4 et d’écart-type 2. On pose Y = 2
6.5−4
P(X 6.5) = P(2Y+4 6.5) = P (Y ) = P (Y 1.25) = 0.8944 =89.44%
2

ESSADDIK.E Page 19
LSG2 FSEGS 2020-2021

𝑋−1 2.52−1
-Soit X → N(1,4) , alors : P(X< 2.52) = P( < ) = P(Z < 0.76) = F(0.76) =
√4 √4

0.7764 = 77.64% .

IV/ Les dérivées de la loi normale :


Ces lois sont construites à partir de la loi de Gauss et sont très utiles pour la construction
des intervalles de confiance (chapitre estimation) et l’élaboration des tests d’hypothèses.
1-La loi de khi-deux :
Soient X1 , X2,…, Xi,…, Xn une suite de n variables aléatoires normales centrées
réduites et indépendantes. Xi →N(0,1) ∀ 𝑖: 1 … . 𝑛. La variable aléatoire
n
2 2 2 2 2
Z = X + X +...+X +...+X =
1 2 i n X i2 suit une loi de probabilité n de densité :
i:1

𝟎 ; si Z≤0 𝒏
𝒏 +∞
𝒖𝟐 −𝟏 𝒆−𝒖du
𝒏 −𝒁
f(Z) = { 𝟏𝒏 𝟏
𝐳 𝟐
−𝟏
𝒆 , 𝒔𝒊 𝒁 > 𝟎 ; où 𝜞(𝟐) = ∫𝟎
𝟐
𝒏
𝟐𝟐 𝜞( 𝟐 )

2
La variable aléatoire n est dite variable khi-deux à n degrés de liberté (d.d.l). Lorsque
2
n → ∞, la distribution de n tend vers une loi normale de paramètres E(U) et V(U) .
Espérance et variance: E(Z) = n ; V(Z) = 2n
𝒏
−𝟐
Fonction génératrice des moments : : MZ(t) = (𝟏 − 𝟐𝒕) ; ∀ 𝒕 < 𝟏/𝟐.
Propriétés: Le carré d’une variable centrée et réduite est une variable distribuée selon
une loi 𝜒 2 (1) .

2 2
Addition: La somme de deux lois de n est une loi de n . Si X et Y sont deux variables
2 2 2
aléatoires indépendantes / X→ n1 et Y→ n 2 alors X + Y→ n1 n2 .

𝑋−𝜇
Exemple : Soit X → N (𝜇, 𝜎 2 ) , la variable est distribuée selon une loi normale centrée et
𝜎
𝑋−𝜇 2
réduite , alors W = ( ) → 𝜒 2(1) .
𝜎

Table statistique des quantiles de la loi du khi-deux

Soit U→ 𝜒 2 (n) , on veut déterminer u / P(U< 𝑢) = 𝛼 , sachant que 𝛼 𝑒𝑡 𝑛 𝑠𝑜𝑛𝑡 donnés . u est
interprété le quantile d’ordre 𝛼 de la loi de khi-deux à n degrés de liberté. Soit u = 𝜒𝛼2 (n).

ESSADDIK.E Page 20
LSG2 FSEGS 2020-2021

Exemple : U→ 𝜒 2 (8) et 𝛼 = 5%. le quantile d’ordre 0.05 de la loi de khi-deux à 8 degrés de


2
liberté :𝜒0.05 (8) = 2.733.
2-La loi de Student :
2
Soit un couple (X,Y) de variables aléatoires indépendantes / X→N(0,1) et Y→ n
𝑿
alors la variable aléatoire : W = suit une loi Student à n degrés de liberté de densité de
𝒀

𝒏
𝐍(𝟎,𝟏)
probabilité : W → 𝝉 (n) , avec ; t = 𝟐
; n ∈ ℕ∗
√𝝒 (𝒏)
𝒏

n
Espérance et variance: E(W) = 0 pour n>1 ; V(W) = pour n>2
n 2

Pour n = 1 et n = 2 la loi n’admet pas de variance finie.

Propriétés : La ddp de W est symétrique par rapport à 0. D’où :


t α (n) = - t1−α(n) : Le quantile d’ordre 𝛼 est l’opposé du quantile d’ordre 1- 𝛼.
f(-t) = f(t)
F(-t) = 1- F(t)
< 0; 𝑠𝑖 𝛼 < 0.5
t α (n) {= 0; 𝑠𝑖 𝛼 = 0.5
> 0; 𝑠𝑖 𝛼 > 0.5
Exemple : Soit X → 𝒯 (7), déterminer le quantile t/ P( X < 𝑡) = 0.05
t0.05(7) = -1.895 = -t0.95(7)

3-La loi de FISHER-SNEDECOR:


2
Soit un couple (X,Y) de variables aléatoires indépendantes telles que : X n1 et
𝑋
2 𝑛1
Y n 2 alors la variable aléatoire : W = 𝑌 𝑠uit une loi de FISHER à (n1 ,n2) ddl.
𝑛2

2
n1
𝒏𝟏
F n1 , n 2 = 2
; 𝑛1 ∈ ℕ∗ et 𝑛2 ∈ ℕ∗
n2
𝒏𝟐

F n1 , n 2 est telle que : P ( W > Fp n1 , n 2 ) = p

On a : P ( W > Fp n1 , n 2 ) = p ⇔ P ( W < Fp n1 , n 2 ) = 1- p.

ESSADDIK.E Page 21
LSG2 FSEGS 2020-2021

Espérance et variance :

𝑛2 2𝑛22 (𝑛1 +𝑛2 −2)


E(W) = pour n2 > 2 ; V(W) = si 𝑛2 > 4
𝑛2 −2 𝑛1 (𝑛2 −2)2 (𝑛2 −4)

Remarques :
𝑌
1 𝑛2 1
-Si W F n1 , n 2 , alors U = = 𝑋 F n 2 , n1 , ⇔ F n 2 , n1 =
W F n1 , n 2
𝑛1

1
On peut écrire aussi : Fp n 2 , n1 =
𝐹1−𝑝 (𝑛1, 𝑛2 )

- Si W F 1, n 2 ⇔ W (𝜏(𝑛2 ))2

𝟐
2
1
𝟏 (𝑵(𝟎,𝟏))𝟐 𝑵(𝟎,𝟏) 2
F 1, n 2 = 2
= 2
= = (t(n2 ))
n2 n2 𝝌𝟐 (𝒏𝟐 )

𝒏𝟐 𝒏𝟐 𝒏𝟐
( )
Table statistique des quantiles de la loi de FISHER

Soit W F n1 , n 2 , on veut déterminer w/ P(W> w) = p ; p , n1 , n 2 sont donnés ,

w = FP n1 , n 2 sont des valeurs de la table pour p =0.01 ou 0.05 et les différentes valeurs n1 , n 2

ESSADDIK.E Page 22

Vous aimerez peut-être aussi