Vous êtes sur la page 1sur 38

COURS DE STATISTIQUE INFERENTIELLE 1 : LOIS DE

PROBABILITES (20h00/15h00/10h00)
C.T. MAKALA MAKAMBU JOVIN GRATIEN

PLAN DU COURS

Chapitre 0 : Introduction

Chapitre 1 : Caractéristiques d’une variable aléatoire


1.1 : Caractéristiques de tendance centrale

1.2. Caractéristiques de dispersion

Chapitre 2 : Lois de probabilités discrètes les plus usuelles

2.1. La loi de Dirac

2.2. La loi de Bernoulli

2.3. La loi binomiale

2.4. La loi hypergéométrique

2.5. La loi de Poisson

2.6. La loi géométrique

2.7. La loi binomiale négative

Chapitre 3 : les lois continues les plus usuelles

3.1 : La loi uniforme continue

3.2. La loi exponentielle

3.3. La loi normale ou loi de Gauss et lois associées

Chapitre 4 : Relations entre probabilités et statistiques

4.1 : L’inégalité de Tchebicheff

4.2. La loi des grands nombres

4.3. Le théorème central-limite

4.4. Applications

4.5. Ajustement d’une distribution observée à une loi théorique

1
CHAPITRE 0 : INTRODUCTION

0. 1. OBJECTIF DU COURS

Le cours de Statistique Inférentielle (Statistique Mathématique) a un double but. Il s’agit d’abord


d’apporter des compléments de culture générale aux étudiants qui se tourneront vers le métier de
Statisticien. A cet effet, il présente les principes qui orientent l’action des décideurs et des outils
qualitatifs et quantitatifs qui éclairent leurs choix.

Le cours permet également à l’étudiant d’approfondir les techniques statistiques qui seront utiles
pour résoudre les problèmes fréquemment rencontrés par les décideurs dans la vie professionnelle
(sondages, gestion des unités de production, études de marché, enquêtes d’opinion, contrôle, impact
d’un événement d’un phénomène ou d’une action sur une grandeur mesurée, audit, prévision,
planification des besoins, décisions financières et comportements stratégiques, etc.). La Statistique
inférentielle permet de prédire, de déduire ou de modéliser. Il s’agit de faire parler des données en
environnement, économie, production industrielle, contrôle de qualité, sociologie, psychologie, en
santé, etc.

Le cours présente les principales applications des calculs des probabilités à la statistique
(échantillonnage, estimation, principaux tests, etc.). La problématique de l’inférence statistique consiste,
à partir d’un échantillon de données provenant d’une population de loi de probabilité inconnue, à
déduire des propriétés sur cette population : quelle est sa loi (problème d’estimation), comment prendre
une décision en contrôlant au mieux le risque de se tromper (problème de test).La première partie c’est-
à-dire la Statistique Inférentielle 1 est consacrée à un complément de calcul des probabilités axé sur
l’extension de la notion de variable aléatoire, les lois usuelles, relations entre probabilités et statistiques,
ajustement d’une distribution observée à une loi théorique. La seconde partie c’est-à-dire la Statistique
Inférentielle 2 vise à étudier l’échantillonnage et les problèmes de jugements de l’échantillon. Le cours
fait appel à la statistique, le calcul et la théorie des probabilités et les mathématiques.

0.2. Définition de la statistique inférentielle ou mathématique

Selon Serge Bernam et René Bezard, La Statistique Inférentielle ou Mathématique ou encore


Analytique est la partie des mathématiques appliquées qui permet, à partir de l‘observation d‘un
échantillon, d‘induire la loi de distribution de la population dont il a été tiré (qu‘on appelle habituellement
population mère) et d‘apprécier la marge d‘incertitude affectant le résultat de cette induction ».
Cette définition doit être complétée et précisée.
Supposons d‘abord qu‘on s‘intéresse à un caractère donné d‘une population, par exemple, une
certaine cote d‘une pièce fabriquée en grande série. On ignore en général la loi de distribution de cette
population. Pour pallier cette ignorance on fait appel au calcul des probabilités, dont l‘objet est de fournir
des modèles mathématiques, c‘est-à-dire des distributions théoriques, dans le cas où le hasard
intervient ; ces modèles mathématiques sont naturellement les lois de probabilité que nous exposerons
aux chapitres I (distributions discrètes) et II (distributions continues).
On considère alors le caractère statistique donné comme une variable aléatoire X dont on va
déterminer la loi de probabilité, précisée elle-même par les valeurs de l‘espérance mathématique E(X)
et de l‘écart type σ(X) de cette variable aléatoire

2
A cette fin, on choisit à priori une loi de probabilité (souvent une loi normale ou de Gauss ou
une autre loi si elle n‘est pas normale) et l‘on s‘efforce d‘en déterminer les paramètres (E(X) et σ(X)).
Pour ce faire, on relève par les méthodes statistiques descriptives qu‘on exposera dans le cours de
Statistique Inférentielle 2 (cfr Chapitre 1 : Théorie d’échantillonnage) les valeurs de la moyenne et de
l‘écart type d‘un échantillon dont on peut disposer. (il vaut mieux que cet échantillon soit déjà d‘une
certaine taille, mais on peut également tirer partie d‘échantillons petits et même très petits).
Ces valeurs des paramètres de position E(X) et de dispersion σ(X) de la distribution de l‘échantillon
permettent, au prix de certaines « manipulations », d‘évaluer avec une marge d‘incertitude connue, les
paramètres de la distribution de la population. La technique de ces manipulations porte le nom de
théorie de l’estimation objet du chapitre 2 du cours de Statistique Inférentielle 2.
Le domaine de la statistique mathématique ne se limite pas à la seule théorie d‘estimation. Il s‘étend
notamment à la théorie des tests d’hypothèses (objet du dernier chapitre du cours de Statistique
Inférentielle 2) dont nous définissons l‘objet dans deux cas particuliers importants :
- Nous pouvons d‘abord nous trouver amené à comparer entre deux échantillons ; il est normal qu‘ils ne
soient pas strictement identiques même tirés d‘une population mère unique, puisqu‘ils ont été constitués
par tirages aléatoires ; mais on peut se demander à partir de quel seuil les différences constatées entre
ces deux échantillons sont significatifs, c‘est-à-dire non explicables par le seul hasard de
l‘échantillonnage ; en d‘autres termes, dans quelle mesure peut-on dire que deux échantillons extraits
d‘une même population
- Un autre cas, très fréquent en matière de contrôle des fabrications, est celui de la conformité à un
standard : il s‘agit de déterminer le seuil à partir duquel on est en droit de juger que les écarts entre les
caractéristiques mesurées sur un échantillon et les valeurs standard deviennent significatifs d‘un défaut
généralisé de fabrication, c‘est-à-dire ne sont plus imputables aux seuls aléas du prélèvement de
l‘échantillon.
La détermination de ces seuils fait appel à la méthode des tests d’hypothèses ainsi appelée parce qu‘on
part toujours d‘une hypothèse a priori : dans le premier cas, on part de l‘hypothèse que les deux
échantillons proviennent d‘une même population mère et, dans le deuxième cas, on part de l‘hypothèse
que les fabrications sont conformes au standard imposé.
Ces tests sont de trois espèces :
- ou bien on veut s‘assurer que l‘échantillon prélevé vérifie bien la loi de distribution adoptée pour la
population ; c’est un test d’ajustement
- ou bien on compare entre eux les différents paramètres observés sur plusieurs échantillons censés
extraits d‘une même population et l‘on apprécie dans quelle mesure les différences observées entre ces
échantillons sont significatives ou non, et, par là même, dans quelle mesure ces échantillons doivent
être considérés comme extraits de populations différentes ou non ; on dit alors qu‘on procède à un test
paramétrique - ou bien on ignore tout des populations dont les échantillons à comparer sont extraits ; on
utilise alors les méthodes des tests non paramétriques. C’est fréquemment le cas au stade de la
recherche expérimentale lorsqu‘on compare les résultats de deux traitements nouveaux et différents
conçus dans un même but.
La Statistique Inférentielle 1 permet d’abord de faire un rappel sur les variables aléatoires et leurs
caractéristiques, d’aborder ensuite les lois de probabilités usuelles ou les plus utilisées et d’établir enfin
les relations existant entre probabilités et statistiques.

3
CHAPITRE 1 : CARACTERISTIQUES D’UNE VARIABLE ALEATOIRE
1.1. Rappel de la notion de variable aléatoire

Travailler directement avec l’ensemble P(Ω) des évènements peut devenir gênant du fait de
l’inconfort qu’occasionnent les données non numériques que cela suppose. Pour contourner cette
contrainte, mais aussi pour rendre opérationnels certains concepts statistiques, il est intéressant
d’introduire des valeurs numériques pour décrire les évènements de P(Ω) même si ces valeurs sont
souvent arbitraires.
1.1.1. Définition de la variable aléatoire discrète
On appelle variable aléatoire discrète définie sur(Ω, A ), une application X : Ω→ R telle que
X(Ω) est dénombrable et telle que pour tout x on ait :
X ( x )= { ω ϵ Ωtel que X ( ω )=x } ϵ A
−1

1.1.1.2. Définition de la variable aléatoire réelle continue


On appelle variable aléatoire réelle continue définie sur (Ω, ), une application X : Ω⟶ R telle que
∀ I ⊂ R on ait :
X ( I )= {ω ∈ Ω/ X (ω)∈ I } ∈ A
−1

L’image inverse d’un intervalle quelconque est un évènement.

1.2. Caractéristiques d’une variable aléatoire


1.2.1. Caractéristiques de tendance centrale
1.2.1.1 : Quantiles
Soit α tel que 0<α<1. On appelle quantile ou fractile d’ordre α d’une variable aléatoire X dont
la fonction de répartition est F, la ou les valeurs xα telle(s) que F(xα)=α.

C’est-à-dire telle(s) que P(X≤xα)=α.

NB :La médiane d’une variable aléatoire X est le quantile d’ordre α=1/2.

i
Le quartile qi d’une variable aléatoire X est le quantile d’ordreα = avec i∈ { 1 ,2 , 3 }.
4

i
Le décile di d’une variable aléatoire X est le quantile d’ordre α = avec i {1 ,2 , 3 , 4 , 5 , 6 , 7 , 8 , 9}
10

1.2.1.2 : Mode
Le mode est la valeur la plus probable. C’est la valeur x 0 pour laquelle le diagramme en bâton ou
l’histogramme présente son maximum.

Dans le cas d’une variable aléatoire continue dont la densité f est une fonction continue, admettant
une dérivée f’ et une dérivée seconde f’’, le mode vérifie les relations suivantes :

f’(x0)=0 et f’’(x0) <0

Le mode correspond alors à un point d’inflexion de la courbe cumulative.

4
1.2.1.3. Espérance mathématique
a) Définition (variable aléatoire discrètes)

Soit une variable aléatoire discrète X. L’espérance mathématique de X notée E(X) est la
moyenne pondérée de toutes les valeurs possibles xi par les probabilités correspondantes pi.
k k
E ( X )=∑ x i pi=∑ xi P X ( X=x ¿¿ i)¿
i=1 i=1

Si la variable aléatoire discrète X possède une infinité dénombrable de valeurs possibles x i,


l’espérance mathématique de X est la somme de la série
∞ ∞
E ( X )=∑ x i pi=∑ xi P X ( X=x ¿¿ i)¿
i=1 i=1

A la condition que cette série soit absolument convergente. Si ce n’est pas le cas, on dit que
l’espérance mathématique n’existe pas.

b) Définition (variable aléatoire continue)

5
Si la variable aléatoire X est absolument continue, l’espérance mathématique est l’intégrale
de xf(x) sur IR (intégrale généralisée) lorsqu’elle existe.
+∞
E ( X )=∫ xf ( x ) dx
−∞

1.2.1.4.Propriétés de l’espérance mathématique


Du fait même de sa définition, l’espérance mathématique a les mêmes propriétés que la
somme (dans le cas d’une variable aléatoire discrète) et que l’intégrale (dans le cas d’une variable
+∞
aléatoire continue lorsque l’intégrale généralisée ∫ xf ( x ) dx ) existe).
−∞

En définitive, les propriétés de l’espérance mathématique sont les mêmes que X soit discrète
ou continue.

1°) ∀ a ∈ R , E ( X + a )=E ( X )+ a

2°) ∀ a ∈ R , E ( aX )=aE ( X )

3°) Si X et Y sont deux variables aléatoires admettant chacune une espérance mathématique,

E(X+Y)= E(X) + E(Y)

1.2.2. Caractéristiques de dispersion


1.2.2.1. Définition
Soit un entier naturel k. On appelle moment d’ordre k par rapport à un réel a, l’espérance
mathématique de (X-a)k.

Mk(X)=E[(X-a)k]
a

On appelle moment non centré d’ordre k les moments d’ordre k par rapport à a=0. On le note :

Mk(X)=E(Xk)

Ainsi, on a :

M0(X)=1

M1(X)=E(X)

M2(X)=E(X2)

On appelle moment centré d’ordre k, les moments d’ordre k par rapport a=E(X). On les note par :

μk(X)= E[(X-E(X))k]

Ainsi, on a:

μ0(X)= 1

μ1(X)= 0

6
μ2(X)= E[(X-E(X))2]

1.2.2.2. Variance de X
On appelle variance de la variable aléatoire X le moment centré d’ordre 2 de X.

V(X) = μ2(X)= E[(X-E(X))2]

1.2.2.3. Ecart type de X


L’Ecart type de la variable aléatoire X est la racine carrée de la variance de X.

σ =√ V (X )

L’écart type est un indicateur mesurant la dispersion des valeurs x i que peut prendre la
variable aléatoire X autour de la moyenne en probabilité que représente E(X).

1.2.2.4. Propriétés

Les propriétés de la variance sont les mêmes, que la variable aléatoire X soit discrète ou continue.

i) V(X) = μ2(X)= E[(X-E(X))2] d’où V(X)≥0


ii) V(X)=0 <=> xi=E(X) quel que soit i.
iii) ∀ a ∈ R , V ( X +a )=V ( X ) . En effet,
V ( X +a )=∑ [ ( x i +a )−E (X +a)] pi=¿ ∑ [x i−E ( X )] p i ¿
2 2

i i

iv) ∀ a ∈ R V ( aX ) =a ² V ( X) En effet,
V(aX)=∑ ¿¿ ¿
i

v) V(X)=E(X²)-[E(X)]²
En effet, V(X)= E[(X-E(X)]²= E[X²-2XE(X)+E(X)²]=E(X²)-2E[XE(X)]+E(X)²=E(X²)-2E(X)E(X)
+E(X)²] =E(X²)-2E(X)²+E(X)²=E(X²)-E(X)²
Cette dernière formule est souvent plus simple à calculer. Aussi l’utilise-t-on très souvent
pour calculer V(X).
vi) Soit X et Y, deux variables aléatoires, On définit la covariance de X et Y par :
Cov(X,Y)=E[(X-E(X)(Y-E(Y)]= E(XY)-E(X)E(Y).

On a :
V(X+Y)= V(X) + V(Y) +2 Cov(X,Y)
En effet,
V(X+Y)=E[((X+Y)-E(X+Y))²] = E[((X-E(X) + (Y-E(Y))²]
= E[((X-E(X))²+(Y-E(Y))²+2(X-E(X))(Y-E(Y))]=E[X-E(X)]²+E[Y-E(Y)]²+2E[(X-E(X))(Y-E(Y))]
= V(X) + V(Y) +2 Cov(X,Y).
Si X et Y sont deux variables aléatoires indépendantes, on a Cov(X,Y)=0 d’où
V(X+Y)=V(X)+V(Y)

1.2.2.5. Moments factoriels


Soit k un entier positif. On appelle moment factoriel d’ordre k d’une variable aléatoire X,
l’espérance mathématique de la variable aléatoire X(X-1)(X-2)(X-3)……..(X-k+1).

7
Les moments factoriels sont surtout utilisés dans le cas des variables aléatoires X discrètes
dont les valeurs possibles sont des entiers non négatifs. On note :

μ[k]= E[X(X-1)(X-2)…(X-k+1)]

x!
=∑ p
x ( x−k ) ! x

On a :

μ[1]=E(X)= M1(X)

μ[2]=E[X(X-1)]= M2(X)-M1(X)

μ[3]=E[X(X-1)(X-2)]= M3(X)-3M2(X)+2M1(X)

Chapitre 2 : Lois de probabilités discrètes les plus usuelles

8
Tous les phénomènes aléatoires sont générés par des lois pour lesquelles il existe des lois de
probabilité ou modèles. Le présent chapitre et le suivant présentent les lois de probabilité les plus
courantes.

Ce chapitre est consacré à la présentation des principales distributions de probabilité


discrètes (loi discrète uniforme, loi géométrique ou loi de Pascal, loi binomiale, loi de poisson, loi
hypergéométrique, loi multinomiale et loi binomiale négative) Une loi de probabilité se caractérise
de différentes manières. Le plus souvent, on utilise la fonction de répartition pour caractériser une
loi. Cela présente l'avantage d'être valable aussi bien pour les lois discrètes que continues. Dans le
cas d'une loi continue, on utilise très souvent la densité, alors que dans le cas discret, la donnée des
probabilités élémentaires suffit à caractériser la loi en question. Exemples de lois discrètes Une
variable aléatoire X est discrète si l'ensemble de ses valeurs possibles est fini ou dénombrable. On dit
alors que sa loi est discrète. Pour une définition plus formelle Pour la plupart des lois discrètes
classiques, les valeurs possibles de X sont des entiers naturels. On définit alors la loi discrète en
donnant la probabilité que X prenne chaque valeur entière possible n, soit P(X=n).

2.1. La loi de Dirac


2.1.1. Définition
La loi de Dirac se rapporte à une variable aléatoire certaine.

Soit a un réel. On appelle loi de Dirac notée δ a, la loi de la variable aléatoire X telle que P X(X=a)= 1. On
a:

{
F ( x )= 0 si x< a
1 si x ≥ a

E(X)=a et V(X)=0

2.1.2. Forme de la loi de Dirac

Densité de probabilité

Fonction de répartition

1
9

a
2.2. La loi uniforme discrète
6.2.1. Loi de probabilité de la loi uniforme
Soit n un entier naturel supérieur ou égal à 2. On appelle loi uniforme discrète la loi de la variable
1
aléatoire X qui prend les valeurs kϵ { 1 ,2 , 3 , … n } avec une probabilité constante P X ( X =k )=
n

Vérifions que la somme de ces probabilités est égale à l’unité. On a :


n n

∑ P X ( X=k )=∑ 1n = nn =1
k =1 k=1

2.2.2. Espérance mathématique de la loi discrète uniforme


n n n
k 1 1 n+1 n+1
E ( X )=∑ k P X ( X =k ) =∑ = ∑ k= n =
k=1 k=1 n n k=1 n 2 2

2.2.3. Variance de la loi uniforme discrète


n n
1 1 ( n+1 ) (2 n+1) ( n+1 )( 2n+ 1)
E ( X ) =∑ k P X ( X =k ) = ∑ k 2= n
2 2
=
k=1 n k=1 n 6 6

2 ( n+1 ) (2 n+1) n+1 2 2 ( 2n+ 1 )−( 3 n+1 ) ( n−1 ) n2−1


V ( X )=E ( X )− [ E ( X ) ] =
2
−( ) = ( n+1 ) =( n+1 ) =
6 2 12 2 12

2.2.4. Forme de la loi discrète uniforme

1/n
…………
….
1 2 3 4 5 ……………. n

2.3. La loi de Bernoulli


2.3.1. Définition
Epreuve de Bernoulli En probabilité, une épreuve de Bernoulli de paramètre p (réel compris entre 0
et 1) est une expérience aléatoire (c'est-à-dire soumise au hasard) comportant deux issues :  le
succès  l'échec Le réel p représente la probabilité d'un succès. Le réel q = 1 - p représente la

10
probabilité d'un échec. La définition du « succès » et de « l'échec » est conventionnelle et est
fonction des conditions de l'expérience.

Sur l'univers {succès, échec}, on peut définir une variable aléatoire X prenant la valeur 1 en
cas de succès et 0 en cas d'échec. Cette variable aléatoire suit une loi de Bernoulli. Elle a pour
espérance p et pour variance pq. En bref La loi de Bernoulli correspond à une expérience à deux
issues (succès - échec), codées respectivement. par les valeurs 1, 0, et en général non équiprobables :

 où p est la probabilité de succès  où q = 1-p est la probabilité d'échec .


Soit A ∈ A , un évènement quelconquetel que P(A) >0. On appelle variable aléatoire indicatrice de
l’évènement A, la variable aléatoire définie par X=1IA.

{
X ( ω )=1 A ( ω )= 1 si ω ϵ A
0 si ω ϵ A

Ainsi, Px(X=1)=P{ω ϵ Ω/ X (ω)=1 }=P(A) et donc Px(X=0)=P{ω ϵ Ω/ X ( ω )=0 }=1-P(A)

On dit que X suit une loi de Bernoulli de paramètre p=P(A).

On note X ↝ B(1 , p)

2.3.2. Exemples de lois de Bernoulli


1°) On jette une pièce de monnaie et on considère la variable aléatoire X définie par X=0 si la
face obtenue est « pile » et X=1 si la face obtenue est « face ». La probabilité d’obtenir face étant
1
égale à ,
2

1
X ↝ B(1 , )
2

2°) Dans une urne contenant n boules dont des boules blanches en proportion p, on tire au
hasard une boule. Soit la variable aléatoire définie par X=1 si la boule tirée est blanche et X=0 si la
boule tirée n’est pas blanche. Comme la probabilité de tirer une boule blanche est p,

X ↝ B(1 , p)

3°) Le lancer d'une pièce équilibrée est une expérience de Bernoulli de paramètre 0,5. Si le «
succès » est l'obtention de pile, « l'échec » sera l'obtention de face.

4°) On tire au hasard une boule dans une urne contenant 7 boules blanches et 3 boules
noires. On considère comme un succès le fait de tirer une boule noire. Cette expérience est une
expérience de Bernoulli de paramètre 0,3 car la probabilité de tirer une boule noire est de 3/10.

11
2.3.3. Forme de la loi de Bernoulli
Trois cas sont possibles.

1er cas : p>q 2èmecas : p=q=1/2 3ème cas p<q

q
1/2

p
P

q
0 1 0 1

0 1

2.3.4. Espérance mathématique et Variance de la loi de Bernoulli


Soit X une variable aléatoire suivant une loi de Bernoulli de paramètre p.

X= {0 avec1 avec une probabilité p


une probabilité q=1− p

E(X)=1xp + 0xq=p

E(X)=p
Quelle est la loi suivie par X² ? On a :

Si X = {0 avec1 avec une probabilité p


une probabilité q=1− p

Alors X =
2
{0 avec1 avec une probabilité p
une probabilité q=1− p

Ainsi, E(X²)=1²xp + 0²xq=p

12
Comme V(X)=E(X²)-[E(X)]², on V(X)=p-p²=p(1-p)=pq

V(X) =pq
2.4. La loi binomiale
2.4.1. Définition
Dans une urne contenant des boules dont des blanches en proportion p, on tire avec remise et au
hasard n boules. La variable aléatoire X telle que X= nombre de boules blanches tirées suit une loi
appelée loi binomiale de paramètres n et p. On note :

X ↝ B(n , p)

L’ensemble fondamental est Ω’ = {0,1,2,…,n}


k k n−k
P X ( X =k )=∁n p (1− p)

Comment obtient-on ce résultat ?

Soient B l’évènement élémentaire tirer une boule blanche et Bl’évènement élémentaire


« tirer une boule non blanche »

L’évènement tirer k boules blanches correspond à une suite d’évènements élémentaires du type :

… B B B B B B B B B B … (n fois au total dont k fois B et donc n-k fois B)

Le nombre total d’évènements de ce type est ainsi le nombre total de permutations avec répétition
n! k
de n objets dont k et n-k sont identiquesentre eux soit au total = ∁n
k ! ( n−k ) !

Or, la probabilité d’avoir un des évènements de ce type est pk (1−p)n−k

D’où finalement,
k k n−k
P X ( X =k )=∁n p (1− p)

La somme de toutes les probabilités de réalisation de ces évènements est-elle égale à l’unité ?
n n

∑ P X ( X=k )=∑ ∁ kn pk (1− p)n−k =[ p+(1− p)]n=1n=1


k=0 k=0

2.4.2. Forme de la loi binomiale


La loi binomiale a une forme asymétrique dépendant des paramètres n et p

n=6 et p=0,2 n grand

13
2.4.3. Espérance mathématique d’une loi binômiale
X ↝ B(n , p)
n n n
n! n!
E ( X )=∑ k P X (X=k)= ∑ k k ! ( n−k p k (1− p)n−k =∑ k p k (1− p)n−k
k=0 k=0 )! k ! ( n−k ) !
k=1

n n
n! (n−1)!
=∑ pk (1−p)n− k = np ∑ pk−1 (1− p)n−k
k =1 (k−1)! ( n−k ) ! k=1 ( k−1)! ( n−k ) !
n−1
(n−1)!
= np ∑ p K (1− p)n−K ( en posant K=k-1)
K=0 K ! ( n−K ) !
n−1
¿ np ∑ ∁n−1
K
p K (1− p)[ (n−1)−( K −1 )]=np ¿
K=0

E(X)=np
2.4.4. Variance d’une loi binômiale
Calculons le moment factoriel d’ordre 2 de X.

μ[2](X)= E[X(X-1)]= E(X²)-E(X)


n n
E [ X ( X −1 ) ] =∑ k ( k−1 ) P X ( X =k ) =¿ ∑ k ( k −1 ) C kn p k q(n−k) ¿
k=0 k=0

n
n!
¿ ∑ k (k −1) pk q(n−k)
k=0 k ! ( n−k ) !
n
n!
¿ ∑ k (k −1) pk q(n−k)
k=2 k ! ( n−k ) !

14
n
n!
¿∑ pk q(n−k)
k=2 (k−2)! ( n−k ) !

n
(n−2)!
¿ n(n−1) ∑
k (n−k)
p q En posant K=k-2 et on a :
k=2 (k−2)! ( n−k ) !

n n−2
( n−2 ) ! ( n−2 ) !
¿ n ( n−1 ) ∑ k ( n−k )
p q =n ( n−1 ) ∑ p K+2 q (n−2−K )
k=2 ( k −2 ) ! ( n−k ) ! K =0 K ! ( n−2−K ) !

n −2
( n−2 ) !
¿ n ( n−1 ) p 2
∑ K ! ( n−2−K ) ! pK q(n −2− K )
K =0

n−2
¿ n(n−1) p 2 ∑ C Kn−2 p K q(n−2−K )=n(n-1)p²(p+q)n-2 = n(n-1)p²
K =0

Ainsi, E[X(X-1)]= E(X²)-E(X)=n(n-1)p d’où E(X²)= E(X) +n(n-1)p²= np+n(n-1)p²

Or, V(X)= E(X²)-[E(X)]²= np +n(n-1)p²-n²p²= np + n²p²-np²-n²p²= np –np²=np(1-p)

=npq

V(X)=npq
NB: La loi binomiale est la somme de n lois de Bernoulli indépendantes

Si
X 1 ↝ B ( n1 , p ) et X 2 ↝ B (n2 , p)

Avec X1 et X2 indépendantes, alors X 1 + X 2 ↝ B(n1+ n2 , p)

2.5.- La loi hypergéométrique


Cette loi de probabilité s'appelle la loi hypergéométrique de paramètres (n ; p ; N). Il est
nécessaire que p soit un réel compris entre 0 et 1, que Np soit entier et que n ≤ N. Lorsque ces
conditions ne sont pas imposées, l'ensemble des possibles X(Ω) est l'ensemble des entiers entre
max(0;n-Nq) et min(Np,n). Une autre paramétrisation très répandue consiste à considérer une loi
Hypergéométrique de paramètres (N, Np, n) avec A le nombre total de boules, Np le nombre de
boules à succès (ici Np) et n le nombre de tirages. max(0;n-Nq) et min(Np,;n).

2.5.1.- Loi de probabilité


On effectue n tirages sans remise d’une urne contenant N boules dont NB boules blanches

X= nombre de boules blanches tirées

15
n
Comme ces n tirages sont équivalents à un seul tirage de n boules avec équiprobabilité des C N
possibilités, on a :
k n−k
C N C N −N
P X ( X =k )= B

n
B
.
CN

X(Ω)={0,1,2,3,…..n}

Avec n≤NB et n-k ≤ N-NB

On dit que X suit une loi hypergéométrique de paramètres N, n et NB et on note

X ↝ H (N , n , N B )
n
Vérifions que ∑ P X ( X=k )=1
k=0

Soient 2 entiers naturels r et s. On a :


r
(1+ x ) =∑ C kr x k
r

k=0

s
(1+ x ) =∑ C sj x j
s

j=0

( )( )
r s r s
r
(1+ x ) (1+ x) =
s
∑ Cr x k k
∑ C s x =∑ ∑ C r C s x
j j k j k+ j
(a)
k=0 j =0 k=0 j=0

De même, ona:
r+ s
(1+ x )r (1+ x) s=(1+ x )r+ s=∑ C ir +s xi (b)
i=0

Comme (a)=(b), en égalisant les monômes de même degré, on a :



∑ k j i
C r C s =Cr + s ∀ i=k + j (c)
k + j=i

Soit i=n=k+j et r+s=N on a :


n n
(c)<=>∑ C C ⇔ ∑ C lr C n−l
l n−l n n
r s =C r+ s s =C N
l=0 l=0

n
Ainsi, pour r=NB on a ∑ C N C N−N =C N
l n−l n
B B
l=0

k n−k
n n
C N C N −N C nN
D’où ∑ P X ( X=k )=∑ B

n
B
= n
=1
k=0 k=0 CN CN

16
2.5.2.- Espérance mathématique de la loi hypergéométrique
Soit la variable indicatrice

{
X i = 1 si la bouleblanche numéro iest tirée avec1≤i≤NB
0 si non
NB
On a X =∑ X i = Nombre de boules blanches tirées
i=1

Notons que les variables aléatoires Xi ne sont pas indépendantes


n−1
C N−1 n
P X ( X i =1 )= n
=
i
C N
N

n
n C N −1
P X ( X i =0 ) =1− = n
i
N CN

n
E ( X i) =1 x P X ( X i=1 ) +0 x P X ( X i =0 ) =
i i
N

( )
NB NB NB
n n N N
Ainsi, E ( X )=E ∑ X i =∑ E( X ¿¿ i)=∑ N
=N B =n B =np avec p= B ¿
N N N
i=1 i=1 i =1

NB
E ( X )=n =np
N

2.5.3.- Variance de la loi hypergéométrique

( )
NB NB ❑
V ( X )=V ∑ X i =∑ V (X ¿¿ i)+∑ COV (X ¿ ¿ i , X j ) ¿ ¿ (a)
i=1 i=1 i≠ j

V ( X i ) =E ( X i2) −[E ( X i )]2

E ( X 2i )=1²
n
N (n
+ 0 1− =
N
n
N )
nN−n n (N−n)
2 2
n n
D’où V ( X i ) = −( ) = 2
= 2
N N N N
2
n
COV ( X i , X j )=E ( X i X j ) −E ( X i ) E ( X j )=E ( X i X j )−( ) (b)
N

Les différentes probabilités liées au produit X i X jsont :

Xi Xj Etat de l’environnement Probabilité associée

17
0 0 i n’est pas tirée et j n’est pas tirée n
C N−2
n
CN

0 1 i n’est pas tirée mais j est tirée n−1


C N−2
n
CN

1 0 i est tirée mais j n’est pas tirée n−1


C N−2
n
CN

1 1 i est tirée et j est tirée n−2


C N−2
n
CN

Finalement X i X jprend seulement 2 valeurs : 0 avec la probabilité

n n−1 n−1
C N−2 C N −2 C N−2
n
+ n + n
CN CN CN

et 1 avec la probabilité

n−2
C N−2
n
CN
n−2 n n−1 n−1 n−2
C N−2 C N−2 C N −2 C N−2 C N−2 n (n−1)
D’où E ( X i X j )=1² x +0x ( + n + n ¿= n =
CN
n
CN
n
CN CN CN N (N−1)

2 2
n n(n−1) n
Ainsi, COV ( X i , X j )=E ( X i X j ) −E ( X i ) E ( X j )=E ( X i X j )−( ) = −( )
N N ( N−1) N
2
nN (n−1) n (N−1) n(Nn−N −nN + n) n(n−N ) −n(N −n)
¿ 2 − = = 2 =
N (N−1) N 2 (N −1) N 2 ( N−1) N (N −1) N 2 ( N −1)

Finalement, on a :
NB ❑ NB
n ( N−n) ❑ n( N−n)
(a) V ( X )=∑ V (X ¿¿ i)+ ∑ COV ( X ¿ ¿ i, X j)=∑ 2
−∑ 2 ¿¿
i=1 i≠ j i=1 N i ≠ j N (N−1)

Comme il y a N B ( N B−1 ) caso ù i≠ j on a :

NB
n (N−n) ❑ n(N−n) n(N −n) n(N −n)
V ( X ) =∑ 2
−∑ 2 =N B 2
−N B (N B−1) 2
i=1 N i ≠ j N (N−1) N N (N −1)

18
N B n ( N −n ) N B−1 N n ( N−n ) N n ( N−n )
V ( X )= (1− ¿ )= B2 ( N−1−N B +1 )= B2 ( N −N B)
N 2
N−1 ¿ N ( N −1 ) N ( N −1 )

N−1 ) N (
( N−n ) ( )
N B N−N B N−n N B N
V ( X )=n =n (1− B )
N N −1 N N

NB
En posant q=1− p=1− on a :
N

N −n
V ( X )=npq
N −1

Si la taille N est très grande devant n, N-n ≈N-1 et

V ( X)≈ npq

2.6. La loi de Poisson


2.6.1. Loi de probabilité
Une variable aléatoire X suit une loi de Poisson de paramètre m >0 si cette variable aléatoire
−m k
e m
est à valeurs entières avec X(Ω)=IN et que P X ( X =k )=
k!

On note X↝P(m)

Vérifions que ∑ P X ( X=k )=1
k=0

∞ ∞ ∞
e−m mk −m mk
∑ P X ( X=k )=∑ k!
=e ∑ =e−m em=1
k=0 k=0 k=0 k !

2.6.2. Espérance mathématique


∞ ∞ ∞ ∞
mk mk m(k−1) mK
E ( X )=∑ k e −m
=∑ k e−m =e−m ∑ m =m e−m ∑ =m e−m em =m
k=0 k ! k=1 k! k=1 (k−1)! K=0 K !

E(X)= m
2.6.3. Variance de la loi de Poisson
Il est plus facile d’utiliser le moment factoriel d’ordre 2

μ[2]=E[X(X-1)]= E(X²) – E(X)

On a:

19
∞ ∞ ∞ ∞ ∞
ek mk mk m(k−2 )
μ[2]= E[ X ( X−1 )]=∑ k (k −1)e−m =∑ k (k−1)e−m =∑ e−m =e−m ∑ m2 =e−m ∑ m2
k=0 k ! k=2 k ! k=2 (k −2)! k =2 (k −2)! k=2 (

Ainsi, m²=E(X²)-E(X) d’où E(X²)=m²-E(X)= m²+m

V(X)= E(X²)-[E(X)]² = m²+m-m²=m

V(X)=m

2.6.4. Autres caractéristiques de la loi de Poisson


2.6.4.1. Le mode

P X [ X =x+1] P X [ X=x ]
Il est tel que ≤1 et ≥1
P X [ X=x ] P X [ X=(x−1)]
−m x+1
e m
P X [ X =x+1] (x +1)! mx+1 x ! m
= −m x = =
P X [ X=x ] e m ( x +1 ) ! m x +1
x

x!

Le mode est donc l’entier naturel ou les entiers naturels vérifiant simultanément les inégalités :

m m
≤1 et ≥ 1
x+1 x

C'est-à-dire x ≤ m ≤ x +1

NB :

a) En retranchant 1 à chaque membre des inégalités on a donc simultanément x-1≤ m-1≤x et


x≤m≤x+1 soit finalement m-1≤ x ≤ m.
b) Ainsi, le mode est l’entier naturel tel que m-1≤ x ≤ m.

c) Lorsque m est entier, la loi de Poisson à deux modes : m-1 et m

2.6.4.2. Forme de la loi de Poisson

La forme de la distribution de la loi de Poisson est en cloche mais dissymétrique avec un


étalement vers la droite. Cette courbe se redresse de plus en plus lorsque m prend des valeurs
élevées et tend à devenir symétrique.

Px

20
2.6.4.3. Le processus de Poisson

Un processus décrit la réalisation d’évènements aléatoires dans le temps : nombre


d’accidents à un carrefour, nombre d’appels téléphoniques sur une ligne, le nombre de clients
entrant dans un restaurant, etc.

Soit c un réel positif et X, le nombre d’un tel évènement enregistré au cours d’une période de
temps θ. X suit une loi de Poisson de paramètre m=cθ lorsque les conditions suivantes sont vérifiées :

- la probabilité P de réalisation de l’évènement au cours d’un petit intervalle de temps dt est


proportionnelle à dt et est égale à cdt ;

- P ne varie pas au cours de la période d’observation et est indépendante du nombre


d’évènements qui se sont produits antérieurement ;

- La probabilité de deux apparitions successives de cet évènement sur une même période dt
est très faible.

2.6.4.4. Somme de variables de Poisson indépendantes

Soient deux variables aléatoires indépendantes X1 et X2 telles que X 1 ↝P(m1) et X 2 ↝P(m2) alors

Z=X1+X2↝P(m1+m2)

2.7. La loi géométrique ou Loi de Pascal


2.7.1. Loi de probabilité de la loi géométrique
Soit une urne contenant des boules dont des blanches en proportion p. On y tire
successivement une boule avec remise et on s’arrête lorsque la boule tirée est blanche.

X= Nombre de tirages effectués

La variable aléatoire X suit une loi géométrique.

La loi de probabilité de la loi géométrique est la suivante :


k −1 ¿
P X ( X =k )=(1−p) p avec k ∈ N =X (Ω)

Vérifions que ∑ P X (X =k )=1
k =1


1
On sait que ∑ x = pour |x|<1
k

k=0 1−x

21
∞ ∞ ∞ ∞
p p
∑ P X (X =k )=∑ (1− p)k−1 p= p ∑ (1− p)k−1= p ∑ (1− p)K = = =1
1−(1− p) p
k =1 k =1 k=1 K=0

2.7.2. Espérance mathématique de la loi géométrique


∞ ∞
1 1
Comme ∑ x = avec| x|<1 , alors par dérivation on a : ∑ kx k−1 =
k

k=0 1−x k=1 (1−x )2


∞ ∞
p p 1
E ( X )=∑ k (1− p) k−1
p= p ∑ k (1− p)k−1= 2
= 2=
k=1 k=1 [1−( 1−p ) ] p p

2.7.3. Variance de la loi géométrique


∞ ∞ ∞
E [ X ( X −1 ) ] =∑ pk (k−1)(1− p)k−1= p ( 1− p ) ∑ k ( k −1 ) (1−p ) = p(1−p) ∑ k (k −1)(1−p)k −2
k−2

k=1 k=1 k=2


∞ ∞
2
Par dérivation seconde de ∑ x on a : ∑ k (k −1)(1−x)
k k−2
= on a donc
k=0 k =2 (1−x )3

2 2 p(1− p) 2(1−p) 2 q
E [ X ( X −1 ) ] = p ( 1− p ) ∑ k ( k −1 ) (1− p )
k−2
= p ( 1− p ) 3
= = = 2 avec q=1−p
k=2 [1−( 1− p ) ] p3 p2 p

2q 2q 1
Comme E [ X ( X −1 ) ] =E ( X 2) −E( X) , E ( X ) =
2
+ E ( X )= 2 +
p p
2
p

2 q 1 1 2 q+ p−1 1− p q
V(X)= E(X²)-[E(X)]²= + − 2= = 2 = 2
p p p
2 2
p p p

2.8. La loi binomiale négative


Une urne contient des boules dont des blanches en proportion p. On y tire successivement une boule
avec remise et on s’arrête lorsqu’on a tiré n boules blanches.

On considère la variable aléatoire X= nombre de tirages effectués.

0n a: X ( Ω ) =N−{0 ,1 , 2 ,3 … n−1 }

n −1 n k−n
P X ( X =k )=C k−1 p (1− p) avec k ≥ n

Schématisation

… B B B B B B B B B B … ]B

Avant le dernier tirage de la boule B, on tire n-1 boules blanches et k-n boules non blanches.

X est la loi de n lois géométriques indépendantes. On l’appelle loi binomiale négative.


n
X =∑ X i chaque X i suit une loi géométrique
i=1

n
E ( X )=
p

22
nq
V ( X )= 2
p

2.9. La Loi multinomiale

Il s’agit d’une généralisation de la loi binomiale. La loi binomiale concerne le nombre


de succès dans n épreuves de Bernoulli indépendantes donnant chacune un résultat binaire,
comme dans le jeu de pile ou face. La loi multinomiale est une généralisation de celle-ci,
applicable par exemple à n jets d'un dé à six faces. Contrairement à ces exemples simples, les
différentes possibilités ne sont généralement pas équiprobables.
Autre présentation de la loi binomiale.
La fonction de probabilité de la variable aléatoire binomiale qui s'écrit :

2.10. Loi Binomiale négative

Une urne contient des boules dont des blanches en proportion p. On y tire successivement une boule
avec remise et on s’arrête lorsqu’on a tiré n boules blanches.

On considère la variable aléatoire X= nombre de tirages effectués.

0n a: X ( Ω ) =N−{0 ,1 , 2 ,3 … n−1 }

n −1 n k−n
P X ( X =k )=C k−1 p (1− p) avec k ≥ n

Schématisation

… B B B B B B B B B B … ]B

Avant le dernier tirage de la boule B, on tire n-1 boules blanches et k-n boules non blanches.

X est la loi de n lois géométriques indépendantes. On l’appelle loi binomiale négative.


n
X =∑ X i chaque X i suit une loi géométrique
i=1

n
E ( X )=
p

nq
V ( X )= 2
p

2.11. APPROXIMATIONS

Chapitre 3 : les lois continues les plus usuelles

23
3.1 : La loi uniforme continue
3.1.1 : Fonction densité de probabilité de la loi uniforme continue
Une variable aléatoire X suit une loi uniforme continue si sa densité est une constante sur un
intervalle fermé [a, b]

{
1
si x ∈[a , b]
f ( x )= b−a
O sinon

On note

X ↝U (a , b)

On a:
+∞ +∞ b
1 1 1
∫ f ( x ) dx= ∫ ∫ dx= b−a [ x ]a= b−a =1
b
dx=
−∞ −∞ b−a b−a a b−a

3.1.2 : Fonction de répartition de la loi uniforme continue


On a :

{
x
0 si x< a
F ( x )=P X ( X ≤ x )= ∫ f ( t ) dt= x−a sia ≤ x <b
−∞ b−a
1 si x ≥ b

3.1.3 : Espérance mathématique de la loi uniforme continue

[ ]
+∞ +∞ b b
x 1 1 x2 1 a+ b
E ( X )=∫ xf ( x ) dx= ∫ ∫ 2 2
dx= xdx= = (b −a )=
−∞ −∞
b−a b−a a b−a 2 a 2( b−a) 2

3.1.4 : Variance de la loi uniforme continue

[ ]
+∞ +∞ b b 2 2
x2 1 1 x3 b3 −a3 ( b−a ) (b + ab+a ) b2 +ab+ a2
E ( X ) =∫ x ² f ( x ) dx= ∫
b−a ∫
2
dx = x ² dx= = = =
−∞ −∞
b−a a
b−a 3 a 3 (b−a) 3(b−a) 3

2 2 2 2 2 2
b +ab+ a a+ b 4 b ²+ 4 ab+ 4 a ²−3 (a +2 ab+ b ) b ²−2 ab+a ² (b−a)
V ( X )=E ( X 2 )−E ( X )2= −( )= = =
3 2 12 12 12

24
3.1.5 : Forme de la loi uniforme continue
3.1.5.1 : Densité de probabilité

f(x)

1
b−a

a b x

3.1.5.2 : Fonction de répartition

F(x)

a b x

3.2. La loi exponentielle


3.2.1. Fonction densité de probabilité de la loi exponentielle
Soit θ>0. On appelle loi exponentielle de paramètre θ, la loi de la variable aléatoire X
continue positive de densité

{
−θ x
f ( x )= θ e si x ≥0 On note
0 si x< 0

X ↝ ε (θ)
+∞
Vérifions que ∫ f ( x ) dx=1 . On a :
−∞

+∞ +∞ +∞
θ −θ x +∞
∫ f ( x ) dx= ∫ θ e −θ x
dx=¿ θ ∫ e
−θ x
θ x→+ ∞
−θx
dx=¿− [e ]0 =1− lim e =1¿ ¿
−∞ −∞ 0

La fonction de répartition de la loi exponentielle est :

25
x

∫ f ( t ) dt=¿ 0 si x <0 ¿
−∞

x x

∫ f ( t ) dt=¿ ∫ θ e−θ t dt=−θ


θ
−θ t x −θx
[e ]0=1−e si x ≥ 0 ¿ , 0 sinon
−∞ −∞

3.2.2. Espérance mathématique de la loi exponentielle

Ona :
+∞ +∞ +∞
E ( X )=∫ xf ( x ) dx=∫ θx e dx=¿ θ ∫ x e
−θ x −θ x
dx ¿
−∞ 0 0

Une intégration par parties en posant x=u et v’=e−θ x donne

+∞
−1 −θx
E ( X )=θ[ xe ] +θ ¿
θ 0

+∞ +∞
−1 −θx 1
] +∫ e
−θx +∞ −θ x
¿ [−xe 0 dx ¿=¿[ e ] =
0 θ 0 θ

1
E( X )=
θ

3.2.3. Variance de la loi exponentielle


+∞ +∞ +∞
E ( X ² )=∫ x ² f ( x ) dx=∫ θx ² e dx=¿ θ ∫ x ² e
−θ x −θ x
dx ¿
−∞ 0 0

Une intégration par parties en posant u=x² et v=e−θ x donne

+∞ +∞ +∞ +∞
−θ −2 −θ x 2 2 2
x ² e ] −θ ∫ x e dx=¿ 2 ∫ x e dx = ∫ θx e dx= E ( X )= 2 ¿
−θx −θ x −θ x
E ( X ² )=[
θ 0 0 θ 0 θ 0 θ θ

2 2 1 1
V ( X )=E ( X )− [ E ( X ) ] =
2
2
− 2= 2
θ θ θ

26
3.2.4. Forme de la loi exponentielle (θ=1)
3.2.4.1. Fonction densité de probabilité

1.2

0.8

0.6

0.4

0.2

0
0 2 4 6 8 10 12

La variable aléatoire X est souvent utilisée pour modéliser une durée de vie

3.2.4.2. forme de la fonction de répartition de la loi exponentielle (θ=1)

1.2

0.8

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10

3.3. La loi normale ou loi de Gauss


3.3.1. La loi normale de paramètres m et σ
C’est la loi d’une variable aléatoire X à valeurs dans R , de densité
2
−1 x−m
1 ( )
f ( x )= e 2 σ
σ √2 π

On note X ↝ ℵ ( m , σ ) , σ >0

27
2
+∞ −1 x−m
( )
NB : ∫ e 2 σ
dx=σ √ 2 π
−∞

+∞ −1 x−m
2

1 ( )
Ainsi, ∫ e 2 σ
dx=1
−∞ σ √2 π

Le graphe de la densité de f est une courbe en cloche se présentant de la manière qui suit :

NB : f(2m-x)=f(x)
2 2 2
−1 2 m−x−m −1 m−x −1 x−m
1 ( ) 1 ( ) 1 ( )
En effet, f ( 2 m−x )= e2 σ
= e2 σ = e 2 σ =f ( x)
σ √2 π σ √2 π σ √2 π

Le graphe de f est donc symétrique par rapport à la droite verticale x=m.

On a :

E(X)=m
et V(X)= σ²
3.3.2. La loi normale centrée réduite
X−m
La loi normale centrée réduite s’obtient en faisant le changement de variable U =
σ
dans une loi normale de paramètres m et σ.

E(U)=0 et V(U)=1

28
En effet,

E ( U ) =E ( σ )
X−m E ( X )−m m−m
=
σ
=
σ
=0

V ( U )=V ( X−m
σ ) 1 σ²
= V ( X )= =1
σ σ²
2

La densité de U est donnée par


2
−u
1
f ( u )= e 2

√2 π
La fonction de répartition est définie par :
2
u −t
1
Π ( u )= ∫e
√ 2 π −∞
2
dt

NB :

i) Les valeurs de Π sont tabulées

ii) On a f(-u)=f(u) et par suite, Π (−u )=1−Π (u)

iii) De même, P(|U|<a)= P(-a<U<a) = Π ( a ) −Π (−a )=Π ( a )−[ 1−Π ( a ) ] =2 Π ( a )−1 avec a>0

iv) La somme de deux lois normales indépendantes est encore une loi normale

Si X 1 ↝ ℵ ( m 1 , σ 1 ) et X 2 ↝ ℵ ( m 2 , σ 2 ) sont des variables aléatoires indépendantes, alors

X 1 + X 2 ↝ ℵ ( m1+ m2 , √ σ 21 +σ 22 )

29
Table de la fonction de répartition de la loi normale centrée

30
3.4. Autres lois associées à la loi normale
3.4.1. Loi de Pearson ou Loi de Chi-Carré

3.4.2. Loi de Student

3.4.3. Loi de Fisher-Snedecor

Chapitre 4 : Relations entre probabilités et statistiques

4.1 : L’inégalité de Tchebicheff


Soit une variable aléatoire X quelconque d’espérance mathématique m et d’écart-type σ.

Quelle est la probabilité P pour que X appartienne à un intervalle du type I= [m-tσ, m+tσ] ?
C'est-à-dire pour que |X-m| ≤ tσ avec t > 0 ?

Le raisonnement se fera dans le cas où X est continue mais il est valable également dans le
cas des variables aléatoires discrètes. Soit I l’ensemble des points extérieur à I

On a:
+∞ ❑ ❑ ❑ ❑
σ =∫ ( x−E ( X ) ) f (x )dx=∫ ( x−E ( X ) ) f ( x)dx +∫ ( x−E ( X ) ) f ( x )dx ⟹ σ ≥∫ ( x−E ( X ) ) f (x )dx ⟹ σ ≥∫
2 2 2 2 2 2 2

−∞ I I I I

1
C’est-à-dire, Prob ( {| X−E ( X )|≤ tσ })≥ 1− 2
t

C’est l’inégalité de Bienayme-Tchebicheff

4.2. La loi des grands nombres


Soit (Xi), i=1 à n, n variables aléatoires indépendantes suivant une même loi de probabilité
quelconque d’espérance m et d’écart-type σ.
n
1
Soit X = ∑X
n i=1 i

X est une variable aléatoire


n
1 n
E ( X )= ∑ E( X ¿¿ i)= m=m ¿
n i=1 n
n
1 n σ2 σ
σ =V ( X )= ∑ V ( X ¿¿ i)= 2 σ 2= ⟹ σ X = ¿
2
X
n ² i=1 n n √n
En appliquant l’inégalité de Bienaymé-Tchebicheff à X , on a :

31
1
Prob ( {| X−E ( X )|≤ t σ X })≥1− 2
t

{
Prob ( | X−E ( X )|≤

√n }
1
)≥ 1− 2
t

Ainsi, il suffit, lors d’un sondage, de tirer un échantillon de taille n suffisamment élevée dans
la population pour que la moyenne d’une variable X observée sur l’échantillon soit presque
sûrement très proche de son espérance mathématique (c'est-à-dire de la véritable moyenne de la
1
population (avec une probabilité au moins égale à 1− 2 ) : c’est la loi des grands nombres.
t

4.3. Le théorème central-limite


8.3.1. Enoncé du théorème central-limite
Soit une suite de variables aléatoires (Xi) i=1 à n telle que :

i) les variables aléatoires Xi sont indépendantes

ii) leurs espérances mathématiques mi et leur variances σ²i existent


2
σi
lim n
=0 ∀ i
iii) n →+∞ .
∑σ 2
i
i=1

C'est-à-dire chaque variance est faible par rapport à la somme de toutes les autres variances.
n
Soit Sn=∑ X i
i=1

n n
E ( Sn ) =∑ E ( X i ) =∑ mi=mS n
i=1 i=1

n n
V ( S n ) =∑ V ( X i )=∑ σ ²i=σ 2S n
i=1 i=1

Sn est une variable aléatoire, on a :

S n−E ( Sn ) S n−mS
L ℵ (0 , 1) c’est-à-dire, n
L ℵ (0 ,1)
√ V (S )
2
n
→ σ Sn

C’est le théorème central-limite


2 2
Si les mi sont tous égaux à m et que tous les σ i sont également tous égaux à σ ❑ ,

2
On a : E ( Sn ) =nm et V ( S n )=n σ ❑ et le théorème central-limite donne :

S n−nm
L ℵ (0 , 1)
√ n σ 2❑ →

32
Comme Sn=n X n, on a :

S n−nm n X n−nm √ n(X n−m)


= =
√n σ 2
❑ √n σ 2

σ

Ainsi,

√ n(X n −m) L ℵ (0 , 1)
σ →

C’est là une autre formulation du théorème central-limite

4.4. Applications
4.4.1. Approximation d’une loi binomiale
Soit (Xi), i=1 jusqu’à n, n variables aléatoires indépendantes telles que

X i ↝ B ( 1, p ) ∀ i
n
On sait que Sn=∑ X i suit une loi binomiale de paramètres n et p
i=1

Le théorème central-limite donne alors :

S n−np
L ℵ (0 , 1)
√npq →

Cette approximation peut être faite dès que n≥30

4.4.2. Approximation d’une loi de Poisson


Soit (Xi), i=1 jusqu’à n, n variables aléatoires indépendantes telles que
n
X i ↝ P ( λi ) tels que ∑ λ i=λ
i=1

n
On sait que Sn=∑ X i suit une loi de Poisson de paramètre λ
i=1

L’application du théorème central-limite donne alors :

S n−λ
L ℵ (0 , 1)
√λ →

33
4.5. Ajustement d’une distribution observée à une loi théorique
Supposons que l’on dispose du tableau suivant donnant la distribution statistique suivante :

Valeurs Effectifs Fréquence

x1 n1 f1

x2 n2 f2

. . .

. . .

. . .

xi ni fi

. . .

. . .

. . .

xk nk fk

Total N 1

On voudrait savoir si l’on peut ajuster une loi théorique donnée à cette distribution
statistique c’est-à-dire voir si ce tableau est « proche »ou non de la distribution théorique dont la loi
de probabilité est la suivante :

Valeurs Probabilité

x1 p1

x2 p2

. .

34
. .

. .

xi pi

. .

. .

. .

xk pk

Total 1

On construit le tableau suivant sur le modèle du tableau statistique

Valeurs probabilité Effectifs

x1 p1 n’1=np1

x2 p2 n’2=np2

. . .

. . .

. .

xi pi n’i=npi

. . .

. . .

. . .

xk pk n’k=npk

Total 1 N

NB :
k
1°) On doit avoir n=∑ ni .
'

i=1

35
2°) De même, on veille à ce que les n i et n’i soient toujours supérieurs ou égaux à 5. Sinon, on fait des
regroupements.

3°) On estime les paramètres de la loi théorique si on le les connaît pas.

Le critère de proximité est la distance du Khi-deux donnée par :

k ' 2 k ❑ 2
(ni−ni) (n i−npi )
χ =∑ =∑
2

i=1
'
ni i=1 np❑
i

Cette distance suit une loi du Khi-deux à l=k’-r-1 degrés de liberté avec

K’= nombre de modalités après un éventuel regroupement

r= nombre de paramètres estimés de la loi théorique


2
Soit χ lu le fractile d’ordre 1-α de la loi du Khi deux à l degré de liberté(on prendra généralement α
=0,05)
2 2
Si χ ≤ χ lu, les deux distributions sont considérées comme proches et on ne rejette pas l’ajustement.

2 2
Si χ > χ lu , les deux distributions ne sont pas considérées comme proches et on rejette l’ajustement.

NB :

i) Pour ajuster une loi de poisson de paramètre m, on estime m par la moyenne de la distribution
statistique.

Attention : cet ajustement ne peut se faire que si la moyenne est proche de la variance.

ii) Pour ajuster une loi normale, on estime m par la moyenne et l’écart type de la loi théorique par
celle de la distribution statistique.

iii) pour ajuster une loi binomiale de paramètres n et p, deux cas se présentent :

X
1er cas : n est connu : on estime p par p=
n

2ème cas : n n’est pas connu : on résous le système suivant {V (X=np


X )=npq

36
37
TRAVAUX DIRIGES

TD1 : A un concours se présentent deux fois plus d’hommes que de


femmes. On tire une personne au hasard, et l’on appelle X la v.a.
« nombre de femmes ».

a) Quelle loi suit la variable X ? Donner la loi de probabilité X ?

b) Calculer E(X) et ∂(X).

Solution

a) La probabilité est répartie en deux catégories : 2/3 d’hommes et 1/3


de femmes. On tire une seule personne, donc la loi de X est une loi
de Bernoulli. La loi de probabilité de X est :

xi 0 1

pi 2/3 1/3

b) * Espérance mathématique :
E(X) = P = P(X=1) 1/3

* Ecart-type :

6(X) = Pq = 1/3. 2/3 = 2/3  2 = 0,471

TD2 : Soit X le nombre d‘as dans une colonne de 13 cartes parmi 52


cartes. En admettant que les 13 cartes sont tirées au hasard parmi les
52 cartes du jeu. La loi du nombre d‘as est la loi hypergéométrique des
paramètres N=52, n=13 et p=4/52
a) Quelle loi suit la variable X ? Quelles sont les valeurs possibles prises
par X ? Donner la loi de probabilité X ?

b) Calculer E(X), ∂(X) et Mo(X)

38

Vous aimerez peut-être aussi