Vous êtes sur la page 1sur 41

Année universitaire 2019-2020

COURS DE PROBABILITÉS
et
STATISTIQUE

Maı̂trise statistique des procédés

SEMESTRE 4

Auteur : Florent ARNAL


Adresse électronique : florent.arnal@u-bordeaux.fr
Table des matières

1 GÉNÉRALITÉS 1
I Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
II.1 Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
II.2 Probabilités d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II.3 Conditionnement et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 VARIABLES ALÉATOIRES DISCRÈTES 5


I Généralités sur les variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II Espérance, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.2 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
III Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
III.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
III.2 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
III.3 Les lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
III.4 Indépendance de deux variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 9
III.5 Somme de deux variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 LOIS USUELLES DISCRÈTES 11


I Lois de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
I.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
I.2 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
II Lois Binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II.2 Lien entre variable binomiale et variable de Bernoulli . . . . . . . . . . . . . . . . . . . 12
II.3 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
III Lois de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4 LOIS CONTINUES 17
I Généralités sur les lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
II Lois normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
II.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
II.2 La loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
III Lois exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

5 STATISTIQUE INFERENTIELLE 27
I Distribution d’échantillonnage des moyennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
I.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
I.2 Distribution d’échantillonnage dans le cas d’une distribution normale dans la population 28
I.3 Cas d’une distribution quelconque dans la population . . . . . . . . . . . . . . . . . . . 28
II Estimation d’une moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
II.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
II.2 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
III Test d’hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

6 FIABILITÉ 33

2
TABLE DES MATIÈRES 3

I Premières notions de fiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33


I.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
I.2 Fonction de défaillance, fonction de fiabilité . . . . . . . . . . . . . . . . . . . . . . . . . 33
II Taux de défaillance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
III Durée de vie moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
IV Cas des phénomènes avec absence de mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4 TABLE DES MATIÈRES
Chapitre 1

GÉNÉRALITÉS

I Dénombrement
Définition 1 : Soit E un ensemble fini.
Le cardinal de E, noté card (E), est le nombre d’éléments de E.

Propriété 1 : Soient E et F deux ensembles finis. On a :


card (E ∪ F ) = card (E) + card (F ) − card (E ∩ F ).
Si E et F sont disjoints (E ∩ F = ∅) alors card (E ∪ F ) =card (E) + card (F ).

Théorème-Définition 1 : Soient E et F deux ensembles finis.


• E × F = {(e; f ) où e ∈ E et f ∈ F } .
• On a : card (E × F ) = card (E) × card (F ).

Exercice 1.1 On prélève successivement et sans remise deux boules dans une urne contenant 3 boules rouges,
2 boules vertes et une boule noire.
1. Dénombrer les tirages avec une boule rouge puis une boule verte.
2. Dénombrer les tirages avec une boule rouge et une boule verte.

1
2 CHAPITRE 1. GÉNÉRALITÉS

Théorème-Définition 2 : Soient E un ensemble fini de  cardinal


 n et p un entier tel que p ≤ n.
n n!
Le nombre de sous-ensembles de E ayant p éléments est = .
p p! (n − p)!

Remarque 1 : On parle aussi de combinaisons de p éléments d’un ensemble à n éléments noté parfois Cnp .

Exercice 1.2 On prélève simultanément trois boules dans une urne contenant 4 boules rouges, 3 boules
vertes et une boule noire.
1. Dénombrer les tirages avec deux boules rouges et une boule verte.
2. Dénombrer les tirages avec une boule de chaque couleur.

Remarque 2 :
       
n n n n
=1 ; =1 ; =n ; = n.
0 n 1 n−1
   
n n
Plus généralement : = .
p n−p

II Probabilités
II.1 Évènements
Définition 2 : Une expérience dont on ne peut prévoir le résultat à l’avance est appelée expérience
aléatoire.
Lors d’une expérience aléatoire, chaque résultat possible est appelé une issue.
L’ensemble de tous les résultats possibles de cette expérience aléatoire est appelé univers noté Ω.
Toute partie de l’univers est appelée un événement. Ω est appelé “ événement certain ” ; ∅ est appelé
“ événement impossible ”.

Remarque 3 : Un événement qui ne contient qu’une éventualité est un évènement élémentaire.

Définition 3 : Deux événements A et B qui n’ont aucune éventualité commune sont incompatibles (les
ensembles étant disjoints). On a donc : A ∩ B = ∅.

Définition 4 : Soit A un événement de l’univers Ω.


L’événement constitué de toutes les éventualités de Ω qui n’appartiennent pas à A est appelé l’événement
contraire de A, noté A.
II. PROBABILITÉS 3

II.2 Probabilités d’événements


Définition 5 : Soit Ω un ensemble fini et P(Ω) l’ensemble des parties de Ω.
L’application P : P(Ω) → [0 ; 1] est une probabilité sur Ω si :
• P(A ∪ B) = P(A) + P(B) pour tous A et B tels que A ∩ B = ∅.
• P(Ω) = 1.

Propriété 2 : La probabilité d’un événement A est la somme des probabilités des événements
élémentaires de A.

Exercice 1.3 On fait tourner une roue de loterie dont les numéros sont 1 ; 2 ; 3 ; 4 ; 5 ; 6.
On note pi la probabilité de l’événement {i}. On suppose que : p1 = p6 = 0,2 ; p5 = 0,3 et p2 = p3 = p4 .
Calculer la probabilité de l’événement A : “ on obtient un nombre pair ”.

Propriété 3 : Soient A et B deux évènements de l’univers Ω, on a :


• P (A ∪ B) = P(A) + P(B) − P (A ∩ B).

• P A = 1 − P (A).

Définition 6 : On dit qu’il y a équiprobabilité lorsque les probabilités de tous les événements
élémentaires sont égales.

Propriété 4 : En situation d’équiprobabilité, pour tout évènement A, on a :

card(A) ”nombre de cas favorables”


P (A) = =
card(Ω) ”nombre de cas possibles”

Exercice 1.4 On lance deux dés non truqués. Calculer la probabilité des événements
A : ”on obtient un double 6” et B : ”on obtient une somme égale à 5”.
4 CHAPITRE 1. GÉNÉRALITÉS

II.3 Conditionnement et indépendance


Définition 7 : (Probabilité conditionnelle)
Soit Ω un univers associé à une expérience aléatoire et B un événement de probabilité non nulle.
On appelle probabilité de A sachant B le nombre, noté PB (A), défini par :

P (A ∩ B)
PB (A) = .
P (B)

Propriété 5 : (Formule des probabilités totales)


Soit Ω un univers associé à une expérience
 aléatoire et A,B deux événements de probabilité non nulle.
On a : P (A) = P (A ∩ B) + P A ∩ B soit P (A) = PB (A) P (B) + PB (A) P B

Exercice 1.5 Une célèbre marque produit des objets de très bonne qualité, avec une probabilité de panne de
0,01.
Malheureusement, des contrefaçons de mauvaise qualité ont été mises sur le marché et elles occupent 20 %
du marché. Ces contrefaçons ont une probabilité de panne de 0,1.
1. Si on achète cet objet, quelle est la probabilité qu’il ne fonctionne pas ?
2. Si on achète un produit défectueux, quelle est la probabilité qu’il s’agisse d’une contrefaçon ?

Définition 8 : (Evénements indépendants)


Soient Ω un univers associé à une expérience aléatoire, A et B étant deux événements.
A et B sont indépendants si P (A ∩ B) = P (A) .P (B).
En effet :
Chapitre 2

VARIABLES ALÉATOIRES
DISCRÈTES

I Généralités sur les variables discrètes


On lance 3 fois une pièce de monnaie non truquée. On gagne 2 euros si le résultat est “ pile ” (noté P) et on
perd 1 euro si le résultat est “ face ” (noté F).
Quels sont les gains possibles ? Avec quelle probabilité ?

On a ainsi le tableau suivant :


Gains xi
Probabilités pi

On constate que la variable X permet d’effectuer un transfert de loi de probabilité de Ω sur le nouvel ensemble
d’issues {-3 ; 0 ; 3 ; 6}.

Définition 9 : Une variable aléatoire discrète X est une application de Ω → R qui prend les valeurs
isolées x1 , x2 , · · · .

Définition 10 : Notons pi la probabilité que X prenne la valeur xi pour i = 1, 2, · · · .


L’affectation des pi aux valeurs xi permet de définir une probabilité (appelée aussi loi de probabilité) PX
sur X(Ω).
Les événements (X = x1 ), (X = x2 ), · · · , sont les événements élémentaires de PX .
On note P(X = xi ) au lieu de PX (xi ).

Remarque 4 :
P
1. P(X = xi ) = 1.
i

5
6 CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES

2. La loi de probabilité d’une variable aléatoire discrète est donnée soit par la liste des probabilités (présentées
dans un tableau), soit par une formule.

Définition 11 : Soit X une variable aléatoire discrète. La fonction de répartition de X est la fonction
notée FX définie par
FX (x) = P(X ≤ x)

Exercice 2.1 Soit X une variable aléatoire discrète définie sur N.


Exprimer, à l’aide de FX , les probabilités suivantes : P(X ≥ 3) et P(3 ≤ X ≤ 7).

II Espérance, variance et écart-type


II.1 Espérance
Introduction historique
Cette notion a été introduite au XVII ième siècle pour représenter le gain moyen qu’un joueur était en droit
d’attendre dans un jeu de hasard lorsqu’il engageait différents paris.

Définition 12 : Soit X une variable aléatoire discrète prenant les valeurs x1 , x2 , · · · .


L’espérance de X est le réel, noté E (X), défini par :
X
E (X) = xi P(X = xi )
i

Remarque 5 :
• Lorsque X prend une infinité
P de valeurs, l’espérance d’une variable aléatoire est définie sous réserve de
convergence de la série xi P(X = xi ).
i

• E (X) est donc la moyenne des valeurs xi pondérées par les probabilités P(X = xi ).

Exercice 2.2 Calculer E (X) en reprenant l’exemple précédent :

Théorème 1 : (Théorème de transfert)


Soit X une variable aléatoire discrète prenant les valeurs x1 , x2 , x3 , . . . . et ϕ une fonction définie sur
ϕ (X (Ω)). On a : X
E (ϕ (X)) = ϕ (xi ) P (X = xi )
i
II. ESPÉRANCE, VARIANCE ET ÉCART-TYPE 7


Exercice 2.3 Calculer E X 2 en reprenant l’exemple précédent :

Propriété 6 : (Linéarité de l’espérance)


Soient X une variable aléatoire discrète et a, b deux réels. On a :

E (aX + b) = aE(X) + b
En effet :

II.2 Variance et écart-type


Il s’agit de paramètres de dispersion autour de l’espérance ! ! !

Définition 13 : Soit Xune variable aléatoire discrète prenant les valeurs x1 , x2 , · · · .


• La variance de X est le réel, noté V (X), défini par :
X 2
V (X) = [xi − E(X)] P(X = xi )
i

• L’écart-type de X est le réel, noté σ(X), défini par :


p
σ(X) = V (X)

Remarque 6 :
• Lorsque X prend une infinité
P 2 de valeurs, la variance d’une variable aléatoire est définie sous réserve de
convergence de la série xi P(X = xi ).
i

• Pour le calcul de la variance, on utilise parfois la formule suivante (Formule de Koenig-Huygens) :


X 2 2
V (X) = x2i P(X = xi ) − [E(X)] = E(X 2 )− [E(X)]
i

Exercice 2.4 Calculer la variance et l’écart-type de X en reprenant l’exemple précédent :


8 CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES

Propriété 7 : Soient X une variable aléatoire discrète et a, b deux réels.

V (aX + b) = a2 V (X)
et
σ (aX + b) = |a| σ (X)
En effet :

III Couples de variables aléatoires


III.1 Exemple
Un jury d’experts en analyse sensorielle a noté 20 mousses au chocolat de marques différentes selon deux critères :
l’onctuosité et le goût.
Les notes varient de 1 à 5 pour l’onctuosité et de 1 à 4 pour le goût.
Les résultats obtenus sont récapitulés dans le tableau ci-dessous (on note X la variable aléatoire égale à la note
concernant l’onctuosité et Y la variable aléatoire égale à la note concernant le goût).

1 2 3 4 5
X
Y
1 1 0 0 0 0
2 0 0 0 1 0
3 3 3 2 2 2
4 0 1 3 1 1

III.2 Loi conjointe


Définition 14 : Considérons un couple de variables aléatoires discrètes (X ; Y ), X prenant les valeurs
x1 , x2 , · · · et Y prenant les valeurs y1 , y2 , · · · .
On appelle loi de probabilité associée au couple (X, Y ), l’application P définie par :

P(xi ; yj ) = P ((X = xi ) ∩ (Y = yj )) .

Remarque 7 : X
P ((X = xi ) ∩ (Y = yj )) = 1
i,j
III. COUPLES DE VARIABLES ALÉATOIRES 9

Exercice 2.5 Déterminer la loi conjointe du couple (X; Y ) en reprenant les données précédentes.
(On pourra compléter le tableau ci-dessous en faisant figurer des probabilités).

1 2 3 4 5
X
Y
1
2
3
4

III.3 Les lois marginales


Définition 15 : Considérons un couple de variables aléatoires discrètes (X ; Y ), X prenant les valeurs
x1 , x2 , · · · , xn et Y prenant les valeurs y1 , y2 , · · · , ym .
La loi marginale de X est l’application PX définie sur X(Ω) = {x1 , x2 , · · · , xn } par :
m
X
PX (xi ) = P(X = xi ) = P ((X = xi ) ∩ (Y = yj ))
j=1

Remarque 8 : On définit de même la loi PY de Y sur Y (Ω) = {y1 , y2 , · · · , ym }.

Exercice 2.6 En utilisant toujours le même exemple, on souhaite déterminer les lois marginales c’est-à-dire
les lois de X et Y .

1 2 3 4 5 Loi marginale de
X
Y
1 0,05 0 0 0 0
2 0 0 0 0,05 0
3 0,15 0,15 0,1 0,1 0,1
4 0 0,05 0,15 0,05 0,05
Loi marginale
de

III.4 Indépendance de deux variables aléatoires

Définition 16 : Considérons un couple de variables aléatoires discrètes (X ; Y ), X prenant les valeurs


x1 , x2 , · · · et Y prenant les valeurs y1 , y2 , · · · .
X et Y sont indépendantes si P (xi ; yj ) = P (X = xi ) × P (Y = yj ) pour tout couple (i, j).
10 CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES

Exercice 2.7 Les variables X et Y de l’exemple précédent sont-elles indépendantes ?

III.5 Somme de deux variables aléatoires


Propriété 8 : Considérons un couple de variables aléatoires (X; Y ) admettant une espérance et une
variance. On a :
E(X + Y ) = E(X) + E(Y ) et E(X − Y ) = E(X) − E(Y )
En outre, si X et Y sont indépendantes alors

V (X + Y ) = V (X) + V (Y )
Chapitre 3

LOIS USUELLES DISCRÈTES

I Lois de Bernoulli

I.1 Généralités

Définition 17 : On dit que X est distribuée selon la loi de Bernoulli de paramètre p si :


• X ne peut prendre que les valeurs 0 et 1.
• P(X = 1) = p et P(X = 0) = q = 1 − p.
On note : X ∼ B(1, p).

Exercice 3.1 On considère un jeu de cartes et on note X la variable aléatoire égale à 1 si la carte tirée est
un “ pique ”, à 0 sinon. Déterminer la loi de X, son espérance et sa variance.

I.2 Espérance et variance

Propriété 9 : On suppose que X ∼ B(1, p). On a :

E (X) = p et V (X) = p (1 − p) = pq

En effet :

11
12 CHAPITRE 3. LOIS USUELLES DISCRÈTES

II Lois Binomiales
II.1 Généralités
Définition 18 : Supposons que l’on répète n fois, dans des conditions identiques et indépendantes, une
expérience aléatoire dont l’issue est :
• soit un succès (noté S) avec la probabilité p ;
• soit un échec (noté E) avec la probabilité q = 1 − p.
On note X la variable aléatoire égale au nombre de succès obtenus lors de ces n expériences.
On dit que X est distribuée suivant la loi binomiale de paramètres n et p notée B(n, p).

Remarque 9 :
1. X prend les valeurs de J0; nK.
2. Lorsque les n tirages s’effectuent dans une population contenant un grand nombre N d’individus tel que
N > 10n (c’est-à-dire dès que la population est 10 fois plus grande que l’échantillon), les tirages pourront
être assimilés à des tirages avec remise.

II.2 Lien entre variable binomiale et variable de Bernoulli


Considérons désormais que, pour chaque expérience, le succès (S) sera associé à la valeur 1 alors que l’échec
(E) sera associé à la valeur 0.
Un résultat possible lorsque l’on répète 7 fois une telle expérience aléatoire est : (S; E; E; S; E; S; E).
Il y a 3 succès (et donc 4 échecs).
Avec la notation binaire introduite précédemment, on a : (. . . ;. . . ;. . . ;. . . ;. . . ;. . . ;. . . ).

De plus, pour chaque expérience, le résultat est 1 avec la probabilité p ou 0 avec la probabilité 1 − p.

On peut constater que le nombre de succès correspond à ...............................................................

A chaque expérience numérotée i tel que i ∈ J1; nK, on peut donc associer une variable de Bernoulli Xi de
paramètre p telle que :
Xn
X= Xi
i=1

On a vu que les résultats sont indépendants les uns des autres ce qui permet de dire que les variables Xi sont
(mutuellement) indépendantes. On a donc le théorème suivant :

Théorème 2 : X suivant la loi binomiale B(n, p) est la somme de n variables de Bernoulli indépendantes
et de même paramètre p.

II.3 Loi de probabilité


On a déjà vu que X peut ses valeurs dans J0; nK.
Il reste à déterminer la probabilité P (X = k) pour k ∈ J0; nK.

Un résultat possible tel que (X = k) est : (S; E; E; S; . . . ; . . . .; E) (. . . .. fois S).


En utilisant les variables de Bernoulli introduites précédemment, on a :
(S; E; E; S; . . . ; . . . .; E) = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

La probabilité de cet événement est égale à :


pk = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
car les Xi sont 2 à 2 indépendantes
II. LOIS BINOMIALES 13

Ainsi : pk = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(il y a k fois ”1” et (n − k) fois ”0”)

En dénombrant les façons de choisir les positions des k succès parmi les n places disponibles, on obtient :
P (X = k) = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

On en déduit la propriété suivante :


Propriété 10 : Si X suit la loi binomiale B(n, p) alors
 
n k
P(X = k) = p (1 − p)n−k ∀k ∈ J0; nK
k

Exercice 3.2 Sur la première période de la saison 2019-2020, Neymar a marqué 1 but lors de 6 des 8 matchs
de Ligue 1 auxquels il a participé.
On convient que la probabilité qu’il marque (au moins) un but lors d’un match est égale à 0,75. On note X la
variable aléatoire prenant pour valeurs le nombre de matchs durant lesquels Neymar marque (au moins) un
but lors des 10 prochains matchs.
1. Déterminer la loi de probabilité de X
2. (a) Quelle est la probabilité que Neymar marque à chaque match ?
(b) Quelle est la probabilité que Neymar marque lors de 5 matchs exactement ?
(c) Quelle est la probabilité que Neymar marque au moins un but ?
14 CHAPITRE 3. LOIS USUELLES DISCRÈTES

Propriété 11 : (Espérance et variance)


Soit X une variable aléatoire distribuée selon la loi binomiale B(n, p). On a :

E (X) = np et V (X) = np (1 − p) = npq

Démonstration :

Exercice 3.3 En reprenant l’exercice précédent, calculer l’espérance de X. Interpréter ce résultat.

III Lois de Poisson

Définition 19 : On dit qu’une variable aléatoire X est distribuée selon la loi de Poisson de paramètre
λ > 0 notée P(λ) si :
• X prend ses valeurs dans N
λk
• P (X = k) = e−λ pour tout entier naturel k.
k!

Remarque 10 : Une loi de Poisson ne correspond pas à une situation-type ; elle apparaı̂t comme modèle
décrivant certaines observations statistiques (pannes de machine, nombre de personnes passant à un guichet
dans un temps donné,. . . .) ou comme loi limite.

Propriété 12 : (Espérance et variance)


Soit X une variable distribuée suivant la loi de Poisson de paramètre λ. On a :

E (X) = λ et V (X) = λ

Démonstration :
III. LOIS DE POISSON 15

Exercice 3.4 Le service qui gère les commandes d’une entreprise a relevé pour les années passées une
moyenne de 5 erreurs pour 100 commandes.
On suppose que la variable aléatoire X qui mesure le nombre d’erreurs pour 100 commandes suit la loi de
poisson de paramètre λ.
1. Déterminer la valeur de λ.
2. Déterminer la probabilité de dénombrer pour une série de 100 commandes 3 erreurs.
3. Déterminer la probabilité de dénombrer pour une série de 100 commandes au moins 2 erreurs.
16 CHAPITRE 3. LOIS USUELLES DISCRÈTES
Chapitre 4

LOIS CONTINUES

I Généralités sur les lois continues


Nous avons étudié précédemment des lois de probabilité de variables aléatoires discrètes (ne prenant que des
valeurs isolées).
Dans cette partie, nous allons considérer des variables aléatoires pouvant prendre toutes les valeurs de R (voire
d’un intervalle de R).

Définition 20 : On appelle fonction densité de probabilité, toute fonction f définie sur R, telle que :
• f est continue sur R (sauf éventuellement en quelques valeurs) ;
• f est positive sur R ;
Z
+∞

• f (t) dt = 1.
−∞


3x2 si x ∈ [0; 1]
Exercice 4.1 Vérifier que la fonction f définie sur R par f (x) = est une densité de
0 sin on
probabilité.

Définition 21 : On dit qu’une variable aléatoire X est continue à fonction de densité f si :


pour tout intervalle Ide R, on a : Z
PX (I) = f (t)dt
I

17
18 CHAPITRE 4. LOIS CONTINUES

Ainsi : si I = [a; b] alors PX ([a; b]) = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Usuellement, PX ([a; b]) se note également . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Remarque 11 : • On dit également que la loi de X admet f comme densité de probabilité.


• Pour tout réel a, on a :
P (X = a) = P (· · · ≤ X ≤ · · ·) = · · · · · · · · · · · · · · · · · · donc

P (X = a) = · · ·

Ainsi, la probabilité qu’une variable aléatoire continue X prenne une valeur isolée est nulle.
On a donc : P (X < a) = P (X ≤ a) pour tout réel a.
On utilise donc indifféremment des inégalités larges ou strictes avec des variables aléatoires continues.

Théorème-Définition 3 : Soit X une variable aléatoire continue de densité de probabilité f .


Zx
• La fonction de répartition de X est la fonction F définie sur R par F (x) = f (t) dt = P (X ≤ x).
−∞
• F est une primitive de f presque partout.
Illustration graphique :

Propriété 13 : Soit X une variable aléatoire continue admettant F comme fonction de répartition.
• P (a ≤ X ≤ b) = F (b) − F (a) et P (X > b) = 1 − F (b).
• La fonction F est strictement croisante sur R et 0 ≤ F ≤ 1.
Explications :
I. GÉNÉRALITÉS SUR LES LOIS CONTINUES 19

Définition 22 : Soit X une variable aléatoire continue de densité de probabilité f .


• L’espérance de X est le réel, noté E(X), défini par

Z
+∞

E(X) = t f (t) dt
−∞

• La variance de X est le réel, noté V (X), défini par

Z
+∞
2
V (X) = (t − E(X)) f (t) dt
−∞

Remarque 12 :
R
+∞
• L’espérance de X n’est définie que si t f (t) dt est absolument convergente.
−∞
R 2
+∞
2
• La variance peut, elle aussi, ne pas exister. Si elle existe, on a également : V (X) = t f (t) dt−[E(X)]
 −∞
soit V (X) = E X 2 − E(X)2 .

1 −1 2
Exercice 4.2 Soit X une vac de densité de probabilité f définie sur R par f (x) = √ e 2 x .

1. Etudier la fonction f et la représenter.
2. Calculer l’espérance de X.
20 CHAPITRE 4. LOIS CONTINUES

II Lois normales
II.1 Généralités
Définition 23 : On dit qu’une variable aléatoire X est distribuée suivant la loi normale de paramètres
1 x−µ 2
µ et σ, noté N (µ, σ), si la densité de probabilité de X est définie sur R par f (x) = σ√12π e− 2 ( σ ) .

Voici la courbe représentative de densités de probabilité associées à certaines lois normales :

Loi N (0; 1) Loi N (2; 0, 75)

Loi N (0; 2) Loi N (2; 1)

Propriété 14 : Si X est distribuée suivant la loi normale N (µ, σ) alors :

E(X) = µ et σ(X) = σ

X −µ
Déterminons désormais la loi de la variable U = .
σ
On admet que U est distribuée normalement. Il reste à déterminer les paramètres de la loi.

Théorème-Définition 4 : Si X est distribuée suivant la loi normale N (µ, σ) alors :


X −µ
X⋆ = est distribuée suivant la loi normale N (0; 1) appelée loi normale centrée réduite.
σ

X − 1000
Exemple 1 Si X est distribuée suivant la loi N (1000; 20) alors X ⋆ = suit la loi N (0; 1).
20
II. LOIS NORMALES 21

Remarque 13 : On constate donc que tous les calculs de probabilités avec une variable normale peuvent se
ramener à des calculs avec la variable normale centrée réduite X ⋆ .

II.2 La loi normale centrée réduite


Définition 24 : On dit qu’une variable aléatoire U est distribuée suivant la loi normale centrée réduite
si sa fonction de densité f est définie sur R par :
1 1 2
f (x) = √ e− 2 x

Sa courbe représentative est la suivante :

Figure 4.1 – Courbe associée à la loi N (0; 1).

Définition 25 : La fonction de répartition de la variable normale centrée réduite est la fonction notée
Φ définie sur R par :
Zx
Φ (x) = P (U ≤ x) = f (t)dt
−∞

On suppose pour les exercices qui suivent que la variable U suit la loi normale N (0; 1).

Exercice 4.3 Calculer P (U ≤ 1, 96) et P (U > 1, 64).

Exercice 4.4 Calculer P (1, 96 ≤ U ≤ 2, 58) et P (0 ≤ U ≤ 1, 64).

Exercice 4.5 On suppose que X est distribuée suivant la loi normale N (100; 5).
Calculer P (X ≤ 109, 8) et P (100 ≤ X ≤ 108, 2).

Il faut cependant remarquer que la table fournie ne contient que des valeurs positives.
Il faut donc trouver une relation pour effectuer des calculs avec des valeurs négatives.
22 CHAPITRE 4. LOIS CONTINUES

Propriété 15 : Pour tout réel x positif, on a :

Φ (−x) + Φ (x) = 1
Traduction graphique :

Exercice 4.6 Calculer P (U ≤ −1, 96) et P (−2, 58 ≤ U ≤ −1).

Pour finir, la relation suivante est souvent utile :

Propriété 16 : Pour tout réel x positif, on a :

P (−x ≤ U ≤ x) = 2Φ (x) − 1
Démonstration :

Exercice 4.7 On suppose que X suit la loi normale N (µ, σ). Calculer P (µ − 2σ ≤ X ≤ µ − 2σ).

Figure 4.2 – Pourcentages classiques liées aux lois normales.


III. LOIS EXPONENTIELLES 23

III Lois exponentielles


Définition 26 : Soit λ un réel strictement positif.
Une loi de probabilité est exponentielle de paramètre λ si sa fonction de densité de probabilité est la
fonction f définie sur par 
λe−λx si x≥0
f (x) =
0 sinon

Exercice 4.8 On s’intéresse à la durée de vie X, exprimée en semaines, d’un composant électronique. On
modélise cette situation par une loi de probabilité P exponentielle de paramètre λ. Une étude statistique,
montrant qu’environ 50% d’un lot important de ces composants sont encore en état de marche au bout de 200
semaines, permet de poser P (0 ≤ X ≤ 200) = 0, 5.
ln 2
1. Montrer que : λ = .
200
2. Quelle est la probabilité qu’un de ces composants pris au hasard ait une durée de vie supérieure à 300
semaines ?
24 CHAPITRE 4. LOIS CONTINUES

Théorème 3 : Si X est une variable aléatoire de loi exponentielle de paramètre λ alors


1 1
E (X) = et V (X) =
λ λ2
Démonstration :

Exercice 4.9 En reprenant l’exemple précédent, déterminer la durée de vie moyenne de ces composants.

Propriété 17 : Soit X une variable aléatoire distribuée suivant la loi exponentielle de paramètre λ et
a un réel positif. On a :
P(X < a) = 1 − e−λa
Ainsi, la fonction de répartition F d’une loi exponentielle de paramètre λ peut être définie par :

1 − e−λx si x≥0
F (x) =
0 sinon
Démonstration :
III. LOIS EXPONENTIELLES 25

Exercice 4.10 Soit X une variable aléatoire distribuée suivant la loi exponentielle de paramètre λ,
a et b étant deux réels positifs.
Déterminer P(X > a) et P(a < X < b).

Propriété 18 : Soit X une variable aléatoire distribuée suivant la loi exponentielle de paramètre λ,
s et t étant deux réels positifs. On a :

P(X>s) (X > t + s) = P (X > t)


Démonstration :

Cette formule montre que ces lois interviennent pour décrire des phénomènes “ sans vieillissement ”
ou avec “ absence de mémoire ”.
26 CHAPITRE 4. LOIS CONTINUES
Chapitre 5

STATISTIQUE INFERENTIELLE

I Distribution d’échantillonnage des moyennes


I.1 Introduction
Ce chapitre propose une initiation à l’utilisation des méthodes statistiques permettant d’étudier certaines ca-
ractéristiques d’une population à partir des résultats observés sur un échantillon.

Nous supposerons que les prélèvements sont effectués de manière aléatoire et avec remise ou peuvent être
considérés comme tels.
On considère alors des échantillons aléatoires simples (EAS).

On extrait de cette population des échantillons de taille n.

Dans chacun des échantillons, on calcule les différents paramètres pour une variable quantitative X étudiée.

Variables aléatoires associées


No des échantillons X1 X2 ······ Xn Moyenne : X̄
1 x11 x12 ······ x1n x̄1
2 x21 x22 ······ x2n x̄2
.. .. .. .. .. ..
. . . . . .
k xk1 xk2 xkn x̄k
.. .. .. .. .. ..
. . . . . .

La variable aléatoire X1 prend la première valeur observée sur l’échantillon, la variable aléatoire X2 qui prend
la deuxième valeur observée sur l’échantillon, · · · et la variable aléatoire Xn prend la dernière valeur observée
sur l’échantillon.

On considère que toutes les variables aléatoires Xi sont distribuées selon la même loi que X.

De plus, les échantillons prélevés sont considérés aléatoires et simples ce qui a pour conséquence que les variables
aléatoires Xi sont mutuellement indépendantes.

X1 + X2 + X3 + ... + Xn
Définition 27 : La variable aléatoire X̄ = est appelée moyenne des
n
échantillons de taille n (ou moyenne d’échantillonnage).

Remarque 14 : Cette variable associe à tout échantillon de taille n extrait de la population la moyenne de
cet échantillon.

27
28 CHAPITRE 5. STATISTIQUE INFERENTIELLE

I.2 Distribution d’échantillonnage dans le cas d’une distribution normale dans la


population
Théorème 4 : [Stabilité par additivité]
La somme de n variables aléatoires indépendantes de lois normales est elle-même une variable aléatoire
de loi normale.
Ce théorème est admis. Il est à noter qu’on peut le démontrer en utilisant le produit de convolution.

Théorème 5 : Soit (Xi )1≤i≤n une suite de variables indépendantes de même loi N (µ; σ). On a :
 
σ
X̄ ֒→ N µ; √
n
Démonstration :

Remarque 15 :
X̄ − µ
• On a : ֒→ N (0; 1).
√σ
P n
• Xi est également distribuée suivant une loi normale.

I.3 Cas d’une distribution quelconque dans la population


Théorème 6 : [Théorème Central Limite (TCL)]
Soit (Xi )1≤i≤n une suite de variables indépendantes de même espérance µ et d’écart-type σ.
 
σ
Pour n assez grand, X̄ est distribuée approximativement suivant loi normale N µ; √ .
n

Remarque 16 :
•PEn pratique, on considère que n est assez grand lorsque n ≥ 30.
• Xi est également distribuée approximativement suivant une loi normale.
X
Exercice 5.1 On considère une variable aléatoire X distribuée suivant la loi B(n; p). On note : F = .
n
1. Justifier que, lorsque n est grand, la loi de F peut être approchée par une loi normale.
2. Déterminer les paramètres de cette loi.
II. ESTIMATION D’UNE MOYENNE 29

II Estimation d’une moyenne


II.1 Estimation ponctuelle
Définition 28 : Soit θ un paramètre d’un modèle.
Une variable Y est un estimateur sans biais de θ si E(Y ) = θ.
b est donnée par la réalisation y de la variable Y
Une estimation ponctuelle de ce paramètre θ, notée θ,
sur un échantillon donné. On a donc :
θb = y

Propriété 19 : Une estimation ponctuelle µ


b de la moyenne µ d’une population est donnée par

b = x̄
µ

II.2 Estimation par intervalle de confiance


Définition 29 : Estimer un paramètre θ par intervalle (symétrique en probabilité), au niveau de
confiance 1 − α ∈]0; 1[ à partir d’un estimateur Y revient à déterminer un réel positif η tel que

P (Y − η ≤ θ ≤ Y + η) = 1 − α

L’intervalle [y − η; y + η] est une estimation par intervalle de confiance de θ au niveau de confiance 1 − α.

Exercice 5.2 Un manufacturier d’ampoules veut connaı̂tre la durée de vie moyenne µ, en heures, des am-
poules qu’il fabrique. Il ne peut évidemment toutes les tester, donc il prélève un échantillon 100 ampoules et
obtient une durée de vie moyenne de 1100 h.
On suppose que l’écart-type σ de la population d’ampoules est de 100 h.
1. Donner une estimation ponctuelle de la durée de vie moyenne des ampoules de la production.
2. Déterminer x tel que P (−x ≤ U ≤ x) = 0, 95.
3. En déduire une estimation de la durée de vie moyenne µ des ampoules, à l’aide d’un intervalle
(symétrique en probabilité, avec un niveau de confiance de 95 %).
30 CHAPITRE 5. STATISTIQUE INFERENTIELLE

 
σ σ
Remarque 17 : L’intervalle x − 1, 96 √ ; x + 1, 96 √ est un intervalle de confiance de la moyenne µ au
n n
niveau de confiance 0,95.

III Test d’hypothèse


Il s’agit de mettre en œuvre des méthodes statistiques pour permettre de prendre une décision.

D’une manière générale, il s’agit, à partir d’un (ou plusieurs) échantillon(s) EAS (échantillons aléatoires simples),
de prendre des décisions concernant la moyenne de la population dont est extrait l’échantillon.

1. Hypothèses d’un test


La première étape d’un test consiste à déterminer l’hypothèse à tester.
Cette hypothèse, notée H0 , est appelée hypothèse nulle.
Il s’agit, en général, d’une égalité.

On définit ensuite l’hypothèse qui sera retenue si on rejette H0 .


Cette hypothèse est appelée l’hypothèse alternative H1 et peut être :
soit “ . . . .6=. . . . ” ; on dit que le test est bilatéral.
soit “ . . . .>. . . . ” ou “ . . . .<. . . .. ” ; on dit alors que le test est unilatéral.

2. Seuil de risque et choix du modèle


Lorsqu’on met en place un test, il faut se fixer un seuil de signification.
On le prend généralement égal à 5 %.

Quant à la variable de décision et la loi associée, elles seront définies suivant le paramètre considéré.
Par exemple, dans le cas d’un test de conformité d’une moyenne µ, on prendra, sous réserve de validité :
 
σ
X̄ ֒→ N µ; √
n

3. Calcul du risque réel d’erreur (appelé α)


L’objectif du calcul du risque est de répondre à la question suivante :
”En supposant l’hypothèse H0 vraie, peut-on considérer que la différence observée (entre la réalité et la
valeur supposée) est dûe au hasard ?”
Pour répondre à cette question, on calcule la probabilité, notée souvent p, d’avoir, sous H0 , une obser-
vation ”pire” que celle que l’on a obtenue.
Cette notion de pire dépend bien évidemment de la nature et du ”côté” du test.

Dans le cas d’un test bilatéral, on convient que la probabilité p correspond au double de celle qui aurait
été obtenue lors de la mise en place d’un test unilatéral.

4. Conclusion
Si la probabilité p associée au risque α est inférieure au seuil de signification (en général 0,05), le résultat
obtenue peut être considéré comme peu probable.
Ainsi, si H0 est vraie, la probabilité d’obtenir un résultat tel que celui observé est très faible.
On convient alors de rejeter H0 (au profit de H1 ).
Dans le cas contraire, on ne rejette pas H0 .

Si l’hypothèse H0 est rejetée alors que le seuil de signification considéré était égal à 5 %, on dit qu’on
rejette H0 de manière significative.
III. TEST D’HYPOTHÈSE 31

Exercice 5.3 On s’intéresse à la durée de vie X, exprimée en heures, d’un module d’affichage oled et on
admet que l’écart-type des durées de vie est égal à 300 h.
La datasheet de ce module signale une durée de vie moyenne de 6000 h.
Afin de valider ces informations, on prélève un échantillon aléatoire de 36 modules et on constate une durée
de vie moyenne de 5900 h.
Peut-on considérer que l’information fournie par la datasheet est erronée ?
32 CHAPITRE 5. STATISTIQUE INFERENTIELLE
Chapitre 6

FIABILITÉ

I Premières notions de fiabilité


I.1 Introduction
Ce chapitre propose une initiation à la fiabilité définie par l’AFNOR par :
“ Aptitude d’un dispositif à accomplir une fonction requise dans des conditions d’utilisation et pour une période
de temps déterminée ”.
La notion de fiabilité est étroitement liée aux notions de probabilité introduites précédemment.
Dans ce chapitre, nous n’aborderons que le cas où de période située avant la première panne ou défaillance,
soit après une réparation ayant permis de remettre le dispositif à neuf. Dans ce qui suit, nous considérerons un
dispositif pis au hasard dans une population de dispositifs de même nature.
Ce dispositif peut être, par exemple, une machine, une partie de machines, un réseau de machines,. . . .

I.2 Fonction de défaillance, fonction de fiabilité


Définition 30 : Temps de bon fonctionnement (TBF)
Soit T la variable aléatoire égale à la date de première défaillance d’un dispositif mis en marche à la date
t=0.
T est appelé durée de vie avant défaillance voire temps de bon fonctionnement (TBF).
Dans la suite de ce chapitre, nous noterons f la densité de probabilité associée à T .

Définition 31 : Fonction de fiabilité


La fonction de fiabilité notée R est définie, pour tout t ≥ 0, par

R(t) = P (T ≥ t)

Remarque 18 : R(t) = P (T ≥ t) correspond à la probabilité que le dispositif fonctionne à l’instant t.

Définition 32 : Fonction de défaillance


La fonction de défaillance notée F est définie, pour tout t ≥ 0, par

F (t) = P (T ≤ t)

Remarque 19 : F (t) = P (T ≤ t) correspond à la probabilité que le dispositif soit en panne à l’instant t (durée
de vie inférieure à t).
F correspond à la fonction de répartition de T .
Pour tout t positif, on a : R(t) = 1 − F (t).

33
34 CHAPITRE 6. FIABILITÉ

II Taux de défaillance
Déterminons la probabilité qu’un système ait une défaillance entre le instants t et t + h sachant qu’il fonctionne
correctement à l’instant t. Déterminons donc

P(T ≥t) (t ≤ T ≤ t + h)

Définition 33 : Taux de défaillance moyen


Le taux de défaillance moyen (taux moyen de défaillance par unité de temps) est donné par :

P(T ≥t) (t ≤ T ≤ t + h)
h
En faisant tendre h vers 0 (à rapprocher de la notion de vitesse instantanée), on a : On en déduit que :

Définition 34 : Taux de défaillance


Le taux de défaillance (instantanée à l’instant t), noté λ, est défini par :

R′ (t)
λ (t) = −
R(t)
Interprétation du taux de défaillance (cas d’une “ courbe en baignoire ”)

 
Zt
Propriété 20 : pour tout t ≥ 0, R(t) = exp − λ (x) dx.
0
III. DURÉE DE VIE MOYENNE 35

III Durée de vie moyenne


Définition 35 : La durée de vie moyenne se note MTBF (Moyenne des Temps de Bon Fonctionnement)
voire MTTF (Mean Time To Failure). Elle correspond à :

Z
+∞

E (T ) = t f (t) dt
0

Exercice 6.1 On considère un système S constitué de trois systèmes indépendants en série notés respective-
ment S1 , S2 et S3 .
On convient que le taux de défaillance du système Si est constant et égal à λi .
1. Déterminer la fonction de fiabilité Ri associée au système Si .
2. En déduire la fonction de fiabilité R associée au système S.
3. Déterminer le MTBF associé au système S.
36 CHAPITRE 6. FIABILITÉ

IV Cas des phénomènes avec absence de mémoire


Cette hypothèse relève d’un processus de Poisson où la probabilité d’avoir n pannes entre les instants 0 et t est
donnée par :
n
(λt)
P (N (t) = n) = e−λt
n!
où N (t) représente le nombre de pannes entre les instants 0 et t.
Il s’avère que : P (T ≥ t) = P (N (t) = · · ·). Ainsi :

Propriété 21 : Dans le cas de pannes se produisant à la suite de multiples causes indépendantes entre
elles, indépendantes du temps et dont aucune n’est prépondérante, la durée de vie T d’un système suit
une loi exponentielle (de paramètre λ).
• Sa fonction de fiabilité est R(t) = e−λt .
• Son taux de défaillance est constant et égal à λ.
1
• Sa durée de vie moyenne est égale à .
λ

Vous aimerez peut-être aussi