Vous êtes sur la page 1sur 59

Université Hassan II de Casablanca

Faculté des Sciences et Techniques de


Mohammedia
Département de Mathématiques

COURS DE PROBABILITES

Module M147 - Filière MIP

Abdelhak FAHSI

Année Universitaire : 2020-2021


Table des matières

1 Calcul des Probabilités 4


1.1 Langage probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Notion d’événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Définition de la probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Cas particulier : Probabilité uniforme . . . . . . . . . . . . . . . . . . . . . 8
1.3 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Formules de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Evénements indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1 Cardinal : Définition et propriètés . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.2 Principe de multiplication et principe d’addition . . . . . . . . . . . . . . . 15
1.4.3 Choix de p éléments parmi n éléménts distincts . . . . . . . . . . . . . . . 17

2 Variables aléatoires discrètes 23


2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Loi de probabilité - Fonction de répartition . . . . . . . . . . . . . . . . . . . . . 24
2.3 Paramètres d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . 26
2.4 Lois de probabilité discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4.3 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

1
TABLE DES MATIÈRES 2

2.4.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33


2.4.5 Loi binomiale négative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Couple de variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.1 Loi conjointe d’un couple de variables aléatoires . . . . . . . . . . . . . . . 37
2.5.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.3 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3 Variables aléatoires continues 41


3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Fonction de répartition - Fonction densité de probabilité . . . . . . . . . . . . . . 41
3.3 Changement de variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . 43
3.4 Paramètres d’une variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . 45
3.5 Lois de probabilité continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.3 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5.4 Loi Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.6 Approximations par une loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.7 Loi conjointe d’un couple de variables aléatoires . . . . . . . . . . . . . . . . . . . 56
Introduction générale

Dans la première partie de ce cours, on a introduit les méthodes statistiques nécessaires pour
décrire et analyser un ensemble de données. Pour pouvoir utiliser ces informations et essayer de
les généraliser à toute une population, on aura besoin d’autres outils mathématiques. Ces outils
sont basés sur la théorie des probabilités qui est une branche des mathématiques fondamentale
à l’étude de tous les phénomènes aléatoires pour lesquels il existe des éléments d’incertitude.
Historiquement, le calcul des probabilités concernait principalement l’étude et la modélisation des
jeux de hasard. La probabilité est définie comme étant le nombre de cas favorables sur le nombre
de cas possibles et la solution fait souvent appel au dénombrement. Cependant l’avènement
des probabilités comme discipline mathématique est relativement récent. C’est à la suite des
travavaux de Pascal, Fermat, Huygens, Bernoulli que Laplace, Poisson, Gauss et d’autres auteurs
ont formalisé la théorie des probabilités ce qui a permi l’extension de son usage à différentes
disciplines.
Le but principal de cette partie est de se familiariser avec le raisonnement probabiliste.

3
Chapitre 1

Calcul des Probabilités

1.1 Langage probabiliste

1.1.1 Expérience aléatoire


Définition 1.1.1
On appelle expérience (ou épreuve) aléatoire, toute expérience dont le résultat est imprévisible,
mais dont l’ensemble de tous les résultats possibles est connu à l’avance (chacun des résultats
possibles a une certaine chance d’être réalisé).

Exemple 1.1.1
– Lancer un dé non truqué dont les faces sont numérotées de 1 à 6.
– Choisir un individu au hasard dans une population et s’intéresser à son groupe sanguin.
– Lancer une flèche sur un disque de rayon R et noter la distance du point d’impact au centre.

1.1.2 Ensemble fondamental


Définition 1.1.2
On appelle ensemble fondamental (ou univers) associé à une expérience aléatoire, l’ensemble de
tous les résultats possibles de cette expérience. Il est noté Ω.
Exemple 1.1.2
– Lancer un dé non truqué : Ω = {1, 2, 3, 4, 5, 6}
– Lancer deux dés non truqués : Ω = {(i, j), 1 6 i 6 6; 1 6 j 6 6}
– Observer le groupe sanguin d’un individu : Ω = {A, B, AB, O}
– Lancer une flèche sur un disque de rayon R : Ω = [0, R]

4
CHAPITRE 1. CALCUL DES PROBABILITÉS 5

Remarque 1.1.1
L’ensemble fondamental associé à une épreuve aléatoire peut être fini ou infini dénombrable ou
non dénombrable.

1.1.3 Notion d’événement

Soit Ω un univers associé à une expérience aléatoire.


Définition 1.1.3
On appelle événement, toute partie de Ω dont on peut dire, à l’issue de l’expérience aléatoire, si
elle est réealisée ou non.
On réserve les premières lettres de l’alphabet A, B, C, ..., pour noter un événement.
Un événement, noté A, est caractérisé par le sous-ensemble A ⊂ Ω des résultats ωi ∈ Ω qui le
réalisent.
Exemple 1.1.3
– Lancer un dé. Soit l’événement A = "obtenir un point pair". On a A = {2, 4, 6}
– Lancer deux dés. Soit l’événement B = "la somme des points est supérieure à 10". On a
B = {(5, 6), (6, 5), (6, 6)}
Remarque 1.1.2
– On dit que l’événement A est réalisé si et seulement si le résultat de l’épreuve aléatoire est un
élément du sous-ensemble A ⊂ Ω.
– On note E(Ω) l’ensemble de tous les événements associés à Ω et P(Ω) l’ensemble de toutes les
parties de Ω. On a : E(Ω) ⊆ P(Ω)
– Si Ω est fini, alors E(Ω) = P(Ω).

Evénements remarquables
Définition 1.1.4
On appelle événement élémentaire tout événement constitué d’un seul élément ω ∈ Ω. On le
note {ω}.
Définition 1.1.5
On appelle événement impossible, l’événement qui ne peut pas être réalisé, quelle que soit l’issue
de l’épreuve aléatoire. On le note ∅
Définition 1.1.6
On appelle événement certain, l’événement qui est réalisé quelle que soit l’issue de l’épreuve.
On le note Ω
CHAPITRE 1. CALCUL DES PROBABILITÉS 6

Définition 1.1.7
On appelle événement contraire d’un événement A, l’événement qui est réalisé si et seulement
si A n’est pas réalisé. On le note A
Définition 1.1.8
On appelle intersection de deux événements A et B, l’événement qui est réalisé si et seulement
si A et B sont réalisés simultanément. On le note A ∩ B.
On peut généraliser cette définition à n événements.
Définition 1.1.9
On appelle union de deux événements A et B, l’événement qui est réalisé si et seulement si l’un
au moins des événements A ou B est réalisé. On le note A ∪ B.
On peut généraliser cette définition à n événements.
Définition 1.1.10
On dit que l’événement A implique l’événement B si et seulement si la réalisation de A entraîne
la réalisation de B. On note : A ⊂ B
Définition 1.1.11
Deux événements A et B sont dits incompatibles si et seulement si, ils ne peuvent pas être
réalisés simultanément. On note : A ∩ B = ∅
Remarque 1.1.3
– Deux événements contraires A et A sont incompatibles. De plus, leur union est égale à Ω.
– Deux événements incompatibles ne sont pas nécessairement contraires.
Définition 1.1.12
On dit que l’ensemble des événements {A1 , A2 , . . . , An } forme un système complet d’événe-
ments de Ω si et seulement si :
– Ils sont deux à deux incompatibles : ∀ i ̸= j, A i ∩ Aj = ∅
– Leur union est l’événement certain : A1 ∪ A2 ∪ . . . ∪ An = Ω
On dit aussi que l’ensemble des parties {A1 , A2 , . . . , An } forme une partition de Ω.

Exemple 1.1.4
Deux événements contraires A et A} forment un système complet de Ω.

Remarque 1.1.4
On vient de définir une correspondance entre le langage des événements (language probabiliste)
et le langage des ensembles (langage ensembliste).
Ainsi, on établit pour les événements des propriétés analogues à celles connues sur les ensembles.
CHAPITRE 1. CALCUL DES PROBABILITÉS 7

Propriétés
Si A, B et C sont des événements de Ω, alors on a :
– A=A
– ∅=Ω et Ω=∅
– A∩A=∅ et A∪A=Ω
– A∩A=A et A∪A=A
– A∩Ω=A et A∪∅=A
– A∩∅=∅ et A∪Ω=Ω
– A∩B =B∩A et A∪B =B∪A
– A ∩ (B ∩ C) = (A ∩ B) ∩ C et A ∪ (B ∪ C) = (A ∪ B) ∪ C
– A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
– A∩B =A∪B et A∪B =A∩B (Lois de Morgan)
Si Ω est fini, le nombre d’éléments distincts d’un événement A, noté Card(A), est appelé cardinal
de A. On a alors les propriètés suivantes :
– Card(A) = Card(Ω) − Card(A)
– Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)
– Card(E(Ω)) = Card(P(Ω)) = 2Card(Ω)

1.2 Espaces probabilisés

1.2.1 Définition de la probabilité


Définition 1.2.1
Soit Ω un ensemble fondamental d’une expérience aléatoire et soit E(Ω) l’ensemble des événe-
ments. On appelle probabilité sur E(Ω) toute application lP : E(Ω) → [0, 1] vérifiant :

(i) lP(Ω) = 1

(ii) ∀ A, B ∈ E(Ω), si A et B sont incompatibles alors lP(A ∪ B) = lP(A) + lP(B).

Le triplet (Ω, E(Ω), lP) est appelé espace probabilisé.

Remarque 1.2.1
– Il s’agit donc d’associer à chaque événement A ∈ E(Ω) un nombre réel positif compris entre 0
et 1, noté lP(A), qui mesure la chance qu’à l’événement A pour se réaliser.
– lP(A) est appelé probabilité de l’événement A.
CHAPITRE 1. CALCUL DES PROBABILITÉS 8

Propriétés
Soit (Ω, E(Ω), lP) un espace probabilisé. On a :
– lP(A) = 1 − lP(A)
– Si A ⊂ B alors lP(A) 6 lP(B)

n ∑
n
– Si A1 , A2 , . . . , An sont n événements deux à deux incompatibles alors lP( Ak ) = lP(Ak )
k=1 k=1
– Si A et B sont deux événements quelconques, alors lP(A ∪ B) = lP(A) + lP(B) − lP(A ∩ B)
Proposition 1.2.1
Soit (Ω, E(Ω), lP) un espace probabilisé.
Si Ω = {ω1 , ω2 , . . . , ωk , . . .} est un univers dénombrable (fini ou infini). Alors la probabilité lP est
complètement définie par la donnée des probabilités lP({ωi }) des événements élémentaires. On a
alors :

∀ A ∈ E(Ω), lP(A) = lP({ωi })
ωi ∈A

1.2.2 Cas particulier : Probabilité uniforme


Proposition 1.2.2
Soit (Ω, E(Ω), lP) un espace probabilisé.
Si Ω est fini et si tous les événements élémentaires ont la même probabilité pour se réaliser (on
dit qu’on a équiprobabilité). Alors la probabilité lP est définie par :

Card(A) Nombre de cas favorables


∀ A ∈ P(Ω), lP(A) = =
Card(Ω) Nombre de cas possibles

Cette probabilité est appelée probabilité uniforme.


Remarque 1.2.2
En général, on n’a pas à démontrer l’équiprobabilité. C’est plutôt l’énoncé qui le suggère.

Exemple 1.2.1
On lance un dé équilibré. Soit l’événement A = "obtenir un point pair".
3
On a : lP(A) = lP({2, 4, 6}) = = 0.5
6
Exercice 1.1
On lance deux dés équilibrés, un noir et un blanc. Calculer la probabilité des événements suivants :
I = "obtenir au moins un point impair"
E = "les deux dés ont le même numéro".
N = "le numéro le plus élevé apparaît sur le dé noir"
B = "le numéro le plus élevé apparaît sur le dé blanc"
CHAPITRE 1. CALCUL DES PROBABILITÉS 9

Exercice 1.2
Dans une urne contenant 9 boules numérotées de 1 à 9 et 26 boules numérotées de A à Z, on tire
au hasard 6 boules pour former un mot de passe.
Quelle est la probabilité d’obtenir un mot de passe contenant autant de chiffres que de lettres ?
Remarque 1.2.3
Dans beaucoup de problèmes de calcul des probabilités, l’énoncé suggère qu’on a une probabi-
lité uniforme (Ω fini et équiprobabilité). Ainsi, nous serons souvent confrontés aux problèmes de
dénombrement des cas favorables et des cas possibles.
D’où la nécessité de définir des méthodes de dénombrement dans les différentes situations pos-
sibles.
C’est ce que nous allons voir dans le dernier paragraphe de ce chapitre.

1.3 Probabilité conditionnelle


Soit (Ω, E(Ω), lP) un espace probabilisé. On suppose qu’on a une information supplémentaire sur
le déroulement de l’épreuve aléatoire. Alors on se pose la question quelle est l’influence de cette
information sur la probabilité définie sur E(Ω) ?
Autrement dit, le fait de savoir qu’un événement A est réalisé a-t-il un effet sur la probabilité de
réalisation d’un autre événement B ?
Exemple 1.3.1
La répartition d’un groupe d’étudiants selon la note du module de statistique et le sexe est
représentée dans le tableau suivant :

Sexe Masculin Féminin Total


Note de Math
[0, 7[ 4 3 7
[7, 10[ 17 15 32
[10, 20[ 21 36 57
Total 42 54 96

Un étudiant est choisi au hasard. Soit l’événement B = "l’étudiant choisi a validé le module".
57
On a lP(B) = .
96
On suppose maintenant qu’on sait que l’étudiant choisi est un garçon (événement A). Que devient
la probabilité de l’événement B ?
CHAPITRE 1. CALCUL DES PROBABILITÉS 10

21
On a lP(B sachant A) = ̸= lP(B)
42
Ainsi, le fait de savoir que l’événement A est réalisé a changé la probabilité de réalisation de
l’événement B.
On constate que :
lP(A ∩ B)
lP(B sachant A) =
lP(A)

1.3.1 Définition et propriétés


Définition 1.3.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soient A et B deux événements tel que lP(A) ̸= 0.
La probabilité de réalisation de l’événement B sachant que l’événement A est réalisé, notée
lP(B|A), est définie par :
lP(A ∩ B)
lP(B|A) =
lP(A)
On l’appelle probabilité conditionnelle de B sachant A.
On utilise aussi la notation lPA (B).
Exemple 1.3.2
On jette un dé équilibré et on considère les événements :
A = "obtenir un nombre > 4".
B = "obtenir un nombre pair",
Quelle est la probabilité de B sachant A ?
Exemple 1.3.3
Dans une urne contenant 3 boules numérotées 1, 2 boules numérotées 2, 5 boules numérotées 3
et 2 boules numérotées 4, on tire au hasard successivement et sans remise 2 boules.
Soit l’événement A = "la somme des numéros des 2 boules tirées donne 5".
Quelle est la probabilité de A ?
Quelle est la probabilité de A sachant que la 1ère boule tirée est numérotée 3 ?
Exemple 1.3.4
Un couple a 3 enfants. Quelle est la probabilité d’avoir au moins un garçon sachant que l’aînée
est une fille ?
Proposition 1.3.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soit A un événement tel que lP(A) ̸= 0, alors :
L’application lPA : E(Ω) → [0, 1], définie par :
lP(A ∩ B)
∀ B ∈ E(Ω), lPA (B) = lP(B|A) =
lP(A)
CHAPITRE 1. CALCUL DES PROBABILITÉS 11

est une probabilité sur E(Ω), appelée probabilité conditionnelle sachant A.


Ainsi, toutes les Propriétés d’une probabilité lP sont aussi valables pour une probabilité condi-
tionnelle lPA :

– lP(Ω|A) = 1
– lP(B|A) = 1 − lP(B|A)
– si B1 et B2 sont incompatibles alors lP((B1 ∪ B2 )|A) = lP(B1 |A) + lP(B2 |A)
– si B1 et B2 sont quelconques alors lP((B1 ∪ B2 )|A) = lP(B1 |A) + lP(B2 |A) − lP((B1 ∩ B2 )|A)
– ...

1.3.2 Formules de base

1) Formule des probabilités composées


Proposition 1.3.2
Soit (Ω, E(Ω), lP) un espace probabilisé et soient A et B deux événements de E(Ω). Alors on a :

lP(A ∩ B) = lP(A) × lP(B|A) = lP(B) × lP(A|B)

Cette formule, appelée formule des probabilités composées, permet de calculer la probabilité
conjointe de deux événements à partir des probabilités conditionnelles.
On peut la généraliser à n événements A1 , A2 , . . . , An :

lP(A1 ∩ A2 ∩ · · · ∩ An ) = lP(A1 ) × lP(A2 |A1 ) × lP(A3 |A2 ∩ A1 ) × · · · × lP(An |A1 ∩ ∩An−1 )

Exemple 1.3.5
Dans une urne contenant 3 boules blanches et 2 boules noires, on tire au hasard, successivement
et sans remise 2 boules. Quelle est la probabilité que les deux boules tirées soient noires ?
Exemple 1.3.6
Dans une urne contenant 6 boules noires et 4 boules blanches, on tire au hasard, successivement
et sans remise 3 boules. Quelle est la probabilité de tirer 3 boules noires ?

2) Formules des probabilités totales


Proposition 1.3.3
Soit (Ω, E(Ω), lP) un espace probabilisé et soit A un événement de E(Ω) tel que lP(A) ̸= 0. Alors,
pour tout événement B de E(Ω), on a :

lP(B) = lP(B|A) × lP(A) + lP(B|A) × lP(A)


CHAPITRE 1. CALCUL DES PROBABILITÉS 12

Cette formule, appelée formule des probabilités totales, permet de calculer la probabilité
marginale d’un événement à partir des probabilités conditionnelles ou composées.
On peut la généraliser à n événements :
Si {A1 , A2 , . . . , An } est un système complet d’événements tel que lP(Ai ) ̸= 0. Alors, pour tout
événement B de E(Ω), on a :

n ∑
n
lP(B) = lP(B ∩ Ai ) = lP(B|Ai ) × lP(Ai )
i=1 i=1

Exemple 1.3.7
On considère un groupe formé de 40 hommes et 60 femmes. Dans ce groupe, 50% des hommes
sont fumeurs et 30% des femmes sont fumeuses. On choisit un individu au hasard.
Quelle est la probabilité qu’il soit un fumeur ?
Quelle est la probabilité qu’il soit un homme, sachant qu’il est fumeur ?

3) Formule de Bayes
Proposition 1.3.4
Soit (Ω, E(Ω), lP) un espace probabilisé. Soient A et B deux événements de E(Ω).
La formule de Bayes permet, à partir de la probabilité conditionnelle lP(B|A), de calculer la
probabilité conditionnelle inverse lP(A|B) :

lP(B|A) × P(A)
lP(A|B) =
P(B)
Exemple 1.3.8
Trois machines M1 , M2 et M3 de fabrication mécanique produisent respectivement 25%, 35% et
40% de la production totale.
5% (respectivement 4% et 3%) des pièces produites par M1 (respectivement par M2 et M3 ) sont
défectueuses.
On choisi une pièce au hasard. Si la pièce choisie est défectueuse, quelle est la probabilité qu’elle
soit fabriquée par M1 ?

1.3.3 Evénements indépendants


Définition 1.3.2
Deux événements A et B d’un même espace probabilisé sont dits indépendants si et seulement si
la réalisation de l’un n’a aucune influence sur la probabilité de réalisation de l’autre. On a alors
lP(A|B) = lP(A) et lP(B|A) = lP(B).
CHAPITRE 1. CALCUL DES PROBABILITÉS 13

Corollaire 1.3.1
Deux événements A et B sont dits indépendants si et seulement si lP(A ∩ B) = lP(A) × lP(B)

Exemple 1.3.9
On lance un dé deux fois. Soit les événements :
A = “obtenir un point pair au premier lancer"
B = “obtenir le point 1 ou 4 au deuxième lancer"
Les événements A et B sont-ils indépendants ?
Exemple 1.3.10
On lance une pièce de monnaie n fois. On considère les événements suivants :
A = “obtenir au plus une fois pile” ;
B = “obtenir au moins une fois pile et au moins une fois face”.
Les événements A et B sont-ils indépendants ?
Remarque 1.3.1
– Il ne faut pas confondre événements indépendants et événements incompatibles.
– Dans une suite de tirages successifs avec remise, les tirages sont indépendants.
– Dans une suite de tirages successifs sans remise, les tirages ne sont pas indépendants.
– Si les événements A et B sont indépendants, il en est de même pour les événements A et B,
A et B, A et B.
Exemple 1.3.11
On effectue une suite de tirages dans une urne qui contient n boules dont r boules rouges. Quelle
est la probabilité pour que la première boule rouge apparaisse au troisième tirage ?
On considère les événements suivants :
Ri = "la ième boule tirée est rouge"
A = "la première boule rouge apparaisse au troisième tirage".
On a lP(A) = lP(R1 ∩ R2 ∩ R3 ) = lP(R3 /R1 ∩ R2 ) × lP(R2 /R1 ) × lP(R1 )
On distingue deux cas suivant le type de tirages effectués (avec ou sans remise) :
r r
– 1er cas : Tirages avec remise : lP(A) = lP(R3 ) × lP(R2 ) × lP(R1 ) = (1 − )2
r r r n n
– 2ème cas : Tirages sans remise : lP(A) = (1 − )(1 − )
n−2 n−1 n

Généralisation à n evénements
Définition 1.3.3
n événements A1 , A2 , . . . , An d’un même espace probabilisé sont dits indépendants dans leurs
ensemble si et seulement si pour toute famille de p (p > 2) événements Ai1 , Ai2 , . . . , Aip choisis
CHAPITRE 1. CALCUL DES PROBABILITÉS 14

parmi les événements A1 , A2 , . . . , An , on a :

lP(Ai1 ∩ Ai2 ∩ . . . ∩ Aip ) = lP(Ai1 ) × lP(Ai2 ) × . . . × lP(Aip )

Remarque 1.3.2
n événements A1 , A2 , . . . , An peuvent être indépendants deux à deux sans être indépendants
dans leurs ensemble.
Exemple 1.3.12
On jette deux dés et on considère les événements suivants :
A1 = "obtenir un point pair par le 1er dé"
A2 = "obtenir un point pair par le 2ème dé"
A3 = "la somme des points obtenus par les deux dés est paire"

1.4 Dénombrement
Dans beaucoup de problèmes de calcul des probabilités, l’énoncé suggère qu’on peut appliquer
la formule de probabilité uniforme (il suffit de vérifier que Ω est fini et qu’on a équiprobabilité).
Ainsi, pour calculer la probabilité d’un événement A, on peut utiliser la formule :

Nombre de cas favorables Card(A)


lP(A) = =
Nombre de cas possibles Card(Ω)

Le but de ce dernier paragraphe est de rappeler les principales méthodes de dénombrement des
cas favorables et des cas possibles dans différentes situations pratiques.

1.4.1 Cardinal : Définition et propriètés


Définition 1.4.1
Soit A un ensemble fini.
On appelle cardinal de A, noté Card(A), le nombre d’éléments distincts de A.

Propriétés
– Soit A ⊂ Ω. On a :
Card(A) = Card(Ω) − Card(A)

– Si A et B sont deux ensembles finis, alors on a :

Card(A × B) = Card(A) × Card(B)


CHAPITRE 1. CALCUL DES PROBABILITÉS 15

– Soient A et B deux ensembles finis. Si on peut définir une bijection de A vers B, alors on a :

Card(A) = Card(B)

– Si A et B sont deux ensembles finis, alors on a :

Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)

– Soient A1 , A2 , ..., An , n ensembles finis. On a (formule de Poincaré) :


( )
∪n ∑n ∑
Card( Ai ) = (−1)k+1 Card(Ai1 ∩ Ai2 ∩ . . . ∩ Aik )
i=1 k=1 16i1 <i2 ...<ik 6n

Exemple 1.4.1
Dans un groupe de 85 étudiants, 62 ont validé le module de Math, 54 ont validé le module de
Physique et 20 n’ont validé aucun module. Combien d’étudiants ont validé les deux modules ?
Soient Ω l’ensemble de tous les étudiants, M l’ensemble des étudiants ayant validé le module de
Math, et P l’ensemble des étudiants ayant validé le module de Physique.
On a : Card(Ω) = 85 ; Card(M ) = 62 ; Card(P ) = 54 et Card(M ∩ P ) = 20.
On cherche Card(M ∩ P ).
On a Card(M ∩ P ) = Card(M ∪ P ) = Card(Ω) − Card(M ) − Card(P ) + Card(M ∩ P ).
D’où Card(M ∩ P ) = Card(M ∩ P ) − Card(Ω) + Card(M ) + Card(P ) = 20 − 85 + 62 + 54 = 51.
Donc, 51 étudiants ont validé les deux modules.
Remarque 1.4.1
On peut utiliser un tableau de contingence pour effectuer ces calculs plus simplement.

1.4.2 Principe de multiplication et principe d’addition

a) Principe de multiplication
Proposition 1.4.1
Si la réalisation d’un événement A se fait en k étapes successives (l’une après l’autre) présentant
respectivement n1 , n2 , . . . , nk possibilités, alors le nombre total de possibilités pour réaliser A est
égale au produit : n1 × n2 × . . . × nk .
Exemple 1.4.2
1. Combien peut-on former de codes comportant deux lettres de l’alphabet suivies de trois
chiffres non nuls (événement A) ?
CHAPITRE 1. CALCUL DES PROBABILITÉS 16

Les cinq étapes successives pour former un code appartenant à A, présentent respectivement
26, 26, 9, 9 et 9 possibilités. Donc le nombre de codes possibles est :

Card(A) = 262 × 93 = 492804

2. Combien peut-on former de codes comportant deux lettres distinctes suivies de trois chiffres
non nuls distincts (événement B) ?
Les cinq étapes successives pour former un code qui appartient à B, présentent respective-
ment 26, 25, 9, 8 et 7 possibilités. Donc le nombre de codes possibles est :

Card(B) = 26 × 25 × 9 × 8 × 7 = 327600
Exemple 1.4.3
Un restaurant propose 4 choix pour l’entrée, 3 choix pour le plat principal, 4 choix pour le dessert
et 6 choix pour la boisson. De combien de façons peut-on composer un repas (événement A) ?
Les 4 étapes successives pour choisir un repas présentent respectivement 4, 3, 4 et 6 choix.
Donc le nombre de choix de repas possibles est :

Card(A) = 4 × 3 × 4 × 6 × 7 = 288

b) Principe d’addition
Proposition 1.4.2
Si la réalisation d’un événement A se fait par l’une ou bien l’autre des k manières présentant
respectivement n1 , n2 , . . . , nk possibilités, alors le nombre total de possibilités pour réaliser A est
égale à la somme : n1 + n2 + . . . + nk .
Exemple 1.4.4
Combien peut-on former de codes avec cinq caractères : des lettres suivies des chiffres non nuls,
avec au moins un caractère de chaque type (événement A) ?
On peut réaliser A par l’une ou bien l’autre des 4 manières suivantes :
- Codes comportant 1 lettre suivie de 4 chiffres non nuls (événement A1 )
- Codes comportant 2 lettres suivies de 3 chiffres non nuls (événement A2 )
- Codes comportant 3 lettres suivies de 2 chiffres non nuls (événement A3 )
- Codes comportant 4 lettres suivies de 1 chiffre non nuls (événement A4 )
Donc, d’après le principe d’addition, le nombre de codes possibles est :

4
Card(A) = Card(Ai )
i=1
CHAPITRE 1. CALCUL DES PROBABILITÉS 17

avec, d’après le principe de multiplication :

Card(Ai ) = 26i × 9(5−i)

Exemple 1.4.5
1) Combien peut-on former de codes comportant 2 lettres et 3 chiffres non nuls (événement Ω) ?
2) On choisit un code au hasard dans Ω. Quelle est la probabilité qu’il soit un code formé de
deux lettres suivies de trois chiffres non nuls (événement A2 ) ?
On a C52 manières différentes pour réaliser Ω. Chacune présente 262 × 93 possibilités.
Donc, d’après le principe d’addition, le nombre de codes possibles est :

Card(Ω) = C52 × 262 × 93

On a
Card(A2 ) = 262 × 93

D’où
1
lP(A2 ) =
C52

Remarque 1.4.2
On peut utiliser un diagramme en arbre pour décrire visuellement la succession des étapes d’une
ou de plusieurs expériences.

1.4.3 Choix de p éléments parmi n éléménts distincts

Soit E un ensemble de n éléments distincts qu’on peut ordonner (E = {e1 < e2 < ... < en }).
Soit p ∈ IN∗ .
On s’intéresse au calcul du nombre de possibilités pour choisir p éléments parmi les n éléments
de E. Pour répondre à cette question, on distingue plusieurs cas :
– Choix de p éléments distincts (événement noté D).
– Choix de p éléments non distincts (événement D).
– Choix de p éléments ordonnés (événement noté C).
– Choix de p éléments non ordonnés (événement C).
– Choix de p éléments avec présence de tous les éléments de E (événement noté S).
CHAPITRE 1. CALCUL DES PROBABILITÉS 18

a) p-listes
Proposition 1.4.3
Le nombre de possibilités pour choisir p éléments quelconques (distincts ou non distincts, or-
donnés ou non ordonnés), parmi les n éléments distincts de E (événement noté Ω) est donné
par :
Card(Ω) = np

Chacune de ces possibilités s’appelle liste de p éléments de E ou p-liste de E.


On a Ω = D ∪ D = C ∪ C

Remarque 1.4.3
– Pour les p-listes, on peut considérer p 6 n ou bien p > n.
– On fait appel au dénombrement avec la puissance np lorsque, dans le choix des p éléments, on
tient compte des répétitions (éléments distincts ou non distincts) et on tient compte de l’ordre
(éléments ordonnés ou non ordonnés).
– Par exemple, pour les tirages successifs avec remise, on fait appel au dénombrement avec la
puissance np .

b) Arrangements
Proposition 1.4.4
Le nombre de possibilités pour choisir p éléments distincts (ordonnés ou non ordonnés), parmi
les n éléments distincts de E (événement D) est donné par :

n!
Card(D) = Apn =
(n − p)!

Chacune de ces possibilités s’appelle arrangement de p éléments de E ou p-arrangement de E.


Remarque 1.4.4
– Pour les p-arrangements, on doit avoir p 6 n. Sinon, l’événement D est impossible (lP(D) = 0).
– On a Apn = n!
(n−p)!
pour p 6 n. Sinon, on pose Apn = 0.
– On fait appel au dénombrement avec Apn lorsqu’on tient compte de l’ordre et on ne tient pas
compte des répétitions.
– Par exemple, pour les tirages successifs sans remise, on fait appel au dénombrement avec Apn .
CHAPITRE 1. CALCUL DES PROBABILITÉS 19

c) Combinaisons
Proposition 1.4.5
Le nombre de possibilités pour choisir p éléments distincts et ordonnés parmi les n éléments de
E (événement D ∩ C) est donné par :
n!
Card(D ∩ C) = Cnp =
p!(n − p)!
Chacune de ces possibilités s’appelle combinaison de p éléments parmi les n éléments de E ou
p-combinaison de E.
Remarque 1.4.5
– On doit avoir p 6 n. Sinon, l’événement D ∩ C est impossible.
n!
– On a Cnp = pour p 6 n. Sinon, on pose Cnp = 0.
p!(n − p)!
– On fait appel au dénombrement avec Cnp lorsqu’on ne tient compte ni de l’ordre ni des répéti-
tions.
– Par exemple, pour les tirages simultanés, on fait appel au dénombrement avec Cnp .
– Par exemple, le nombre de possibilités pour choisir p éléments parmi n, dans un ordre stricte-
ment croissant est égal à Cnp .

d) Combinaisons avec répétition


Proposition 1.4.6
Le nombre de possibilités pour choisir p éléments ordonnés (distincts ou non distincts) parmi les
n éléments de E (événement C) est donné par :

p (n + p − 1)!
Card(C) = Cn+p−1 =
p!(n − 1)!
Chacune de ces possibilités s’appelle combinaison avec répétition de p éléments de E ou p-
combinaison avec répétition de E.
Remarque 1.4.6
– Pour les combinaisons avec répétition, on peut choisir p 6 n ou bien p > n.
p
– On fait appel au dénombrement avec les combinaisons avec répétition Cn+p−1 lorsqu’on tient
compte des répétitions et on ne tient pas compte de l’ordre.
– Par exemple, le nombre de possibilités pour choisir p éléments parmi n, dans un ordre croissant
p
au sens large est égal à Cn+p−1 .

Remarque 1.4.7
Les résultats des 4 propositions précédentes peuvent être résumés dans le tableau suivant :
CHAPITRE 1. CALCUL DES PROBABILITÉS 20

événement D événement D Total


(éléments (éléments (On tient compte
distincts) non distincts) des répétitions)
événement C
p
(éléments Cnp Cn+p−1
ordonnés)
événement C
(éléments
non ordonnés)
Total
(On tient compte Apn np
de l’ordre)

Avec les propriétés du tableau de contingence, on peut compléter le remplissage du tableau. Ce


qui permet de déduire les dénombrements des autres cas possibles.
Exemple 1.4.6
On considère E = {1, 2, 3, 4} et p = 3.

événement D événement D Total


p
événement C Cnp = 4 16 Cn+p−1 = 20
événement C 20 24 44
Total Apn = 24 40 np = 64

Remarque 1.4.8
– Lorsqu’on dit on tient compte des répétitions, cela veut dire qu’on considère les choix possibles
distincts ou non distincts.
– Lorsqu’on dit on ne tient pas compte des répétitions, cela veut dire qu’on considère les choix
possibles distincts.
– Lorsqu’on dit on tient compte de l’ordre, cela veut dire qu’on considère les choix possibles avec
ou sans classement.
– Lorsqu’on dit on ne tient pas compte de l’ordre, cela veut dire qu’on considère les choix possibles
avec classement.
Exemple 1.4.7
– Dans une urne qui contient 10 boules numérotées de 0 à 9, on tire successivement et avec
remise 4 boules. Calculer le nombre de choix possibles.
CHAPITRE 1. CALCUL DES PROBABILITÉS 21

– Même question si les tirages sont successifs et sans remise.


– Même question si les tirages sont simultanés.
– Au loto sportif, on coche l’une des trois cases 1, N ou 2 pour chacun des 15 matchs programmés.
Dénombrer le nombre de grilles possibles.
– Combien de droites peut-on tracer à partir de 7 points ?
– Dans un jeu de 52 cartes, on choisit 5 cartes au hasard. Calculer le nombre de mains possibles,
le nombre de mains qui contiennent exactement 3 as et le nombre de mains qui contiennent
au moins 3 as.
– On lance 4 fois, un dé cubique équilibré dont les faces sont numérotées de 1 à 6.
Calculer la probabilité pour obtenir une suite de nombres dans un ordre strictement croissant.
Calculer la probabilité pour obtenir une suite de nombres dans un ordre croissant au sens large.

e) Permutations : arrangements avec p = n


Proposition 1.4.7
Le nombre de possibilités pour choisir n éléments distincts parmi les n éléments distincts de E,
noté Pn , est donné par :
Pn = Ann = n!

Chacune de ces possibilités s’appelle permutation de n éléments distincts.


Exemple 1.4.8
– De combien de façons peut-on placer 12 personnes en rangée pour prendre une photo ?
– De combien de façons peut-on ranger 4 livres de math, 3 livres de physique et 5 livres de
chimie, si on ne fait aucune distinction entre les spécialités des livres ?
– De combien de façons peut-on ranger ces livres si on veut que les livres de même spécialité
restent ensemble ?

f) Permutations d’éléménts partiellement distinguables


Proposition 1.4.8
Supposons que les n éléménts de E sont partiellement distinguables (càd les n éléments ne sont
pas tous distincts). Supposons qu’on a n1 éléments identiques de type 1, n2 éléments identiques
de type 2, . . . , nk éléments identiques de type k avec n1 + n2 + · · · + nk = n.
Alors le nombre de permutations possibles de ces n éléments, partiellement distinguables, noté
CHAPITRE 1. CALCUL DES PROBABILITÉS 22

Pn (n1 , n2 , . . . , nk ), est donné par :

n!
Pn (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . n k !
Exemple 1.4.9
– Combien de mots de 9 lettres peut-on former avec les 9 lettres du mot EVENEMENT ?
– Un enfant joue avec 2 jetons rouges identiques, 3 jetons blancs identiques et 4 jetons noirs
identiques. De combien de façons différentes peut-il aligner ces 9 jetons ?
– On dispose de 4 livres de math, 3 livres de physique et 5 livres de chimie.
De combien de façons peut-on les arranger si tous les livres sont distinguables ?
De combien de façons peut-on les arranger si les livres de chaque spécialité sont identiques ?
Chapitre 2

Variables aléatoires discrètes

Le but de ce chapitre et du chapitre suivant est d’introduire des outils de calcul des probabilités
avec les variables aléatoires (lois de probabilité).
Une variable aléatoire consiste à associer un nombre réel à chaque résultat d’une expérience
aléatoire.

2.1 Définition
Définition 2.1.1
Soit (Ω, E(Ω), lP) un espace probabilisé.
On appelle variable aléatoire sur Ω toute application X : Ω → IR définie sur l’ensemble fonda-
mental Ω et à valeurs dans IR.

A tout événement élémentaire ω ∈ Ω, l’application X associe une valeur numérique réelle X(ω).
Les variables aléatoires sont notées par les dernières lettres de l’alphabet en majuscules, X, Y ,
Z, ..., pour les distinguer des valeurs réelles qu’elles peuvent prendre, généralement notées en
minuscules.
Exemple 2.1.1
On jette deux dés.
Si à chaque élément (i, j) ∈ Ω, on associe la somme i + j, on définit une application :

X : Ω → IR
(i, j) → i + j
X est donc une variable aléatoire sur Ω.
L’ensemble des valeurs possibles prises par X, noté X(Ω), est donné par :

X(Ω) = {2, 3, 4, . . . , 12}

23
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 24

Remarque 2.1.1
Comme pour les variables statistiques, on distingue deux types de variables aléatoires : les va-
riables aléatoires discrètes et les variables aléatoires continues.
– Une variable aléatoire X est dite discrète si elle ne peut prendre que des valeurs isolées (X(Ω)
fini ou X(Ω) infini dénombrable).
– Une variable aléatoire X est dite continue si elle peut prendre une infinité non dénombrable
de valeurs (X(Ω) est un intervalle de IR ou une réunion d’intervalles de IR).
La suite de ce chapitre sera consacrée à l’étude des variables aléatoires discrètes.
Remarque 2.1.2
Soit X une variable aléatoire discrète. On note alors X(Ω) = {x1 , x2 , ..., xi , ...} l’ensemble des
valeurs possibles de X.
– Soit xi ∈ X(Ω). L’ensemble {ω ∈ Ω/X(ω) = xi } est un événement de Ω. On le note (X = xi ).
– Si X(Ω) est fini de cardinal n, les événements (X = xi )16i6n forment un système complet
d’événements.
– Soit I ⊂ IR. L’ensemble {ω ∈ Ω/X(ω) ∈ I} est un événement de Ω. On le note (X ∈ I).
– On utilise aussi les notations : (X 6 a), (X > a), (a < X 6 b), ...
Exemple 2.1.2
– On lance 3 fois une pièce de monnaie. Soit X = nombre de piles obtenues. Calculer lP(X = 1).
– On jette deux dés. Soit Y = la somme des points obtenus. Calculer lP(Y 6 4).

2.2 Loi de probabilité - Fonction de répartition


Définition 2.2.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soit X une variable aléatoire discrète sur Ω. On note
X(Ω) = {x1 < x2 < ... < xi < ... } l’ensemble des valeurs possibles de X.
– On appelle loi (ou fonction) de probabilité de X, l’application, notée fX , définie de X(Ω) vers
[0, 1] par :
∀ xi ∈ X(Ω), fX (xi ) = lP(X = xi )

– On appelle fonction de répartition (ou fonction cumulative des probabilités) de X, l’application,


notée FX , définie de R vers [0, 1] par :

∀ x ∈ R, FX (x) = lP(X 6 x)

Propriétés caractéristiques
Soit X une variable aléatoire discrète.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 25

– La fonction de probabilité fX doit vérifier :

(1) fX (xi ) > 0, ∀ xi ∈ X(Ω),



(2) fX (xi ) = 1.
xi ∈X(Ω)

– La fonction de répartition FX doit vérifier :

(1) FX (x) = 0 pour x < min(xi ),

(2) FX (x) = 1 pour x > max(xi ) (ou lim FX (x) = 1 si X(Ω) infini),
x→+∞

(3) FX (x) = FX (xi ) pour x ∈ [xi , xi+1 [.


Remarque 2.2.1
La fonction FX (x) est croissante au sens large, constante sur chaque intervalle [xi , xi+1 [, continue
sauf aux points xi ∈ X(Ω) où elle est discontinue à gauche (fonction en escalier). Le saut de
discontinuité en un point xi ∈ X(Ω) est égal à lP(X = xi ).
Exemple 2.2.1
On jette deux dés équilibrés. Soit X = la somme des points obtenus.
La loi de probabilité et la fonction de répartition de X sont données par :

xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
fX (xi ) 36 36 36 36 36 36 36 36 36 36 36
1 3 6 10 15 21 26 30 33 35
FX (xi ) 36 36 36 36 36 36 36 36 36 36
1

Généralement, pour une variable aléatoire discrète finie, on représente la loi de probabilité et la
fonction de répartition sous forme d’un tableau (comme pour une variable statistique).
Graphiquement, la loi de probabilité d’une variable aléatoire discrète finie est représentée par un
diagramme en bâtons et la fonction de répartition est représentée par un diagramme en escaliers.
Remarque 2.2.2
Pour définir la loi de probabilité fX d’une variable aléatoire discrète X, il suffit de déterminer

lP(X = xi ), ∀ xi ∈ X(Ω). On a : fX (xi ) = lP(X = xi ) = lP({ω}),
ω∈(X=xi )
On peut alors en déduire la fonction de répartition FX :

FX (x) = lP(X 6 x) = lP(X = xi )
xi 6x

Inversement, si on connait la fonction de répartition FX , on peut en déduire la loi de probabilité :



 f (x ) = F (x )
X 1 X 1
 f (x ) = F (x ) − F (x ) pour i > 2
X i X i X i−1
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 26

Propriétés
Soit X une variable aléatoire discrète et soient a et b deux nombres réels. On a :
– lP(X 6 a) = FX (a),
– lP(X > a) = 1 − FX (a),
– lP(a < X 6 b) = FX (b) − FX (a),
– ∀ a∈
/ X(Ω), lP(X = a) = 0

2.3 Paramètres d’une variable aléatoire discrète


La loi de probabilité constitue une information détaillée d’une variable aléatoire.
On peut alors envisager de réduire et résumer cette information par des paramètres numériques
(comme ceux envisagés en statistique descriptive).
Les outils mathématiques qui interviennent dans la définition de ces paramètres varient d’un
type de variable à l’autre :
– Pour les variables aléatoires discrètes finies, on utilise les mêmes outils que ceux utilisés pour
les variables statistiques.
– Pour les variables discrètes infinies, on utilise des séries numériques pour définir ces paramètres.
Donc, quelques connaissances sur la convergence des séries numériques seront nécessaires.
– Pour les variables continues, on utilise des intégrales pour définir ces paramètres.

a) Espérance mathématique
Définition 2.3.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soit X une variable aléatoire discrète sur Ω. On appelle
espérance mathématique de X, appelée aussi moyenne de X, le nombre réel (si il existe), noté
E(X), défini par :

E(X) = xi × lP(X = xi )
xi ∈X(Ω)

On peut utiliser aussi la formule :



E(X) = X(ω) × lP({ω})
ω∈Ω

Remarque 2.3.1
– Si X(Ω) est fini, E(X) existe toujours (calcul d’une somme finie).
On peut remarquer la similitude des définitions de l’espérance mathématique et de la moyenne
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 27

arithmétique d’une variable statistique discrète (les fréquences sont remplacées par les proba-
bilités).
– Si X(Ω) est infini, E(X) existe sous réserve de convergence de la série numérique associée.

Espérance d’une fonction de variable aléatoire


Soit X une variable aléatoire discrète et soit g une fonction réelle. Alors g(X) est une variable
aléatoire discrète et on a :

E(g(X)) = g(xi )lP(X = xi )
xi ∈X(Ω)

En particulier si g(X) = X r , On obtient



E(X r ) = xri × lP(X = xi )
xi ∈X(Ω)

Lorsqu’il existe, E(X r ) s’appelle le moment d’ordre r de X.

b) Variance - écart-type
Définition 2.3.2
Soit (Ω, E(Ω), lP) un espace probabilisé et soit X une variable aléatoire discrète sur Ω. On appelle
variance de X le nombre réel positif (si il existe), noté V (X), défini par :
( ) ( )
V (X) = E (X − E(X))2 = E X 2 − (E(X))2

On appelle écart-type de X le nombre réel positif, noté σ(X), défini par :



σ(X) = V (X)

On peut utiliser la 1ère formule :



V (X) = (xi − E(X))2 lP(X = xi )
xi ∈X(Ω)

ou la formule simplifiée :
 

V (X) =  x2i lP(X = xi ) − (E(X))2
xi ∈X(Ω)

Exemple 2.3.1
On lance un dé et on suppose que : on gagne 10 dh si on obtient la face numéro 1, on gagne 5
dh si on obtient la face 2 ou 3, on gagne 2 dh si on obtient la face 4 et on perd 5 dh si on obtient
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 28

la face 5 ou 6.
Calculer l’espérance et la variance du gain.
Soit X la variable aléatoire qui représente le gain. On a :

xi -5 2 5 10 Total
lP(X = xi ) 1/3 1/6 1/3 1/6 1
xi × lP(X = xi ) -5/3 2/6 5/3 10/6 2
x2i × lP(X = xi ) 25/3 4/6 25/3 100/6 34

D’où l’espérance mathématique du gain est E(X) = 2 dh et la variance est V (X) = 34 − 4 = 30.

Propriétés
Soient X et Y deux variables aléatoires définies sur un même espace probabilisé et a et b deux
nombres réels, on a :
– E(aX + b) = aE(X) + b
– V (aX + b) = a2 V (X)
– E(X + Y ) = E(X) + E(Y )
– Si X et Y sont indépendantes alors :
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y )

2.4 Lois de probabilité discrètes usuelles


Dans ce paragraphe, on va présenter les lois de probabilité des variables aléatoires discrètes, les
plus fréquemment utilisées pour décrire des situations pratiques usuelles. Cela nous permettra,
si on reconnaît une de ces lois pour la variable aléatoire étudiée, d’appliquer toutes ses formules
et ses propriétés qui seront supposées déjà démontrées.
Bien entendu, il ne faudra pas croire que tous les phénomènes aléatoires étudiés puisse être
rapportés aux quelques modèles décrits dans ce chapitre.

2.4.1 Loi uniforme

On suppose que l’expérience aléatoire possède N issues distinctes, possédant chacune la même
chance d’être réalisée (équiprobabilité).
On définit alors dans ce contexte une variable aléatoire X qui prend toutes les valeurs entières
comprises entre 1 et N (chacune de ces valeurs étant associée à l’une des N issues de l’épreuve
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 29

aléatoire).
La loi de probabilité de cette variable aléatoire est appelée loi uniforme sur {1, 2, . . . , N }.
Définition 2.4.1
On dit qu’une variable aléatoire discrète X suit une loi uniforme ssi

X(Ω) = {1, 2 . . . , N }
1
∀ k ∈ X(Ω) lP(X = k) =
N
On note X → U(N ).
Proposition 2.4.1
Si X est une variable aléatoire discrète qui suit une loi uniforme U(N ), alors on a :

N +1 N2 − 1
E(X) = et V (X) =
2 12

Loi de Bernoulli
Définition 2.4.2
On appelle épreuve de Bernoulli de paramètre p toute épreuve aléatoire n’ayant que deux résultats
possibles :
– un résultat priviligié, noté S et appelé succès, avec la probabilité p,
– un résultat alternatif, noté S appelé échec, avec la probabilité q = 1 − p.

Il s’agit d’une situation extrêmement fréquente puisque dès qu’on cherche à mettre en évidence
un résultat priviligié, noté S, tout résultat de l’épreuve aléatoire peut être décrit selon une telle
alternative : ou bien on a le résultat S, ou bien on a le contraire de S, noté S.
Exemple 2.4.1
- On lance deux pièces de monnaie et on considère S = "obtenir 2 piles".
- On lance un dé et on considère S = "obtenir la face n˚5".
Définition 2.4.3
Soit X la variable aléatoire désignant le nombre de succès obtenus suite à une épreuve de Bernoulli
de paramètre p. X est appelée variable aléatoire de Bernoulli et la loi de probabilité de X est
appelée loi de Bernoulli de paramètre p.
On note X → B(1, p).
Proposition 2.4.2
Si X est une variable aléatoire qui suit une loi de Bernoulli de paramètre p alors on a :

X(Ω) = {0, 1}
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 30

∀ k ∈ X(Ω) lP(X = k) = pk q 1−k

E(X) = p et V (X) = pq
Remarque 2.4.1
Le modèle de Bernoulli est le plus simple des modèles probabilistes, cependant il est fondamental.
Ceci est dû au fait que beaucoup de situations aléatoires peuvent se décomposer en successions
(répétitions) d’épreuves de Bernoulli.
On distingue les cas suivants :
– Répétitions en nombre fixe et avec indépendance ⇒ loi binomiale,
– Répétitions en nombre fixe et sans indépendance ⇒ loi hypergéométrique,
– Répétitions en nombre aléatoire et avec indépendance jusqu’à ce que l’on obtient le premier
succès ⇒ loi géométrique,
– Répétitions en nombre aléatoire et avec indépendance, jusqu’à ce que l’on obtient les r premiers
succès ⇒ loi binomiale négative.

2.4.2 Loi binomiale


Définition 2.4.4
Soit X une variable aléatoire désignant le nombre de succès obtenus en effectuant n épreuves de
Bernoulli indépendantes de même paramètre p.
X est appelée variable binomiale et la loi de X est appelée loi binomiale de paramètres n et p.
On note X → B(n, p).
Proposition 2.4.3
Une variable aléatoire X suit une loi binomiale de paramètres n et p si et seulement si :

X(Ω) = {0, 1, . . . , n}

∀ k ∈ X(Ω), lP(X = k) = Cnk pk q n−k

avec q = 1 − p.
Proposition 2.4.4
Soit X une variable qui suit une loi binomiale de paramètres n et p. Alors on a :

E(X) = np et V (X) = npq


Remarque 2.4.2
Reconnaissance de la loi B(n, p) ?
On reconnait qu’une variable aléatoire X suit une loi binomiale de paramètres n et p si et
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 31

seulement si on a les 4 conditions suivantes :


- Le nombre de répétitions d’épreuves de Bernoulli est connu à l’avance (n répétitions).
- Les répétitions sont indépendantes.
- La probabilité de succès p est la même pour toutes les épreuves.
- X représente le nombre de succès obtenus.
Exemple 2.4.2
On lance un dé n fois.
– Quelle est la probabilité d’obtenir k fois le chiffre 5 ?
– Combien de lancers faut-il effectuer pour que la probabilité d’obtenir au moins une fois le
chiffre 5 soit supérieure à 0.9 ?
– On suppose n = 12. Calculer la moyenne d’apparition du chiffre 5.
Exemple 2.4.3
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1 éléments de type S (succès) et N2
éléments de type S. On choisit au hasard, successivement et avec remise, n éléments dans
l’ensemble E.
Soit X la variable aléatoire désignant le nombre d’éléments de type S (nombre de succès).
Il s’agit d’une succession de n épreuves de Bernoulli indépendantes et ayant le même paramètre
N1
p= N
. Ainsi, la variable aléatoire X suit la loi binomiale de paramètres n et p.

Exercice 2.1

n
Montrer la formule du binôme de Newton : Cnk N1k N2n−k = (N1 + N2 )n
k=0

Propriétés
– Si X → B(n, p) et si Y = n − X, alors Y → B(n, q) (Y représente le nombre des échecs).
– Si X et Y sont deux variables aléatoires indépendantes et si X → B(n1 , p) et Y → B(n2 , p),
alors la somme S = X + Y suit une loi binomiale B(n1 + n2 , p)
– Pour les grandes valeurs de n, les calculs de la loi binomiale deviennent très difficiles. On peut,
sous certaines conditions, utiliser des approximations par d’autres lois usuelles (voir plus loin).
– Si X → B(n, p), on peut utiliser la formule de récurrence suivante :

 lP(X = k + 1) = lP(X = k) × (n − k)p

(k + 1)q

 lP(X = 0) = q n
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 32

2.4.3 Loi hypergéométrique


Définition 2.4.5
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1 éléments de type S (succès) et
N1
N2 éléments de type S. Soit p la proportion des éléments de type S (p = N
).
On choisit au hasard, simultanément ou successivement sans remise, un échantillon de n
éléments dans l’ensemble E. Soit X la variable aléatoire désignant le nombre d’éléments de type
S (nombre de succès).
Il s’agit d’une variable aléatoire désignant le nombre de succès obtenus en effectuant n épreuves
N1
de Bernoulli non indépendantes et ayant le même paramètre p = N
.
La loi de probabilité de cette variable aléatoire X est appelée loi hypergéométrique de paramètres
N , N1 et n. On note X → H(N, N1 , n).

Proposition 2.4.5
Une variable aléatoire X suit une loi hypergéométrique de paramètres N , N1 et n si et seulement
si :
X(Ω) = {sup(0, n − N2 ), . . . , inf (n, N1 )}
CNk 1 CNn−k
∀ k ∈ X(Ω), lP(X = k) = 2

CNn
avec N2 = N − N1
Proposition 2.4.6
Soit X une variable aléatoire qui suit une loi hypergéométrique de paramètres N , N1 et n. Alors
on a :
N −n
E(X) = np et V (X) = npq
N −1
avec p = N1
N
et q = 1 − p

Remarque 2.4.3
Reconnaissance de la loi H(N, N1 , n) ?
On reconnait qu’une variable aléatoire X suit une loi hypergéométrique de paramètres N , N1 et
n si on a les conditions suivantes :
- Le nombre de répétitions d’épreuves de Bernoulli est connu à l’avance (n répétitions).
- Les répétitions ne sont pas indépendantes.
N1
- La probabilité de succès est la même pour toutes les épreuves (p = N
).
- X représente le nombre de succès obtenus.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 33

Exemple 2.4.4
Un joueur coche une grille de loto : il choisit 6 numéros parmi {1, 2, . . . , 49}.
1) Calculer la probabilité pour obtenir k numéros gagnants,
2) Calculer le nombre moyen de numéros gagnants qu’on peut espérer obtenir en jouant une grille
de loto.

Notons X la variable aléatoire correspondant au nombre de numéros gagnants.


On a X → H(49, 6, 6), Donc
X(Ω) = {0, . . . , 6}
6−k
C6k C43
lP(X = k) = 6
C49
D’où

k 0 1 2 3 4 5 6
P (X = k) 0.436 0.413 0.132 0.0177 9, 69.10−4 1, 84.10−5 7, 15.10−8
6
On a E(X) = np = 6 49 ≃ 0.735. Donc en moyenne, on obtient moins d’un numéro gagnant en
jouant une grille de loto.
Exercice 2.2

n
Montrer la formule de VanderMonde : CNk 1 CNn−k
2
n
= C(N1 +N2 )
k=0

Proposition 2.4.7
Soient X et Y deux variables aléatoires indépendantes. X suit une loi binomiale de paramètres
n1 et p, Y suit une loi binomiale de paramètres n2 et p. Alors la loi de probabilité de la somme
S = X + Y est binomiale de paramètres n1 + n2 et p et la loi de probabilité conditionnelle de X
sachant que (S = n) est hypergéométrique de paramètres N = n1 + n2 , N1 = n1 et n.

Remarque 2.4.4
Si N est grand devant n (N > 10n), on peut approximer la loi hypergéométrique H(N, N1 , n)
par la loi binomiale B(n, NN1 ).

2.4.4 Loi géométrique

On suppose maintenant qu’on répète, de manière indépendante, une épreuve de Bernoulli de


paramètre p jusqu’à l’obtention du premier succès. Donc, ce qui est aléatoire maintenant c’est le
nombre de répétitions nécessaires pour obtenir le premier succès.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 34

Définition 2.4.6
Soit X la variable aléatoire désignant le nombre de répétitions indépendantes d’une épreuve de
Bernoulli de paramètre p jusqu’à l’obtention du premier succès. La loi de probabilité de X est
appelée loi géométrique de paramètre p.
On note X → G(p).
Proposition 2.4.8
Une variable aléatoire X suit une loi géométrique de paramètre p si et seulement si :

X(Ω) = IN∗

∀ k ∈ X(Ω), lP(X = k) = pq k−1


Proposition 2.4.9
Si une variable aléatoire X suit une loi géométrique de paramètre p, alors on a :
1 q
E(X) = et V (X) = 2
p p
Remarque 2.4.5
Reconnaissance de la loi G(p) ?
On reconnait qu’une variable aléatoire X suit une loi géométrique de paramètre p si on a les
conditions suivantes :
- Le nombre de répétions d’épreuves de Bernoulli est aléatoire.
- Les répétitions sont indépendantes.
- La probabilité de succès p est la même pour toutes les épreuves.
- X représente le nombre de répétitions jusqu’à ce que le premier succès se réalise.

2.4.5 Loi binomiale négative


Définition 2.4.7
Soit X la variable aléatoire désignant le nombre de répétitions indépendantes d’une épreuve de
Bernoulli de paramètre p jusqu’à l’obtention des r premiers succès. La loi de probabilité de X
est appelée loi binomiale négative (ou loi de Pascal) de paramètres r et p.
On note X → BN (r, p).
Proposition 2.4.10
Une variable aléatoire X suit une loi binomiale négative de paramètres r et p si et seulement si :

X(Ω) = {r, r + 1, . . . , ∞}

∀ k ∈ X(Ω), r−1 r k−r


lP(X = k) = Ck−1 pq
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 35

Proposition 2.4.11
Si une variable aléatoire X suit une loi binomiale négative de paramètres r et p, alors on a :
r q
E(X) = et V (X) = r 2
p p
Exemple 2.4.5
Une urne contient 5 boules blanches et 10 boules noires. On effectue des titages suuccessifs et
avec remise.
1) Quelle est la probabilité que la première boule blanche soit tirée au 5ième tirage ?
2) Quelle est la probabilité que la 3ème boule blanche soit tirée au 5ième tirage ?

Soit X la variable aléatoire qui représente le nombre de boules tirées jusqu’à l’obtention de la
première boule blanche. On a X → G( 13 ). D’où lP(X = 5) = ( 23 )4 31 = 16
243
.
Soit Y la variable aléatoire qui représente le nombre de boules tirées jusqu’à l’obtention de 3
boules blanches. On a Y → BN (3, 13 ). D’où lP(Y = 5) = C42 ( 13 )3 ( 32 )2 = 8
81
.

Remarque 2.4.6
La loi binomiale, la loi hypergéométrique, la loi géométrique et la loi binomiale négative sont
toutes liées à des modèles aléatoires qui se composent de répétitions d’épreuves de Bernoulli
de même paramètre p. À l’exception de la loi hypergéométrique, les répétitions des épreuves de
Bernoulli sont indépendantes.

2.4.6 Loi de Poisson


Définition 2.4.8
On dit qu’une variable aléatoire X suit une loi de Poisson de paramètre λ > 0 si et seulement
si :
X(Ω) = IN
λk e−λ
∀ k ∈ X(Ω), lP(X = k) =
k!
on note X → P(λ).
Proposition 2.4.12
Soit X une variable aléatoire qui suit une loi de Poisson de paramètre λ. Alors on a :

E(X) = λ et V (X) = λ
Remarque 2.4.7
Reconnaissance de la loi P(λ) ?
On reconnait qu’une variable aléatoire X suit une loi de Poisson de paramètre λ (λ = µ × T ) si
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 36

on a les conditions suivantes :


- On s’intéresse à un événement S qui se produit en moyenne µ fois par unité de temps (processus
de Poisson).
- X représente le nombre de fois que cet événement S se produit (nombre de succès) pendant
une durée de T unités.
(L’événement S se produit en moyenne λ fois durant la période de T unités).

Exemple 2.4.6
On admet que le nombre moyen d’appels téléphoniques reçus par un standardiste est égal à 12
appels par heure. Quelle est la probabilité que ce standardiste reçoit au moins 3 appels durant
une période de 10 mn ? (événement A)

Soit X la variable aléatoire qui compte le nombre d’appels reçus pendant la durée T = 10mn =
1
6
h. On a µ = 12 appels/heure. Donc, λ = µ × T = 2 et alors X → P(2). D’où

lP(A) = P (X > 3) = 1 − P (X < 3) = 1 − 5e−2

Propriétés
Si X → P(λ), on peut utiliser la formule de récurrence suivante :

 lP(X = k + 1) = lP(X = k) × λ
k
 lP(X = 0) = e−λ

Proposition 2.4.13
Soient X1 , X2 , . . . , Xn n variables aléatoires indépendantes qui suivent des lois de Poisson de
paramètres respectifs λ1 , λ2 , . . . , λn . Alors la somme S = X1 + X2 + . . . + Xn suit une loi de
Poisson de paramètre λ = λ1 + λ2 + . . . + λn .
Proposition 2.4.14
Soient X et Y deux variables aléatoires indépendantes qui suivent des lois de Poisson de para-
mètres respectifs λ1 et λ2 . Alors la variable X sachant que (X + Y = n) suit une loi binomiale
λ1
de paramètres n et p = .
λ1 + λ2
Proposition 2.4.15
Soit X une variable aléatoire qui suit une loi de Poisson de paramètre λ. On suppose que l’évé-
nement S du processus de Poisson se décompose en k types S1 , S2 , . . . , Sk et que chaque type se

k
produit avec une probabilité pi avec pi = 1.
i=1
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 37


k
On pose Xi = le nombre de fois que l’événement de type Si se produit avec Xi = X.
i=1
Alors chaque Xi est une variable aléatoire qui suit la loi de Poisson de paramètre λpi et les k
variables X1 , X2 , . . . , Xk sont indépendantes.
Exemple 2.4.7
On suppose qu’en moyenne 10 appels téléphoniques par minute arrivent à un autocommutateur.
Ces appels sont alors acheminés vers 3 serveurs avec des probabilités respectives p1 = 0.2, p2 =
0.3, p3 = 0.5. Quelle est la probabilité que, durant une minute, trois appels soient acheminés vers
le premier serveur ?

Approximation d’une loi binomiale par une loi de Poisson


Proposition 2.4.16
Soit X une variable aléatoire qui suit une loi binomiable de paramètres n et p.
Si n est assez grand (n > 50) et p petit (p 6 0.1), de telle sorte que le produit np soit 6 5, alors
on peut approximer la loi binomiale B(n, p) par une loi de Poisson de paramètre λ = np :
λk e−λ
Cnk pk q n−k ≈
k!
Remarque 2.4.8
Pour les grandes valeurs de np ou de λ = np, on peut, sous certaines conditions, approximer la loi
binomiale B(n, p) ou la loi de Poisson P(λ) par une loi usuelle continue (voir chapitre suivant).

2.5 Couple de variables aléatoires discrètes

2.5.1 Loi conjointe d’un couple de variables aléatoires


Définition 2.5.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soient X et Y deux variables aléatoires discrètes.
On appelle loi de probabilité du couple (X, Y ) l’application, notée f(X,Y ) , définie de X(Ω) × Y (Ω)
dans [0, 1] par :

∀ (xi , yj ) ∈ X(Ω) × Y (Ω), f(X,Y ) (xi , yj ) = lP ((X = xi ) ∩ Y = yj ))

On note f(X,Y ) (xi , yj ) = pij .


Les lois de probabilité de X et de Y s’appellent lois marginales du couple (X, Y ).
Remarque 2.5.1
Pour définir la loi de probabilité d’un couple (X, Y ), il faut et il suffit de déterminer les valeurs
pij = f(X,Y ) (xi , yj ), ∀ (xi , yj ) ∈ X(Ω) × Y (Ω).
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 38

Remarque 2.5.2
∑ ∑
– On a : f(X,Y ) (xi , yj ) = 1.
xi ∈X(Ω) yj ∈Y (Ω)
∑∑
– f(X,Y ) (I × J) = lP((X ∈ I) ∩ (Y ∈ J)) = pij
xi ∈I yj ∈J
– Si X(Ω) et Y (Ω) sont finis, la loi du couple (X, Y ) et les lois marginales de X et de Y peuvent
être représentées par un tableau à deux dimensions (tableau de contingence) :

Y y1 y2 ... yj ... ym Total


X
x1 p11 p12 ... p1j ... p1m lP(X = x1 )
x2 p21 p22 ... p2j ... p2m lP(X = x2 )
.. .. .. .. .. .. .. ..
. . . . . . . .
xi pi1 pi2 ... pij ... pim lP(X = xi )
.. .. .. .. .. .. .. ..
. . . . . . . .
xk pk1 pk2 ... pkj ... pkm lP(X = xk )

Total lP(Y = y1 ) lP(Y = y2 ) . . . lP(Y = yj ) ... lP(Y = ym ) 1

On a :

m
fX (xi ) = lP(X = xi ) = pij
j=1


k
fY (yj ) = lP(Y = yj ) = pij
i=1


k ∑
m ∑
k ∑
m
fX (xi ) = fY (yj ) = pij = 1
i=1 j=1 i=1 j=1

2.5.2 Variables aléatoires indépendantes


Définition 2.5.2
Deux variables aléatoires X et Y sont dites indépendantes si et seulement si ∀ (xi , yj ) ∈ X(Ω) ×
Y (Ω), les événements (X = xi ) et (Y = yj ) sont indépendants.

Corollaire 2.5.1
Deux variables aléatoires X et Y sont dites indépendantes si et seulement si

∀ (xi , yj ) ∈ X(Ω) × Y (Ω), f(X,Y ) (xi , yj ) = fX (xi ) × fY (yj )

On dit alors que la loi du couple (X, Y ) est égale au produit des lois marginales.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 39

2.5.3 Covariance
Définition 2.5.3
On appelle covariance des variables aléatoires X et Y le nombre réel (si il existe), noté Cov(X, Y ),
défini par :
Cov(X, Y ) = E(XY ) − E(X) × E(Y )

avec
∑ ∑
E(XY ) = xi × yj × f(X,Y ) (xi , yj )
xi ∈X(Ω) yj ∈Y (Ω)

Propriétés :
Soient X et Y deux variables aléatoires et a et b deux nombres réelles. On a :
– Cov(X + a, Y + b) = Cov(X, Y )
– Cov(aX, bY ) = abCov(X, Y )
– E(XY ) = E(X) × E(Y ) + Cov(X, Y )
– V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )
– Si X et Y sont indépendantes alors Cov(X, Y ) = 0. La réciproque est fausse.

Exemple 2.5.1
Dans une urne contenant 4 boules blanches, 8 boules rouges et 6 boules vertes, on tire au hasard
successivement et sans remise 3 boules. Soient X le nombre de boules rouges tirées et Y le nombre
de boules vertes tirées.
1) Déterminer la loi de probabilité conjointe du couple (X, Y ).
2) Calculer Cov(X, Y ). Conclure.

La loi de probabilité conjointe est donnée dans le tableau suivant :

Y 0 1 2 3 Total
X
C43 4 C42 C61 36 C41 C62 60 C63 20 120
0 3 = 816
C18 3
C18
= 816 C183 = 816 3
C18
= 816 816
C81 C42 48 C81 C61 C41 C8 C62
1
1 3
C18
= 816 3
C18
= 192
816 C183 = 120
816
0 360
816
C82 C41 C82 C61
2 3
C18
= 112
816 3
C18
= 168
816
0 0 280
816
C83 56 56
3 3
C18
= 816
0 0 0 816
220 396 180 20
Total 816 816 816 816
1

On a : X → H(18, 8, 3) et Y → H(18, 6, 3). D’où E(X) = 3 × 8


18
= 4
3
et E(Y ) = 3 × 6
18
= 1.
D’autre part, on a E(XY ) = 1
816
(192 + 2 × 120 + 2 × 168) = 57
68
. D’où Cov(X, Y ) = 57
68
− 4
3
< 0.
Conclusion : X et Y ne sont pas indépendantes. Elles varient en sens contraires.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 40

Exemple 2.5.2
Soit (X, Y ) un couple de variables aléatoires dont la loi de probabilité conjointe est donnée dans
le tableau suivant :

Y 0 1 2
X
1 1
0 0 0
2 2
1 1 1
1 0
4 4 2
1 1 1
1
4 2 4
Calculer Cov(X, Y ). Conclure.

Exercice 2.3
Soient X et Y deux variables aléatoires définies sur un même espace probabilisé, dont la loi de
probabilité conjointe est définie par le tableau suivant :

Y 1 2 3
X
1
1 0 0
2
1 1
2 0
4 4
Calculer la covariance de X et Y . Conclure.
Exercice 2.4
Soient X et Y deux variables aléatoires indépendantes définies sur un même espace probalisé,
dont les lois de probabilité sont données par :

xi 0 1 2 3
lP(xi ) 0.1 0.2 0.3 0.4

yi 1 2 3
P (yi ) 0.25 0.5 0.25

1) Calculer l’espérance et la variance des deux variables.


2) Donner la loi de probabilité conjointe de X et Y .
3) Établir la loi de probabilité de T = X + Y . Calculer E(T ) et V (T ).
4) Établir la loi de probabilité de Z = XY . Calculer E(Z) et V (Z).
5) Conclure.
Chapitre 3

Variables aléatoires continues

3.1 Définition
Définition 3.1.1
Soit (Ω, E(Ω), lP) un espace probabilisé. On suppose que Ω est infini non dénombrable.
Une variable aléatoire X définie sur Ω est dite continue si et seulement si l’ensemble X(Ω) est
infini non dénombrable (X(Ω) = IR ou X(Ω) est un intervalle de IR).

Exemple 3.1.1
On lance une flèche sur une cible matérialisée par un disque de rayon R.
Soit X, la variable aléatoire qui désigne la distance du point d’impact de la flèche au centre du
disque. On a X(Ω) = [0, R]. Donc, X est une variable aléatoire continue.

Exemple 3.1.2
On suppose que, dans une région, les pannes d’électricité se produisent en moyenne deux fois par
mois. Soit X = le temps qui sépare 2 pannes consécutives. On a X(Ω) = ]0, +∞[.

3.2 Fonction de répartition - Fonction densité de probabilité


Définition 3.2.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soit X une variable aléatoire continue sur Ω.
On appelle fonction de répartition de X, l’application, notée FX , définie de R vers [0, 1] par :

∀ x ∈ R, FX (x) = lP(X 6 x)
Définition 3.2.2
Soit X une variable aléatoire continue et soit FX sa fonction de répartition.
On appelle fonction densité de probabilité de X, notée fX , la fonction dérivée de FX . C’est donc

41
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 42

la fonction définie de R vers [0, 1] par :


∀ x ∈ R, fX (x) = FX (x)

Définition 3.2.3
Soit X une variable aléatoire continue et soit fX sa fonction densité de probabilité.
On peut définir la fonction de répartition de X à partir de la fonction densité de probabilité par
la formule suivante : ∫ x
∀ x ∈ R, FX (x) = fX (t)dt
−∞

Propriétés caractéristiques
Soit X une variable aléatoire continue.
– La fonction densité de probabilité fX doit vérifier :

(1) fX (x) > 0 ∀x ∈ R,


∫ +∞
(2) fX (x)dx = 1.
−∞
Toute fonction vérifiant ces propriétés peut être considérée comme la fonction densité de pro-
babilité d’une variable aléatoire continue.
– La fonction de répartition FX doit vérifier :

(1) FX est croissante sur R (au sens large),

(2) lim FX (x) = 0


x→−∞

(3) lim FX (x) = 1,


x→+∞

(4) FX est continue sur R.

Toute fonction vérifiant ces propriétés peut être considérée comme la fonction de répartition
d’une variable aléatoire continue.
Remarque 3.2.1
Soient X une variable aléatoire continue.
– On peut effectuer les calculs des probabilités pour la variable X, soit en utilisant sa fonction
de répartition FX , soit en utilisant sa fonction densité de probabilité fX . On a :
∫ b
lP(a < X 6 b) = FX (b) − FX (a) = fX (t)dt
a

– La probabilité pour que X prenne une valeur isolée x est nulle :

∀ x ∈ R, lP(X = x) = 0
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 43

– Par conséquent, pour une variable aléatoire continue, les probabilités avec les inégalités larges
ou strictes sont identiques : ∫ a
– lP(X 6 a) = lP(X < a) = FX (a) = fX (t)dt,
−∞∫
+∞
– lP(X > a) = lP(X > a) = 1 − FX (a) = fX (t)dt,
a
– lP(a < X < b) = lP(a∫ 6 X 6 b) = lP(a < X 6 b) = lP(a 6 X < b) =
b
= FX (b) − FX (a) = fX (t)dt,
a

Exemple 3.2.1
Soit X une variable aléatoire continue dont la fonction de répartition est définie par :

 a − be−2x si x > 0
FX (x) =
 0 sinon, a, b ∈ R∗

1. Déterminer les valeurs possibles de a et b.

2. Calculer les probabilités suivantes : lP(X > 1), lP(−1 < X < 2), lP ((−1 < X < 2)|(X > 1)).

3. Déterminer la fonction densité de probabilité de X.


Exemple 3.2.2
Soit X une variable aléatoire continue dont la fonction densité de probabilité est définie par :

 ke−λx si x > 0
fX (x) =
 0 sinon, k, λ ∈ R∗

1. Déterminer les valeurs possibles de k et λ.

2. Calculer les probabilités des événements (X > 1) et (−1 6 X < 2).

3. Déterminer la fonction de répartition de X.

4. Déterminer la fonction densité de probabilité de la variable aléatoire Y = 3 − 2X.

3.3 Changement de variables aléatoires continues


Soient X une variable alétoire continue, FX sa fonction de répartition et fX sa fonction densité
de probabilité. Soit φ une fonction réelle. Y = φ(X) est une variable aléatoire dont on peut
déterminer la fonction de répartition ou/et la fonction densité de probabilité à partir de celles
de X. On a :
FY (x) = lP(Y 6 x) = lP(φ(X) 6 x) = ...
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 44

La suite des calculs dépend de la nature de la fonction φ(X) (bijective, croissante, décroissante
ou quelconque).

Exemple 3.3.1
Soit X une variable aléatoire continue et soit Y = exp(X).
La fonction exp(X) est croissante. Donc on a :

FY (x) = lP(Y 6 x) = lP(exp(X) 6 x) = lP(X 6 ln(x)), si x > 0

Donc FY est définie par : 


 F (ln(x)) si x > 0
X
FY (x) =
 0 sinon
et on obtient la fonction densité fY par dérivation de FY :

 1 f (ln(x)) si x > 0
x X
fY (x) =
 0 sinon

Exemple 3.3.2
Soit X une variable aléatoire continue et soit Y = X 2 . On a :

√ √
FY (x) = lP(Y 6 x) = lP(X 2 6 x) = lP(− x 6 X 6 x), si x > 0

Donc FY est définie par :



 F (√x) − F (−√x) si x > 0
X X
FY (x) =
 0 sinon

et on en déduit : 
 1 √ √
√ (f ( x) + fX (− x)) si x > 0
2 x X
fY (x) =
 0 sinon

Exemple 3.3.3
Soit X une variable aléatoire continue dont la fonction densité de probabilité est donnée par :

 4x3 si 0 < x < 1
fX (x) =
 0 sinon

Déterminer la fonction densité de probabilité de la variable Y = 1 − 3X 2 .


On a :
1−x
FY (x) = lP(Y 6 x) = lP(1 − 3X 2 6 x) = lP(X 2 > )
3
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 45

 √ √
 1 − lP(− 1−x 6 X 6 1−x ) si 1−x > 0
3 3 3
=
 1 sinon
 √ √
 1 − FX ( 1−x ) + FX (− 1−x ) si x < 1
3 3
=
 1 sinon
D’où :  √ √
 1
√ √ (f ( 1−x
) + fX (− 1−x
)) si x < 1
2 3 1−x X 3 3
fY (x) =
 0 sinon
Ainsi, pour l’exemple, on trouve :

 2 (1 − x) si −2 < x < 1
fY (x) = 9
 0 sinon


 si 6 −2


0
FY (x) = 1 − ( 1−x )2 si − 2 6 x 6 1

 3

 1 si x > 1

Proposition 3.3.1
Soient X une variable alétoire continue et fX sa fonction densité de probabilité. Soit Y = φ(X)
une nouvelle variable aléatoire. Si la fonction φ est inversible et si la fonction inverse φ−1 est
dérivable, alors on a :
fY (x) = |(φ−1 (x))′ | × fX (φ−1 (x))

3.4 Paramètres d’une variable aléatoire continue

Espérance mathématique
Définition 3.4.1
Soit X une variable aléatoire continue et soit fX sa fonction densité de probabilité.
L’espérance mathématique de X (si elle existe) est définie par :
∫ +∞
E(X) = xfX (x)dx
−∞

Si φ est une fonction réelle continue, alors Y = φ(X) est une variable aléatoire continue et on a :
∫ +∞ ∫ +∞
E(φ(X)) = φ(x)fX (x)dx = xfY (x)dx
−∞ −∞
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 46

Variance - écart-type
Définition 3.4.2
On suppose que l’espérance de X existe. La variance de X (si elle existe) est définie par :
( )
V (X) = E X 2 − (E(X))2

avec ∫ +∞
2
E(X ) = x2 fX (x)dx
−∞

Si la variance de X existe, l’écart-type de X est défini par :



σ(X) = V (X)

Propriétés
Soient X et Y deux variables aléatoires continues et a et b deux nombres réels. On a :
– E(aX + b) = aE(X) + b,
– V (aX + b) = a2 V (X),
– E(X + Y ) = E(X) + E(Y ),
– Si X et Y sont indépendantes alors :
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y )
Exemple 3.4.1
Calculer l’espérance et l’écart-type de la variable aléatoire de l’exemple 1.2.2.
∫ +∞ ∫ +∞
On a : E(X) = xfX (x)dx = λ xe−λx dx.
[−∞ −λx ]+∞ ∫ +∞0 [ −λx ]+∞
xe −λx e 1
D’où E(X) = λ − + e dx = − = (intégration par parties)
λ λ 0 λ
∫ +∞ 0 0 ∫ +∞
et on a : E(X 2 ) = x2 fX (x)dx = λ x2 e−λx dx.
[ −∞ ]
2 −λx +∞ ∫ +∞ 0
x e 2 2
D’où E(X 2 ) = λ − +2 xe−λx dx = E(X) = 2
λ 0 0 λ λ
1 √ 1
Donc, V (X) = E(X 2 ) − (E(X))2 = 2 et σ(X) = V (X) = .
λ λ

Paramètres de position - les quantiles


Définition 3.4.3
Soit X une variable alétoire continue et soit FX sa fonction de répartition.
On appelle paramètre de position (ou quantile) d’ordre k (0 < k < 1) de X la valeur, notée zk ,
telle que : FX (zk ) = k.
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 47

– La médiane, notée Me , est le quantile d’ordre k = 1/2.


– Le premier quartile, noté Q1 , est le quantile d’ordre k = 1/4.
– Le troisième quartile, noté Q3 , est le quantile d’ordre k = 3/4.
– Le i ème décile, noté Di , est le quantile d’ordre k = i
10
, 1 6 i 6 9.

Exemple 3.4.2
Soit X une variable aléatoire dont la fonction densité de probabilité est définie par :


 si x ∈]0, 1[


x
fX (x) = k − x si x ∈ [1, 2[



 0 sinon, k ∈R

1) Déterminer les valeurs possibles de k.


2) Calculer les quartiles, l’espérance et la variance de X.
3) Soit Y une variable aléatoire définie par Y = 3 − 2X. Calculer les quartiles, l’espérance et la
variance de Y .

3.5 Lois de probabilité continues usuelles


Dans ce paragraphe, on va présenter les lois de probabilité usuelles des variables aléatoires conti-
nues, les plus fréquemment utilisées. Cela nous permettra, si on reconnaît une de ces lois pour
la variable aléatoire étudiée, d’appliquer toutes ses formules et ses propriétés.
Bien entendu, il ne faudra pas croire que tous les phénomènes aléatoires étudiés puisse être
rapportés aux quelques modèles décrits dans ce chapitre.

3.5.1 Loi uniforme


Définition 3.5.1
Soit X une variable aléatoire continue. On dit que X suit la loi uniforme sur l’intervalle [a, b] ssi
sa densité de probabilité est définie par :

1
 si x ∈ [a, b]
fX (x) = b−a

0 sinon

On note X → U([a, b]).


CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 48

Proposition 3.5.1
Soit X une variable aléatoire continue qui suit une loi uniforme sur l’intervalle [a, b]. Alors on a :


 0 si x 6 a

 x−a
FX (x) = si x ∈ [a, b]
 b−a


 1 si x > b

a+b
E(X) = Me (X) =
2
(a − b)2
V (X) =
12
Remarque 3.5.1
L’équiprobabilité se traduit par : La probabilité d’un intervalle [c, d] ⊂ [a, b] est proportionnelle
à la longueur de cet intervalle :
d−c
lP(c 6 X 6 d) =
b−a
Exemple 3.5.1
Le temps de retard d’un train suit une loi uniformément distribuée entre 0 et 30 minutes.
1) Quelle est la probabilité que l’attente d’arrivée de ce train dure entre 10 et 15 minutes ?
2) Sachant que le train n’est pas arrivé après 10 minutes, quelle est la probabilité que l’attente
dure encore moins de 5 minutes ?
3) Quelle est la probabilité que l’attente dure entre 20 et 40 minutes ?

Soit X=temps de retard du train. On a X → U ([0, 30]). D’où


15 − 10 1
lP(10 6 X 6 15) = = .
30 − 0 6
lP(10 6 X 6 15) 5
1
lP(X 6 15|X > 10) = = 30 10 = .
lP(X > 10) 1 − 30 4
1 40 − 20
lP(20 6 X 6 40) = ̸= .
3 30 − 0

3.5.2 Loi exponentielle


Définition 3.5.2
On dit qu’une variable aléatoire continue X suit la loi exponentielle de paramètre λ > 0 ssi sa
densité de probabilité est définie par :

 λe−λx si x > 0
fX (x) =
 0 sinon

On note X → E(λ).
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 49

Proposition 3.5.2
Soit X une variable aléatoire continue qui suit une loi exponentielle de paramètre λ. Alors on a :

 1 − e−λx si x > 0
FX (x) =
 0 sinon

ln(2) 1 1
M e(X) = , E(X) = , V (X) =
λ λ λ2
Remarque : Reconnaissance de la loi exponentielle ?
La loi exponentielle est une loi continue qui peut être liée à un processus de Poisson :
Proposition 3.5.3
On suppose qu’un événement S se produit en moyenne λ fois par unité de temps (processus de
Poisson).
Si X est une variable aléatoire continue qui représente le temps (en cette unité) qui sépare deux
réalisations consécutives de l’événement S, alors X suit une loi exponentielle de paramètre λ.
Exemple 3.5.2
Dans une région, les pannes d’électricité se produisent en moyenne deux fois par mois.
1) Quelle la probabilité que durant un mois, on observe au moins 3 pannes ? (événement A)
2) Quelle la probabilité que le temps qui sépare les deux prochaines pannes soit supérieur à 10
jours ? (événement B)

Soit X1 = nombre de pannes par mois et soit X2 = le temps (en mois) qui sépare 2 pannes
consécutives.
On a X1 → P(2) et X2 → E(2). Donc,
lP(A) = lP(X1 > 3) = 1 − lP(X < 3) = 1 − 5e−2 .
lP(B) = lP(X2 > 1/3) = 1 − FX (1/3) = e−2/3 , (10 jours = 1/3 mois).

Exemple 3.5.3
Les données statistiques montrent que les décès dans une urgence se produisent avec une moyenne
de 3 décès par année. Si une personne est décédée aujourd’hui, quelle est la probabilité que le
prochain décès soit dans plus de 4 mois ? (événement A)

Soit X = le temps (en années) qui sépare 2 décès consécutifs.


On a X → E(3). D’où
lP(A) = lP(X > 1/3) = 1 − FX (1/3) = e−1 , (4 mois = 1/3 année).
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 50

3.5.3 Loi Gamma


Définition 3.5.3
On dit qu’une variable aléatoire continue X suit la loi Gamma de paramètres r et λ ssi sa densité
de probabilité est définie par :


 λr
xr−1 e−λx si x > 0
fX (x) = (r − 1)!

 0 sinon

On la note X → G(r, λ).

Proposition 3.5.4
Soit X une variable aléatoire continue qui suit une loi Gamma de paramètres r et λ. Alors on a :


 ∑
r−1
(λx)k
 1 − e−λx si x > 0
FX (x) = k!


k=0
 0 sinon

Proposition 3.5.5
Soit X une variable aléatoire continue qui suit une loi Gamma de paramètres r et λ. Alors on a :

r r
E(X) = , V (X) =
λ λ2

Reconnaissance de la loi Gamma ?


Proposition 3.5.6
On suppose qu’un événement S se produit en moyenne λ fois par unité de temps (processus de
Poisson). On suppose que l’événement S s’est produit à l’instant t0 .
Si X est une variable aléatoire continue qui représente le temps (en cette unité), à partir de
t0 , nécessaire pour observer r réalisations de l’événement S, alors X suit une loi Gamma de
paramètre r et λ.
Remarque 3.5.2
– Si r = 1, on retrouve la loi exponentielle.
– Si X1 , X2 , . . . , Xr sont des variables indépendantes et exponentiellement distribuées avec le
même paramètre λ, alors leur somme S = (X1 + X2 + . . . + Xr ) suit une loi Gamma de
paramètres r et λ.
Exemple 3.5.4
Dans une région, les pannes d’électricité se produisent en moyenne deux fois par mois.
1) Quelle la probabilité que le temps qui sépare les deux prochaines pannes soit supérieur à 10
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 51

jours ? (événement B)
2) On vient d’observer une panne aujourd’hui (instant t0 ). Quelle la probabilité qu’il faut au
moins 15 jours pour observer les deux prochaines pannes ? (événement C)

Soit Xr = le temps (en mois), à partir de t0 , nécessaire pour observer r pannes consécutives.
On a Xr → G(r, 2). Donc,
1 − FX (1/3) = e−2/3 , (10 jours = 1/3 mois).
lP(B) = lP(X1 > 1/3) = ∫
+∞
lP(C) = lP(X2 > 1/2) = 4xe−2x dx = 2e−1 , (15 jours = 1/2 mois).
1
2

3.5.4 Loi Normale


Définition 3.5.4
On dit qu’une variable aléatoire continue X suit la loi normale (ou loi de Gauss) de paramètres
m et σ ssi sa fonction densité de probabilité est définie par :
( )
1 (x − m)2
fX (x) = √ exp − , ∀x ∈R
σ 2π 2σ 2

On note X → N (m, σ). N (0, 1) est appelée loi normale centrée réduite.

Proposition 3.5.7
Soit X une variable aléatoire qui suit une loi normale de paramètres m et σ. Alors on a :

E(X) = Me (X) = Mo (X) = m

V (X) = σ 2

Remarque 3.5.3
Soit X une variable aléatoire qui suit une loi normale de paramètres m et σ. On a :
∫ ( )
1 x
(t − m)2
FX (x) = √ exp − dt , ∀x ∈R
σ 2π −∞ 2σ 2

La fonction de répartition d’une loi normale ne peut pas être exprimée à l’aide de
fonctions usuelles.
Pour surmonter cette difficulté, nous utilisons des approximations numériques.
Nous utilisons une table qui donne les valeurs de la fonction de répartition de la loi normale
centrée réduite N (0, 1).
Evidemment, on ne peut pas avoir de telle table pour toutes les lois normales N (m, σ).
Donc, il faut savoir passer d’une loi normale quelconque à une loi normale centrée réduite N (0, 1).
Ce qui est possible avec les deux propositions suivantes :
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 52

Proposition 3.5.8
Si X suit une loi normale de paramètres m et σ (X → N (m, σ)), alors la variable aléatoire
X −m
Z= suit la loi normale centrée réduite (Z → N (0, 1)).
σ
La fonction densité de probabilité et la fonction de répartition de la loi normale centrée réduite
N (0, 1) sont notées respectivement φ(x) et Φ(x) et sont définies par :
( 2)
1 x
φ(x) = fZ (x) = √ exp −
2π 2
∫ x ( 2)
1 t
Φ(x) = FZ (x) = √ exp − dt
−∞ 2π 2

Φ(a)

Figure 3.1 – Densité et fonction de répartition de la loi normale N (0, 1)

Proposition 3.5.9
Soit X une variable aléatoire qui suit une loi normale de paramètres m et σ (X → N (m, σ)).
Alors les valeurs de FX (x) et de fX (x) se déduisent de celles de la loi normale centrée réduite
N (0, 1) à l’aide des relations suivantes :
( )
x−m
FX (x) = Φ
σ
( )
1 x−m
fX (x) = φ
σ σ
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 53

Remarque 3.5.4
Pour les calculs des probabilités utilisant une loi normale, on dispose d’une table numérique
donnant les valeurs de Φ(x). Avec cette table et en utilisant la proposition précédente, on peut
calculer les valeurs de FX (x) pour toute variable aléatoire X qui suit une loi normale de para-
mètres m et σ quelconques.

Utilisation de la table numérique de Φ(x).


La table fournie en annexe de ce cours est une table à double entrée avec laquelle on peut
déterminer les valeurs approchées de Φ(x), ∀ x ∈ R.
Cette table est composée d’une grande table pour les valeurs de x comprises entre 0 et 2.99 et
d’une petite table pour les valeurs de x comprises entre 3 et 5.9 :
– Pour les valeurs de x variant de 0 à 2.99 (avec deux chiffres après la virgule), on cherche dans la
1ère colonne, la ligne qui correspond à la partie entière et le chiffre décimal de x et on cherche
dans la 1ère ligne, la colonne qui correspond au chiffre centième de x.
A l’intersection de cette ligne et de cette colonne, on lit la valeur de Φ(x).
Par exemple, la valeur de Φ(1.34) se trouve à l’intersection de la ligne 1.3 et de la colonne 0.04
On trouve : ϕ(1.34) = 0.90988.
– Pour les valeurs de x comprises entre 3 et 5.9, on utilise la petite table qui donne 1 − Φ(x) :
On cherche la ligne qui correspond à la partie entière de x et la colonne qui correspond au
chiffre décimal de x.
A l’intersection de cette ligne et de cette colonne, on lit la valeur de 1 − Φ(x).
La notation {m; k} signifie : 1 − Φ(x) = m × 10−k .
Par exemple, la valeur de 1 − Φ(4.6) se trouve à l’intersection de la ligne 4 et de la colonne 0.6
On trouve : Φ(4.6) = 1 − 2.11 × 10−6 .
– Pour les valeurs de x avec plus de 2 chiffres après la virgule, on détermine Φ(x) soit par arrondi
soit par interpolation linéaire (pour plus de précision).
Par exemple, la valeur de Φ(1.3476) peut être approximée soit par Φ(1.35) (on trouve 0.91149),
soit par interpolation à partir des valeurs de Φ(1.34) et de Φ(1.35) (on trouve 0.91110).
– Pour les valeurs de x > 5.9, on considère que Φ(x) ≃ 1.
– Pour les valeurs négatives de x, on utilise la propriété de symétrie Φ(−x) = 1 − Φ(x).

Exemple 3.5.5
Soit X → N (45, 4).
1) Calculer lP(X < 39), lP(X > 48) et lP(39 < X < 48).
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 54

2) Calculer lP(|X − m| 6 σ).


3) Déterminer la valeur de a tel que lP(X < a) = 0.40129.

lP(X < 39) = FX (39) = Φ( 39−45


4
) = Φ(−1.5) = 0.06681,
lP(X > 48) = 1 − FX (48) = 1 − Φ( 48−45
4
) = 1 − Φ(0.75) = 0.22663,
lP(39 < X < 48) = FX (48) − FX (39) = Φ( 48−45
4
) − Φ( 39−45
4
) = Φ(0.75) − Φ(−1.5) = 0.70656.

lP(|X − m| 6 σ) = lP(m − σ < X < m + σ) = 2Φ(1) − 1 = 0.68268.

On a lP(X < a) = FX (a) = Φ( a−45


4
) et on a 0.40129 = 1 − 0.59871 = 1 − Φ(0.25) = Φ(−0.25).
a − 45
Donc = −0.25
4
D’où a = 44.
Proposition 3.5.10
Si X1 et X2 sont deux variables aléatoires indépendantes de lois respectives N (m1 , σ1 ) et N (m2 , σ2 ).

Alors la variable aléatoire S = X1 + X2 suit la loi normale N (m1 + m2 , σ12 + σ22 ).
On peut généraliser à n variables.

Remarque : Reconnaissance d’une loi normale ?


Contrairement à toutes les lois usuelles définies précédemment, qui ont été adaptées à des si-
tuations aléatoires particulières de telle sorte qu’on peut les reconnaitre, pour le cas de la loi
normale, on a juste parachuté sa fonction densité de probabilité.
Une question reste alors posée : comment reconnaître la normalité d’une variable aléatoire ?
Souvent, on fait appel à la loi normale :
- Soit suite à des arguments statistiques : allure de l’histogramme, symétrie, dispersion, etc.
- Soit comme loi approchée pour approximer d’autres lois usuelles.

3.6 Approximations par une loi normale

a) Approximation d’une loi binomiale


Proposition 3.6.1
Soit X une variable aléatoire qui suit une loi binomiale B(n, p). Alors :
Pour n suffisamment grand (n > 30) et p et q pas trop proches de zéro (np > 5 et nq > 5), la loi

binomiale B(n, p) peut être approximée par la loi normale de paramètres m = np et σ = npq.

On note B(n, p) ≈ N (np, npq).
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 55

b) Approximation d’une loi de Poisson


Proposition 3.6.2
Soit X une variable aléatoire qui suit une loi de Poisson P(λ). Alors :
Pour λ suffisamment grand (λ > 20), la loi de Poisson P(λ) peut être approximée par la loi

normale de paramètres m = λ et σ = λ.

On note P(λ) ≈ N (λ, λ).

Remarque 3.6.1
Correction de continuité :
Il faut faire attention lorsqu’on approxime une loi d’une variable discrète par une loi normale qui
est associée à une variable continue :
Pour une loi discrète, les probabilités sont concentrées en des points isolés, alors qu’une loi
continue affecte une probabilité nulle à tout point isolé.
Par exemple pour X → B(100, 0.4), comment peut-on approximer lP(X = 50) par la loi normale ?
(L’approximation par une loi normale est justifiée). Pour surmenter cette difficulté, on utilise ce
qu’on appelle la correction de continuité qui consiste à associer à toute valeur entière k d’une
variable discrète X (binomiale ou de Poisson), l’intervalle [k − 0.5, k + 0.5] pour approximer
lP(X = k) avec la loi normale. On pose donc :

lP(X = k) ≃ lP(k − 0.5 6 X 6 k + 0.5)

De même, pour tout événement associé à une variable discrète X (binomiale ou Poisson), on
associe un événement avec une correction de continuité de la façon suivante :

Événement associé à X Événement avec correction de continuité


(X = k) (k − 0.5 6 X 6 k + 0.5)
(X > k) (X > k − 0.5)
(X > k) (X > k + 0.5)
(X 6 k) (X 6 k + 0.5)
(X < k) (X 6 k − 0.5)

Exemple 3.6.1
On considère 4500 répétitions indépendantes d’une épreuve de Bernoulli de paramètre p = 16 .
Soit X la variable aléatoire qui compte le nombre de succès.
1) Quelle est la loi de probabilité de X ?
2) Calculer les probabilités suivantes :
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 56

- lP(X = 800)
- lP(700 6 X 6 800),
- lP(700 < X < 800).

Exemple 3.6.2
1) On suppose que la probabilité qu’un composant électronique réussisse un test de performance
est égale à 0.9 . On choisit 200 composants au hasard. Quelle est la probabilité que :
- Au moins 190 composants réussissent le test.
- Entre 175 et 190 composants réussissent le test.
- Exactement 185 composants réussissent le test.

2) Une clinique traite en moyenne deux urgences par jour.


Quelle est la probabilité pour que la clinique traite moins de 70 urgences par mois ?

c) Approximation de la loi d’une somme de variables aléatoires


Proposition 3.6.3
Soient X1 , X2 , . . . , Xn , n variables aléatoires indépendantes, de même loi de probabilité, donc de
même espérance m et de même variance σ 2 .

n
On considère la variable aléatoire Sn = Xi . Alors :
i=1
Pour n assez grand (n > 30), la variable aléatoire Sn suit approximativement la loi normale

N (nm, nσ).

Exemple 3.6.3
L’erreur commise chaque jour par un caissier varie entre 0 et 20 dh suivant une loi uniforme.

Quelle est la probabilité que l’erreur commise au bout de 300 jours soit supérieure à 3000 dh ?

3.7 Loi conjointe d’un couple de variables aléatoires


Définition 3.7.1
Soient X et Y deux variables aléatoires continues définies sur le même espace probabilisé.
On appelle fonction de répartition du couple aléatoire (X, Y ), la fonction, notée F(X,Y ) , définie
de R2 vers [0, 1] par :

∀ (x, y) ∈ R2 , F(X,Y ) (x, y) = lP ((X 6 x) ∩ (Y 6 y))

Définition 3.7.2
Soit (X, Y ) un couple aléatoire continue et soit F(X,Y ) sa fonction de répartition.
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 57

On appelle fonction densité conjointe du couple (X, Y ), la fonction, notée f(X,Y ) , définie par :
∂ 2F
∀ (x, y) ∈ R2 , f(X,Y ) (x, y) = (x, y)
∂x∂y
Définition 3.7.3
Soit (X, Y ) un couple aléatoire continue et soit f(X,Y ) sa fonction densité conjointe.
On peut définir la fonction de répartition F(X,Y ) du couple (X, Y ) à partir de la fonction densité
par : ∫ ∫
y x
∀ (x, y) ∈ R , F(X,Y ) (x, y) =
2
f(X,Y ) (u, v)dudv
−∞ −∞

Propriétés caractéristiques :
Soit (X, Y ) un couple de variables aléatoires continues.
– La fonction densité f(X,Y ) doit vérifier :

(1) f(X,Y ) (x, y) > 0 ∀(x, y) ∈ R2 ,


∫ +∞ ∫ +∞
(2) f(X,Y ) (x, y)dxdy = 1.
−∞ −∞
Toute fonction vérifiant ces propriétés peut être considérée comme la fonction densité de pro-
babilité d’un couple aléatoire.
– La fonction de répartition F(X,Y ) doit vérifier :

(1) F(X,Y ) est croissante par rapport à chacune des variables

(2) lim F(X,Y ) (x, y) = 0


(x,y)→(−∞,−∞)

(3) lim F(X,Y ) (x, y) = 1


(x,y)→(+∞,+∞)

(4) F(X,Y ) est continue sur R2

Toute fonction vérifiant ces propriétés est une fonction de répartition d’un couple aléatoire.
Remarque 3.7.1
On peut effectuer les calculs des probabilités, pour un couple aléatoire, soit à l’aide de la fonction
de répartition soit à l’aide de la fonction de densité. On a :
∫ b∫ d
lP(a < X 6 b et c < Y 6 d) = f(X,Y ) (u, v)dudv
a c

lP(a < X 6 b et c < Y 6 d) = (F(X,Y ) (b, d) − F(X,Y ) (a, d)) − (F(X,Y ) (b, c) − F(X,Y ) (a, c))
Définition 3.7.4
Soit (X, Y ) un couple aléatoire continue et soit f(X,Y ) sa fonction densité conjointe. Les fonctions
densités marginales de X et de Y , notées respectivement fX et fY , sont définies par :
∫ +∞
fX (x) = f(X,Y ) (x, y)dy
−∞
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 58

∫ +∞
fY (y) = f(X,Y ) (x, y)dx
−∞

Proposition 3.7.1
Deux variables aléatoires continues X et Y sont indépendantes si et seulement si

∀ (x, y) ∈ R2 , f(X,Y ) (x, y) = fX (x) × fY (y)

Exemple 3.7.1
Soit (X, Y ) un couple de variables aléatoires continues dont la fonction densité de probabilité est
donnée par : 
 1 si (x, y) ∈ [0, 1] × [0, 1]
f(X,Y ) (x, y) =
 0 sinon

Calculer les probabilités suivantes :

1. lP((X 6 0.3) ∩ (0.1 < Y < 0.8))

2. lP((X, Y ) ∈ D) avec D = {(x, y) ∈ R2 |x > 0, y > 0 et x + y < 1}

Exemple 3.7.2
Soit (X, Y ) un couple de variables aléatoires continues dont la fonction densité de probabilité est
donnée par : 
 kye−x si x > 0 et 0 < y < 1
f(X,Y ) (x, y) =
 0 sinon
1. Déterminer la valeur de k.

2. Déterminer les densités marginales de X et de Y .

3. Les variables X et Y sont-elles indépendantes ?


Exemple 3.7.3
Soit (X, Y ) un couple de variables aléatoires continues dont la fonction densité de probabilité est
donnée par : 
 kxy 2 si 0 < x < y < 1
f(X,Y ) (x, y) =
 0 sinon
1. Déterminer la valeur de k.

2. Déterminer les densités marginales de X et de Y .

3. Les variables X et Y sont-elles indépendantes ?

Vous aimerez peut-être aussi