Académique Documents
Professionnel Documents
Culture Documents
COURS DE PROBABILITES
Abdelhak FAHSI
1
TABLE DES MATIÈRES 2
Dans la première partie de ce cours, on a introduit les méthodes statistiques nécessaires pour
décrire et analyser un ensemble de données. Pour pouvoir utiliser ces informations et essayer de
les généraliser à toute une population, on aura besoin d’autres outils mathématiques. Ces outils
sont basés sur la théorie des probabilités qui est une branche des mathématiques fondamentale
à l’étude de tous les phénomènes aléatoires pour lesquels il existe des éléments d’incertitude.
Historiquement, le calcul des probabilités concernait principalement l’étude et la modélisation des
jeux de hasard. La probabilité est définie comme étant le nombre de cas favorables sur le nombre
de cas possibles et la solution fait souvent appel au dénombrement. Cependant l’avènement
des probabilités comme discipline mathématique est relativement récent. C’est à la suite des
travavaux de Pascal, Fermat, Huygens, Bernoulli que Laplace, Poisson, Gauss et d’autres auteurs
ont formalisé la théorie des probabilités ce qui a permi l’extension de son usage à différentes
disciplines.
Le but principal de cette partie est de se familiariser avec le raisonnement probabiliste.
3
Chapitre 1
Exemple 1.1.1
– Lancer un dé non truqué dont les faces sont numérotées de 1 à 6.
– Choisir un individu au hasard dans une population et s’intéresser à son groupe sanguin.
– Lancer une flèche sur un disque de rayon R et noter la distance du point d’impact au centre.
4
CHAPITRE 1. CALCUL DES PROBABILITÉS 5
Remarque 1.1.1
L’ensemble fondamental associé à une épreuve aléatoire peut être fini ou infini dénombrable ou
non dénombrable.
Evénements remarquables
Définition 1.1.4
On appelle événement élémentaire tout événement constitué d’un seul élément ω ∈ Ω. On le
note {ω}.
Définition 1.1.5
On appelle événement impossible, l’événement qui ne peut pas être réalisé, quelle que soit l’issue
de l’épreuve aléatoire. On le note ∅
Définition 1.1.6
On appelle événement certain, l’événement qui est réalisé quelle que soit l’issue de l’épreuve.
On le note Ω
CHAPITRE 1. CALCUL DES PROBABILITÉS 6
Définition 1.1.7
On appelle événement contraire d’un événement A, l’événement qui est réalisé si et seulement
si A n’est pas réalisé. On le note A
Définition 1.1.8
On appelle intersection de deux événements A et B, l’événement qui est réalisé si et seulement
si A et B sont réalisés simultanément. On le note A ∩ B.
On peut généraliser cette définition à n événements.
Définition 1.1.9
On appelle union de deux événements A et B, l’événement qui est réalisé si et seulement si l’un
au moins des événements A ou B est réalisé. On le note A ∪ B.
On peut généraliser cette définition à n événements.
Définition 1.1.10
On dit que l’événement A implique l’événement B si et seulement si la réalisation de A entraîne
la réalisation de B. On note : A ⊂ B
Définition 1.1.11
Deux événements A et B sont dits incompatibles si et seulement si, ils ne peuvent pas être
réalisés simultanément. On note : A ∩ B = ∅
Remarque 1.1.3
– Deux événements contraires A et A sont incompatibles. De plus, leur union est égale à Ω.
– Deux événements incompatibles ne sont pas nécessairement contraires.
Définition 1.1.12
On dit que l’ensemble des événements {A1 , A2 , . . . , An } forme un système complet d’événe-
ments de Ω si et seulement si :
– Ils sont deux à deux incompatibles : ∀ i ̸= j, A i ∩ Aj = ∅
– Leur union est l’événement certain : A1 ∪ A2 ∪ . . . ∪ An = Ω
On dit aussi que l’ensemble des parties {A1 , A2 , . . . , An } forme une partition de Ω.
Exemple 1.1.4
Deux événements contraires A et A} forment un système complet de Ω.
Remarque 1.1.4
On vient de définir une correspondance entre le langage des événements (language probabiliste)
et le langage des ensembles (langage ensembliste).
Ainsi, on établit pour les événements des propriétés analogues à celles connues sur les ensembles.
CHAPITRE 1. CALCUL DES PROBABILITÉS 7
Propriétés
Si A, B et C sont des événements de Ω, alors on a :
– A=A
– ∅=Ω et Ω=∅
– A∩A=∅ et A∪A=Ω
– A∩A=A et A∪A=A
– A∩Ω=A et A∪∅=A
– A∩∅=∅ et A∪Ω=Ω
– A∩B =B∩A et A∪B =B∪A
– A ∩ (B ∩ C) = (A ∩ B) ∩ C et A ∪ (B ∪ C) = (A ∪ B) ∪ C
– A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
– A∩B =A∪B et A∪B =A∩B (Lois de Morgan)
Si Ω est fini, le nombre d’éléments distincts d’un événement A, noté Card(A), est appelé cardinal
de A. On a alors les propriètés suivantes :
– Card(A) = Card(Ω) − Card(A)
– Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)
– Card(E(Ω)) = Card(P(Ω)) = 2Card(Ω)
(i) lP(Ω) = 1
Remarque 1.2.1
– Il s’agit donc d’associer à chaque événement A ∈ E(Ω) un nombre réel positif compris entre 0
et 1, noté lP(A), qui mesure la chance qu’à l’événement A pour se réaliser.
– lP(A) est appelé probabilité de l’événement A.
CHAPITRE 1. CALCUL DES PROBABILITÉS 8
Propriétés
Soit (Ω, E(Ω), lP) un espace probabilisé. On a :
– lP(A) = 1 − lP(A)
– Si A ⊂ B alors lP(A) 6 lP(B)
∪
n ∑
n
– Si A1 , A2 , . . . , An sont n événements deux à deux incompatibles alors lP( Ak ) = lP(Ak )
k=1 k=1
– Si A et B sont deux événements quelconques, alors lP(A ∪ B) = lP(A) + lP(B) − lP(A ∩ B)
Proposition 1.2.1
Soit (Ω, E(Ω), lP) un espace probabilisé.
Si Ω = {ω1 , ω2 , . . . , ωk , . . .} est un univers dénombrable (fini ou infini). Alors la probabilité lP est
complètement définie par la donnée des probabilités lP({ωi }) des événements élémentaires. On a
alors :
∑
∀ A ∈ E(Ω), lP(A) = lP({ωi })
ωi ∈A
Exemple 1.2.1
On lance un dé équilibré. Soit l’événement A = "obtenir un point pair".
3
On a : lP(A) = lP({2, 4, 6}) = = 0.5
6
Exercice 1.1
On lance deux dés équilibrés, un noir et un blanc. Calculer la probabilité des événements suivants :
I = "obtenir au moins un point impair"
E = "les deux dés ont le même numéro".
N = "le numéro le plus élevé apparaît sur le dé noir"
B = "le numéro le plus élevé apparaît sur le dé blanc"
CHAPITRE 1. CALCUL DES PROBABILITÉS 9
Exercice 1.2
Dans une urne contenant 9 boules numérotées de 1 à 9 et 26 boules numérotées de A à Z, on tire
au hasard 6 boules pour former un mot de passe.
Quelle est la probabilité d’obtenir un mot de passe contenant autant de chiffres que de lettres ?
Remarque 1.2.3
Dans beaucoup de problèmes de calcul des probabilités, l’énoncé suggère qu’on a une probabi-
lité uniforme (Ω fini et équiprobabilité). Ainsi, nous serons souvent confrontés aux problèmes de
dénombrement des cas favorables et des cas possibles.
D’où la nécessité de définir des méthodes de dénombrement dans les différentes situations pos-
sibles.
C’est ce que nous allons voir dans le dernier paragraphe de ce chapitre.
Un étudiant est choisi au hasard. Soit l’événement B = "l’étudiant choisi a validé le module".
57
On a lP(B) = .
96
On suppose maintenant qu’on sait que l’étudiant choisi est un garçon (événement A). Que devient
la probabilité de l’événement B ?
CHAPITRE 1. CALCUL DES PROBABILITÉS 10
21
On a lP(B sachant A) = ̸= lP(B)
42
Ainsi, le fait de savoir que l’événement A est réalisé a changé la probabilité de réalisation de
l’événement B.
On constate que :
lP(A ∩ B)
lP(B sachant A) =
lP(A)
– lP(Ω|A) = 1
– lP(B|A) = 1 − lP(B|A)
– si B1 et B2 sont incompatibles alors lP((B1 ∪ B2 )|A) = lP(B1 |A) + lP(B2 |A)
– si B1 et B2 sont quelconques alors lP((B1 ∪ B2 )|A) = lP(B1 |A) + lP(B2 |A) − lP((B1 ∩ B2 )|A)
– ...
Cette formule, appelée formule des probabilités composées, permet de calculer la probabilité
conjointe de deux événements à partir des probabilités conditionnelles.
On peut la généraliser à n événements A1 , A2 , . . . , An :
Exemple 1.3.5
Dans une urne contenant 3 boules blanches et 2 boules noires, on tire au hasard, successivement
et sans remise 2 boules. Quelle est la probabilité que les deux boules tirées soient noires ?
Exemple 1.3.6
Dans une urne contenant 6 boules noires et 4 boules blanches, on tire au hasard, successivement
et sans remise 3 boules. Quelle est la probabilité de tirer 3 boules noires ?
Cette formule, appelée formule des probabilités totales, permet de calculer la probabilité
marginale d’un événement à partir des probabilités conditionnelles ou composées.
On peut la généraliser à n événements :
Si {A1 , A2 , . . . , An } est un système complet d’événements tel que lP(Ai ) ̸= 0. Alors, pour tout
événement B de E(Ω), on a :
∑
n ∑
n
lP(B) = lP(B ∩ Ai ) = lP(B|Ai ) × lP(Ai )
i=1 i=1
Exemple 1.3.7
On considère un groupe formé de 40 hommes et 60 femmes. Dans ce groupe, 50% des hommes
sont fumeurs et 30% des femmes sont fumeuses. On choisit un individu au hasard.
Quelle est la probabilité qu’il soit un fumeur ?
Quelle est la probabilité qu’il soit un homme, sachant qu’il est fumeur ?
3) Formule de Bayes
Proposition 1.3.4
Soit (Ω, E(Ω), lP) un espace probabilisé. Soient A et B deux événements de E(Ω).
La formule de Bayes permet, à partir de la probabilité conditionnelle lP(B|A), de calculer la
probabilité conditionnelle inverse lP(A|B) :
lP(B|A) × P(A)
lP(A|B) =
P(B)
Exemple 1.3.8
Trois machines M1 , M2 et M3 de fabrication mécanique produisent respectivement 25%, 35% et
40% de la production totale.
5% (respectivement 4% et 3%) des pièces produites par M1 (respectivement par M2 et M3 ) sont
défectueuses.
On choisi une pièce au hasard. Si la pièce choisie est défectueuse, quelle est la probabilité qu’elle
soit fabriquée par M1 ?
Corollaire 1.3.1
Deux événements A et B sont dits indépendants si et seulement si lP(A ∩ B) = lP(A) × lP(B)
Exemple 1.3.9
On lance un dé deux fois. Soit les événements :
A = “obtenir un point pair au premier lancer"
B = “obtenir le point 1 ou 4 au deuxième lancer"
Les événements A et B sont-ils indépendants ?
Exemple 1.3.10
On lance une pièce de monnaie n fois. On considère les événements suivants :
A = “obtenir au plus une fois pile” ;
B = “obtenir au moins une fois pile et au moins une fois face”.
Les événements A et B sont-ils indépendants ?
Remarque 1.3.1
– Il ne faut pas confondre événements indépendants et événements incompatibles.
– Dans une suite de tirages successifs avec remise, les tirages sont indépendants.
– Dans une suite de tirages successifs sans remise, les tirages ne sont pas indépendants.
– Si les événements A et B sont indépendants, il en est de même pour les événements A et B,
A et B, A et B.
Exemple 1.3.11
On effectue une suite de tirages dans une urne qui contient n boules dont r boules rouges. Quelle
est la probabilité pour que la première boule rouge apparaisse au troisième tirage ?
On considère les événements suivants :
Ri = "la ième boule tirée est rouge"
A = "la première boule rouge apparaisse au troisième tirage".
On a lP(A) = lP(R1 ∩ R2 ∩ R3 ) = lP(R3 /R1 ∩ R2 ) × lP(R2 /R1 ) × lP(R1 )
On distingue deux cas suivant le type de tirages effectués (avec ou sans remise) :
r r
– 1er cas : Tirages avec remise : lP(A) = lP(R3 ) × lP(R2 ) × lP(R1 ) = (1 − )2
r r r n n
– 2ème cas : Tirages sans remise : lP(A) = (1 − )(1 − )
n−2 n−1 n
Généralisation à n evénements
Définition 1.3.3
n événements A1 , A2 , . . . , An d’un même espace probabilisé sont dits indépendants dans leurs
ensemble si et seulement si pour toute famille de p (p > 2) événements Ai1 , Ai2 , . . . , Aip choisis
CHAPITRE 1. CALCUL DES PROBABILITÉS 14
Remarque 1.3.2
n événements A1 , A2 , . . . , An peuvent être indépendants deux à deux sans être indépendants
dans leurs ensemble.
Exemple 1.3.12
On jette deux dés et on considère les événements suivants :
A1 = "obtenir un point pair par le 1er dé"
A2 = "obtenir un point pair par le 2ème dé"
A3 = "la somme des points obtenus par les deux dés est paire"
1.4 Dénombrement
Dans beaucoup de problèmes de calcul des probabilités, l’énoncé suggère qu’on peut appliquer
la formule de probabilité uniforme (il suffit de vérifier que Ω est fini et qu’on a équiprobabilité).
Ainsi, pour calculer la probabilité d’un événement A, on peut utiliser la formule :
Le but de ce dernier paragraphe est de rappeler les principales méthodes de dénombrement des
cas favorables et des cas possibles dans différentes situations pratiques.
Propriétés
– Soit A ⊂ Ω. On a :
Card(A) = Card(Ω) − Card(A)
– Soient A et B deux ensembles finis. Si on peut définir une bijection de A vers B, alors on a :
Card(A) = Card(B)
Exemple 1.4.1
Dans un groupe de 85 étudiants, 62 ont validé le module de Math, 54 ont validé le module de
Physique et 20 n’ont validé aucun module. Combien d’étudiants ont validé les deux modules ?
Soient Ω l’ensemble de tous les étudiants, M l’ensemble des étudiants ayant validé le module de
Math, et P l’ensemble des étudiants ayant validé le module de Physique.
On a : Card(Ω) = 85 ; Card(M ) = 62 ; Card(P ) = 54 et Card(M ∩ P ) = 20.
On cherche Card(M ∩ P ).
On a Card(M ∩ P ) = Card(M ∪ P ) = Card(Ω) − Card(M ) − Card(P ) + Card(M ∩ P ).
D’où Card(M ∩ P ) = Card(M ∩ P ) − Card(Ω) + Card(M ) + Card(P ) = 20 − 85 + 62 + 54 = 51.
Donc, 51 étudiants ont validé les deux modules.
Remarque 1.4.1
On peut utiliser un tableau de contingence pour effectuer ces calculs plus simplement.
a) Principe de multiplication
Proposition 1.4.1
Si la réalisation d’un événement A se fait en k étapes successives (l’une après l’autre) présentant
respectivement n1 , n2 , . . . , nk possibilités, alors le nombre total de possibilités pour réaliser A est
égale au produit : n1 × n2 × . . . × nk .
Exemple 1.4.2
1. Combien peut-on former de codes comportant deux lettres de l’alphabet suivies de trois
chiffres non nuls (événement A) ?
CHAPITRE 1. CALCUL DES PROBABILITÉS 16
Les cinq étapes successives pour former un code appartenant à A, présentent respectivement
26, 26, 9, 9 et 9 possibilités. Donc le nombre de codes possibles est :
2. Combien peut-on former de codes comportant deux lettres distinctes suivies de trois chiffres
non nuls distincts (événement B) ?
Les cinq étapes successives pour former un code qui appartient à B, présentent respective-
ment 26, 25, 9, 8 et 7 possibilités. Donc le nombre de codes possibles est :
Card(B) = 26 × 25 × 9 × 8 × 7 = 327600
Exemple 1.4.3
Un restaurant propose 4 choix pour l’entrée, 3 choix pour le plat principal, 4 choix pour le dessert
et 6 choix pour la boisson. De combien de façons peut-on composer un repas (événement A) ?
Les 4 étapes successives pour choisir un repas présentent respectivement 4, 3, 4 et 6 choix.
Donc le nombre de choix de repas possibles est :
Card(A) = 4 × 3 × 4 × 6 × 7 = 288
b) Principe d’addition
Proposition 1.4.2
Si la réalisation d’un événement A se fait par l’une ou bien l’autre des k manières présentant
respectivement n1 , n2 , . . . , nk possibilités, alors le nombre total de possibilités pour réaliser A est
égale à la somme : n1 + n2 + . . . + nk .
Exemple 1.4.4
Combien peut-on former de codes avec cinq caractères : des lettres suivies des chiffres non nuls,
avec au moins un caractère de chaque type (événement A) ?
On peut réaliser A par l’une ou bien l’autre des 4 manières suivantes :
- Codes comportant 1 lettre suivie de 4 chiffres non nuls (événement A1 )
- Codes comportant 2 lettres suivies de 3 chiffres non nuls (événement A2 )
- Codes comportant 3 lettres suivies de 2 chiffres non nuls (événement A3 )
- Codes comportant 4 lettres suivies de 1 chiffre non nuls (événement A4 )
Donc, d’après le principe d’addition, le nombre de codes possibles est :
∑
4
Card(A) = Card(Ai )
i=1
CHAPITRE 1. CALCUL DES PROBABILITÉS 17
Exemple 1.4.5
1) Combien peut-on former de codes comportant 2 lettres et 3 chiffres non nuls (événement Ω) ?
2) On choisit un code au hasard dans Ω. Quelle est la probabilité qu’il soit un code formé de
deux lettres suivies de trois chiffres non nuls (événement A2 ) ?
On a C52 manières différentes pour réaliser Ω. Chacune présente 262 × 93 possibilités.
Donc, d’après le principe d’addition, le nombre de codes possibles est :
On a
Card(A2 ) = 262 × 93
D’où
1
lP(A2 ) =
C52
Remarque 1.4.2
On peut utiliser un diagramme en arbre pour décrire visuellement la succession des étapes d’une
ou de plusieurs expériences.
Soit E un ensemble de n éléments distincts qu’on peut ordonner (E = {e1 < e2 < ... < en }).
Soit p ∈ IN∗ .
On s’intéresse au calcul du nombre de possibilités pour choisir p éléments parmi les n éléments
de E. Pour répondre à cette question, on distingue plusieurs cas :
– Choix de p éléments distincts (événement noté D).
– Choix de p éléments non distincts (événement D).
– Choix de p éléments ordonnés (événement noté C).
– Choix de p éléments non ordonnés (événement C).
– Choix de p éléments avec présence de tous les éléments de E (événement noté S).
CHAPITRE 1. CALCUL DES PROBABILITÉS 18
a) p-listes
Proposition 1.4.3
Le nombre de possibilités pour choisir p éléments quelconques (distincts ou non distincts, or-
donnés ou non ordonnés), parmi les n éléments distincts de E (événement noté Ω) est donné
par :
Card(Ω) = np
Remarque 1.4.3
– Pour les p-listes, on peut considérer p 6 n ou bien p > n.
– On fait appel au dénombrement avec la puissance np lorsque, dans le choix des p éléments, on
tient compte des répétitions (éléments distincts ou non distincts) et on tient compte de l’ordre
(éléments ordonnés ou non ordonnés).
– Par exemple, pour les tirages successifs avec remise, on fait appel au dénombrement avec la
puissance np .
b) Arrangements
Proposition 1.4.4
Le nombre de possibilités pour choisir p éléments distincts (ordonnés ou non ordonnés), parmi
les n éléments distincts de E (événement D) est donné par :
n!
Card(D) = Apn =
(n − p)!
c) Combinaisons
Proposition 1.4.5
Le nombre de possibilités pour choisir p éléments distincts et ordonnés parmi les n éléments de
E (événement D ∩ C) est donné par :
n!
Card(D ∩ C) = Cnp =
p!(n − p)!
Chacune de ces possibilités s’appelle combinaison de p éléments parmi les n éléments de E ou
p-combinaison de E.
Remarque 1.4.5
– On doit avoir p 6 n. Sinon, l’événement D ∩ C est impossible.
n!
– On a Cnp = pour p 6 n. Sinon, on pose Cnp = 0.
p!(n − p)!
– On fait appel au dénombrement avec Cnp lorsqu’on ne tient compte ni de l’ordre ni des répéti-
tions.
– Par exemple, pour les tirages simultanés, on fait appel au dénombrement avec Cnp .
– Par exemple, le nombre de possibilités pour choisir p éléments parmi n, dans un ordre stricte-
ment croissant est égal à Cnp .
p (n + p − 1)!
Card(C) = Cn+p−1 =
p!(n − 1)!
Chacune de ces possibilités s’appelle combinaison avec répétition de p éléments de E ou p-
combinaison avec répétition de E.
Remarque 1.4.6
– Pour les combinaisons avec répétition, on peut choisir p 6 n ou bien p > n.
p
– On fait appel au dénombrement avec les combinaisons avec répétition Cn+p−1 lorsqu’on tient
compte des répétitions et on ne tient pas compte de l’ordre.
– Par exemple, le nombre de possibilités pour choisir p éléments parmi n, dans un ordre croissant
p
au sens large est égal à Cn+p−1 .
Remarque 1.4.7
Les résultats des 4 propositions précédentes peuvent être résumés dans le tableau suivant :
CHAPITRE 1. CALCUL DES PROBABILITÉS 20
Remarque 1.4.8
– Lorsqu’on dit on tient compte des répétitions, cela veut dire qu’on considère les choix possibles
distincts ou non distincts.
– Lorsqu’on dit on ne tient pas compte des répétitions, cela veut dire qu’on considère les choix
possibles distincts.
– Lorsqu’on dit on tient compte de l’ordre, cela veut dire qu’on considère les choix possibles avec
ou sans classement.
– Lorsqu’on dit on ne tient pas compte de l’ordre, cela veut dire qu’on considère les choix possibles
avec classement.
Exemple 1.4.7
– Dans une urne qui contient 10 boules numérotées de 0 à 9, on tire successivement et avec
remise 4 boules. Calculer le nombre de choix possibles.
CHAPITRE 1. CALCUL DES PROBABILITÉS 21
n!
Pn (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . n k !
Exemple 1.4.9
– Combien de mots de 9 lettres peut-on former avec les 9 lettres du mot EVENEMENT ?
– Un enfant joue avec 2 jetons rouges identiques, 3 jetons blancs identiques et 4 jetons noirs
identiques. De combien de façons différentes peut-il aligner ces 9 jetons ?
– On dispose de 4 livres de math, 3 livres de physique et 5 livres de chimie.
De combien de façons peut-on les arranger si tous les livres sont distinguables ?
De combien de façons peut-on les arranger si les livres de chaque spécialité sont identiques ?
Chapitre 2
Le but de ce chapitre et du chapitre suivant est d’introduire des outils de calcul des probabilités
avec les variables aléatoires (lois de probabilité).
Une variable aléatoire consiste à associer un nombre réel à chaque résultat d’une expérience
aléatoire.
2.1 Définition
Définition 2.1.1
Soit (Ω, E(Ω), lP) un espace probabilisé.
On appelle variable aléatoire sur Ω toute application X : Ω → IR définie sur l’ensemble fonda-
mental Ω et à valeurs dans IR.
A tout événement élémentaire ω ∈ Ω, l’application X associe une valeur numérique réelle X(ω).
Les variables aléatoires sont notées par les dernières lettres de l’alphabet en majuscules, X, Y ,
Z, ..., pour les distinguer des valeurs réelles qu’elles peuvent prendre, généralement notées en
minuscules.
Exemple 2.1.1
On jette deux dés.
Si à chaque élément (i, j) ∈ Ω, on associe la somme i + j, on définit une application :
X : Ω → IR
(i, j) → i + j
X est donc une variable aléatoire sur Ω.
L’ensemble des valeurs possibles prises par X, noté X(Ω), est donné par :
23
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 24
Remarque 2.1.1
Comme pour les variables statistiques, on distingue deux types de variables aléatoires : les va-
riables aléatoires discrètes et les variables aléatoires continues.
– Une variable aléatoire X est dite discrète si elle ne peut prendre que des valeurs isolées (X(Ω)
fini ou X(Ω) infini dénombrable).
– Une variable aléatoire X est dite continue si elle peut prendre une infinité non dénombrable
de valeurs (X(Ω) est un intervalle de IR ou une réunion d’intervalles de IR).
La suite de ce chapitre sera consacrée à l’étude des variables aléatoires discrètes.
Remarque 2.1.2
Soit X une variable aléatoire discrète. On note alors X(Ω) = {x1 , x2 , ..., xi , ...} l’ensemble des
valeurs possibles de X.
– Soit xi ∈ X(Ω). L’ensemble {ω ∈ Ω/X(ω) = xi } est un événement de Ω. On le note (X = xi ).
– Si X(Ω) est fini de cardinal n, les événements (X = xi )16i6n forment un système complet
d’événements.
– Soit I ⊂ IR. L’ensemble {ω ∈ Ω/X(ω) ∈ I} est un événement de Ω. On le note (X ∈ I).
– On utilise aussi les notations : (X 6 a), (X > a), (a < X 6 b), ...
Exemple 2.1.2
– On lance 3 fois une pièce de monnaie. Soit X = nombre de piles obtenues. Calculer lP(X = 1).
– On jette deux dés. Soit Y = la somme des points obtenus. Calculer lP(Y 6 4).
∀ x ∈ R, FX (x) = lP(X 6 x)
Propriétés caractéristiques
Soit X une variable aléatoire discrète.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 25
(2) FX (x) = 1 pour x > max(xi ) (ou lim FX (x) = 1 si X(Ω) infini),
x→+∞
xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
fX (xi ) 36 36 36 36 36 36 36 36 36 36 36
1 3 6 10 15 21 26 30 33 35
FX (xi ) 36 36 36 36 36 36 36 36 36 36
1
Généralement, pour une variable aléatoire discrète finie, on représente la loi de probabilité et la
fonction de répartition sous forme d’un tableau (comme pour une variable statistique).
Graphiquement, la loi de probabilité d’une variable aléatoire discrète finie est représentée par un
diagramme en bâtons et la fonction de répartition est représentée par un diagramme en escaliers.
Remarque 2.2.2
Pour définir la loi de probabilité fX d’une variable aléatoire discrète X, il suffit de déterminer
∑
lP(X = xi ), ∀ xi ∈ X(Ω). On a : fX (xi ) = lP(X = xi ) = lP({ω}),
ω∈(X=xi )
On peut alors en déduire la fonction de répartition FX :
∑
FX (x) = lP(X 6 x) = lP(X = xi )
xi 6x
Propriétés
Soit X une variable aléatoire discrète et soient a et b deux nombres réels. On a :
– lP(X 6 a) = FX (a),
– lP(X > a) = 1 − FX (a),
– lP(a < X 6 b) = FX (b) − FX (a),
– ∀ a∈
/ X(Ω), lP(X = a) = 0
a) Espérance mathématique
Définition 2.3.1
Soit (Ω, E(Ω), lP) un espace probabilisé et soit X une variable aléatoire discrète sur Ω. On appelle
espérance mathématique de X, appelée aussi moyenne de X, le nombre réel (si il existe), noté
E(X), défini par :
∑
E(X) = xi × lP(X = xi )
xi ∈X(Ω)
Remarque 2.3.1
– Si X(Ω) est fini, E(X) existe toujours (calcul d’une somme finie).
On peut remarquer la similitude des définitions de l’espérance mathématique et de la moyenne
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 27
arithmétique d’une variable statistique discrète (les fréquences sont remplacées par les proba-
bilités).
– Si X(Ω) est infini, E(X) existe sous réserve de convergence de la série numérique associée.
b) Variance - écart-type
Définition 2.3.2
Soit (Ω, E(Ω), lP) un espace probabilisé et soit X une variable aléatoire discrète sur Ω. On appelle
variance de X le nombre réel positif (si il existe), noté V (X), défini par :
( ) ( )
V (X) = E (X − E(X))2 = E X 2 − (E(X))2
ou la formule simplifiée :
∑
V (X) = x2i lP(X = xi ) − (E(X))2
xi ∈X(Ω)
Exemple 2.3.1
On lance un dé et on suppose que : on gagne 10 dh si on obtient la face numéro 1, on gagne 5
dh si on obtient la face 2 ou 3, on gagne 2 dh si on obtient la face 4 et on perd 5 dh si on obtient
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 28
la face 5 ou 6.
Calculer l’espérance et la variance du gain.
Soit X la variable aléatoire qui représente le gain. On a :
xi -5 2 5 10 Total
lP(X = xi ) 1/3 1/6 1/3 1/6 1
xi × lP(X = xi ) -5/3 2/6 5/3 10/6 2
x2i × lP(X = xi ) 25/3 4/6 25/3 100/6 34
D’où l’espérance mathématique du gain est E(X) = 2 dh et la variance est V (X) = 34 − 4 = 30.
Propriétés
Soient X et Y deux variables aléatoires définies sur un même espace probabilisé et a et b deux
nombres réels, on a :
– E(aX + b) = aE(X) + b
– V (aX + b) = a2 V (X)
– E(X + Y ) = E(X) + E(Y )
– Si X et Y sont indépendantes alors :
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y )
On suppose que l’expérience aléatoire possède N issues distinctes, possédant chacune la même
chance d’être réalisée (équiprobabilité).
On définit alors dans ce contexte une variable aléatoire X qui prend toutes les valeurs entières
comprises entre 1 et N (chacune de ces valeurs étant associée à l’une des N issues de l’épreuve
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 29
aléatoire).
La loi de probabilité de cette variable aléatoire est appelée loi uniforme sur {1, 2, . . . , N }.
Définition 2.4.1
On dit qu’une variable aléatoire discrète X suit une loi uniforme ssi
X(Ω) = {1, 2 . . . , N }
1
∀ k ∈ X(Ω) lP(X = k) =
N
On note X → U(N ).
Proposition 2.4.1
Si X est une variable aléatoire discrète qui suit une loi uniforme U(N ), alors on a :
N +1 N2 − 1
E(X) = et V (X) =
2 12
Loi de Bernoulli
Définition 2.4.2
On appelle épreuve de Bernoulli de paramètre p toute épreuve aléatoire n’ayant que deux résultats
possibles :
– un résultat priviligié, noté S et appelé succès, avec la probabilité p,
– un résultat alternatif, noté S appelé échec, avec la probabilité q = 1 − p.
Il s’agit d’une situation extrêmement fréquente puisque dès qu’on cherche à mettre en évidence
un résultat priviligié, noté S, tout résultat de l’épreuve aléatoire peut être décrit selon une telle
alternative : ou bien on a le résultat S, ou bien on a le contraire de S, noté S.
Exemple 2.4.1
- On lance deux pièces de monnaie et on considère S = "obtenir 2 piles".
- On lance un dé et on considère S = "obtenir la face n˚5".
Définition 2.4.3
Soit X la variable aléatoire désignant le nombre de succès obtenus suite à une épreuve de Bernoulli
de paramètre p. X est appelée variable aléatoire de Bernoulli et la loi de probabilité de X est
appelée loi de Bernoulli de paramètre p.
On note X → B(1, p).
Proposition 2.4.2
Si X est une variable aléatoire qui suit une loi de Bernoulli de paramètre p alors on a :
X(Ω) = {0, 1}
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 30
E(X) = p et V (X) = pq
Remarque 2.4.1
Le modèle de Bernoulli est le plus simple des modèles probabilistes, cependant il est fondamental.
Ceci est dû au fait que beaucoup de situations aléatoires peuvent se décomposer en successions
(répétitions) d’épreuves de Bernoulli.
On distingue les cas suivants :
– Répétitions en nombre fixe et avec indépendance ⇒ loi binomiale,
– Répétitions en nombre fixe et sans indépendance ⇒ loi hypergéométrique,
– Répétitions en nombre aléatoire et avec indépendance jusqu’à ce que l’on obtient le premier
succès ⇒ loi géométrique,
– Répétitions en nombre aléatoire et avec indépendance, jusqu’à ce que l’on obtient les r premiers
succès ⇒ loi binomiale négative.
X(Ω) = {0, 1, . . . , n}
avec q = 1 − p.
Proposition 2.4.4
Soit X une variable qui suit une loi binomiale de paramètres n et p. Alors on a :
Exercice 2.1
∑
n
Montrer la formule du binôme de Newton : Cnk N1k N2n−k = (N1 + N2 )n
k=0
Propriétés
– Si X → B(n, p) et si Y = n − X, alors Y → B(n, q) (Y représente le nombre des échecs).
– Si X et Y sont deux variables aléatoires indépendantes et si X → B(n1 , p) et Y → B(n2 , p),
alors la somme S = X + Y suit une loi binomiale B(n1 + n2 , p)
– Pour les grandes valeurs de n, les calculs de la loi binomiale deviennent très difficiles. On peut,
sous certaines conditions, utiliser des approximations par d’autres lois usuelles (voir plus loin).
– Si X → B(n, p), on peut utiliser la formule de récurrence suivante :
lP(X = k + 1) = lP(X = k) × (n − k)p
(k + 1)q
lP(X = 0) = q n
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 32
Proposition 2.4.5
Une variable aléatoire X suit une loi hypergéométrique de paramètres N , N1 et n si et seulement
si :
X(Ω) = {sup(0, n − N2 ), . . . , inf (n, N1 )}
CNk 1 CNn−k
∀ k ∈ X(Ω), lP(X = k) = 2
CNn
avec N2 = N − N1
Proposition 2.4.6
Soit X une variable aléatoire qui suit une loi hypergéométrique de paramètres N , N1 et n. Alors
on a :
N −n
E(X) = np et V (X) = npq
N −1
avec p = N1
N
et q = 1 − p
Remarque 2.4.3
Reconnaissance de la loi H(N, N1 , n) ?
On reconnait qu’une variable aléatoire X suit une loi hypergéométrique de paramètres N , N1 et
n si on a les conditions suivantes :
- Le nombre de répétitions d’épreuves de Bernoulli est connu à l’avance (n répétitions).
- Les répétitions ne sont pas indépendantes.
N1
- La probabilité de succès est la même pour toutes les épreuves (p = N
).
- X représente le nombre de succès obtenus.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 33
Exemple 2.4.4
Un joueur coche une grille de loto : il choisit 6 numéros parmi {1, 2, . . . , 49}.
1) Calculer la probabilité pour obtenir k numéros gagnants,
2) Calculer le nombre moyen de numéros gagnants qu’on peut espérer obtenir en jouant une grille
de loto.
k 0 1 2 3 4 5 6
P (X = k) 0.436 0.413 0.132 0.0177 9, 69.10−4 1, 84.10−5 7, 15.10−8
6
On a E(X) = np = 6 49 ≃ 0.735. Donc en moyenne, on obtient moins d’un numéro gagnant en
jouant une grille de loto.
Exercice 2.2
∑
n
Montrer la formule de VanderMonde : CNk 1 CNn−k
2
n
= C(N1 +N2 )
k=0
Proposition 2.4.7
Soient X et Y deux variables aléatoires indépendantes. X suit une loi binomiale de paramètres
n1 et p, Y suit une loi binomiale de paramètres n2 et p. Alors la loi de probabilité de la somme
S = X + Y est binomiale de paramètres n1 + n2 et p et la loi de probabilité conditionnelle de X
sachant que (S = n) est hypergéométrique de paramètres N = n1 + n2 , N1 = n1 et n.
Remarque 2.4.4
Si N est grand devant n (N > 10n), on peut approximer la loi hypergéométrique H(N, N1 , n)
par la loi binomiale B(n, NN1 ).
Définition 2.4.6
Soit X la variable aléatoire désignant le nombre de répétitions indépendantes d’une épreuve de
Bernoulli de paramètre p jusqu’à l’obtention du premier succès. La loi de probabilité de X est
appelée loi géométrique de paramètre p.
On note X → G(p).
Proposition 2.4.8
Une variable aléatoire X suit une loi géométrique de paramètre p si et seulement si :
X(Ω) = IN∗
X(Ω) = {r, r + 1, . . . , ∞}
Proposition 2.4.11
Si une variable aléatoire X suit une loi binomiale négative de paramètres r et p, alors on a :
r q
E(X) = et V (X) = r 2
p p
Exemple 2.4.5
Une urne contient 5 boules blanches et 10 boules noires. On effectue des titages suuccessifs et
avec remise.
1) Quelle est la probabilité que la première boule blanche soit tirée au 5ième tirage ?
2) Quelle est la probabilité que la 3ème boule blanche soit tirée au 5ième tirage ?
Soit X la variable aléatoire qui représente le nombre de boules tirées jusqu’à l’obtention de la
première boule blanche. On a X → G( 13 ). D’où lP(X = 5) = ( 23 )4 31 = 16
243
.
Soit Y la variable aléatoire qui représente le nombre de boules tirées jusqu’à l’obtention de 3
boules blanches. On a Y → BN (3, 13 ). D’où lP(Y = 5) = C42 ( 13 )3 ( 32 )2 = 8
81
.
Remarque 2.4.6
La loi binomiale, la loi hypergéométrique, la loi géométrique et la loi binomiale négative sont
toutes liées à des modèles aléatoires qui se composent de répétitions d’épreuves de Bernoulli
de même paramètre p. À l’exception de la loi hypergéométrique, les répétitions des épreuves de
Bernoulli sont indépendantes.
E(X) = λ et V (X) = λ
Remarque 2.4.7
Reconnaissance de la loi P(λ) ?
On reconnait qu’une variable aléatoire X suit une loi de Poisson de paramètre λ (λ = µ × T ) si
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 36
Exemple 2.4.6
On admet que le nombre moyen d’appels téléphoniques reçus par un standardiste est égal à 12
appels par heure. Quelle est la probabilité que ce standardiste reçoit au moins 3 appels durant
une période de 10 mn ? (événement A)
Soit X la variable aléatoire qui compte le nombre d’appels reçus pendant la durée T = 10mn =
1
6
h. On a µ = 12 appels/heure. Donc, λ = µ × T = 2 et alors X → P(2). D’où
Propriétés
Si X → P(λ), on peut utiliser la formule de récurrence suivante :
lP(X = k + 1) = lP(X = k) × λ
k
lP(X = 0) = e−λ
Proposition 2.4.13
Soient X1 , X2 , . . . , Xn n variables aléatoires indépendantes qui suivent des lois de Poisson de
paramètres respectifs λ1 , λ2 , . . . , λn . Alors la somme S = X1 + X2 + . . . + Xn suit une loi de
Poisson de paramètre λ = λ1 + λ2 + . . . + λn .
Proposition 2.4.14
Soient X et Y deux variables aléatoires indépendantes qui suivent des lois de Poisson de para-
mètres respectifs λ1 et λ2 . Alors la variable X sachant que (X + Y = n) suit une loi binomiale
λ1
de paramètres n et p = .
λ1 + λ2
Proposition 2.4.15
Soit X une variable aléatoire qui suit une loi de Poisson de paramètre λ. On suppose que l’évé-
nement S du processus de Poisson se décompose en k types S1 , S2 , . . . , Sk et que chaque type se
∑
k
produit avec une probabilité pi avec pi = 1.
i=1
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 37
∑
k
On pose Xi = le nombre de fois que l’événement de type Si se produit avec Xi = X.
i=1
Alors chaque Xi est une variable aléatoire qui suit la loi de Poisson de paramètre λpi et les k
variables X1 , X2 , . . . , Xk sont indépendantes.
Exemple 2.4.7
On suppose qu’en moyenne 10 appels téléphoniques par minute arrivent à un autocommutateur.
Ces appels sont alors acheminés vers 3 serveurs avec des probabilités respectives p1 = 0.2, p2 =
0.3, p3 = 0.5. Quelle est la probabilité que, durant une minute, trois appels soient acheminés vers
le premier serveur ?
Remarque 2.5.2
∑ ∑
– On a : f(X,Y ) (xi , yj ) = 1.
xi ∈X(Ω) yj ∈Y (Ω)
∑∑
– f(X,Y ) (I × J) = lP((X ∈ I) ∩ (Y ∈ J)) = pij
xi ∈I yj ∈J
– Si X(Ω) et Y (Ω) sont finis, la loi du couple (X, Y ) et les lois marginales de X et de Y peuvent
être représentées par un tableau à deux dimensions (tableau de contingence) :
On a :
∑
m
fX (xi ) = lP(X = xi ) = pij
j=1
∑
k
fY (yj ) = lP(Y = yj ) = pij
i=1
∑
k ∑
m ∑
k ∑
m
fX (xi ) = fY (yj ) = pij = 1
i=1 j=1 i=1 j=1
Corollaire 2.5.1
Deux variables aléatoires X et Y sont dites indépendantes si et seulement si
On dit alors que la loi du couple (X, Y ) est égale au produit des lois marginales.
CHAPITRE 2. VARIABLES ALÉATOIRES DISCRÈTES 39
2.5.3 Covariance
Définition 2.5.3
On appelle covariance des variables aléatoires X et Y le nombre réel (si il existe), noté Cov(X, Y ),
défini par :
Cov(X, Y ) = E(XY ) − E(X) × E(Y )
avec
∑ ∑
E(XY ) = xi × yj × f(X,Y ) (xi , yj )
xi ∈X(Ω) yj ∈Y (Ω)
Propriétés :
Soient X et Y deux variables aléatoires et a et b deux nombres réelles. On a :
– Cov(X + a, Y + b) = Cov(X, Y )
– Cov(aX, bY ) = abCov(X, Y )
– E(XY ) = E(X) × E(Y ) + Cov(X, Y )
– V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )
– Si X et Y sont indépendantes alors Cov(X, Y ) = 0. La réciproque est fausse.
Exemple 2.5.1
Dans une urne contenant 4 boules blanches, 8 boules rouges et 6 boules vertes, on tire au hasard
successivement et sans remise 3 boules. Soient X le nombre de boules rouges tirées et Y le nombre
de boules vertes tirées.
1) Déterminer la loi de probabilité conjointe du couple (X, Y ).
2) Calculer Cov(X, Y ). Conclure.
Y 0 1 2 3 Total
X
C43 4 C42 C61 36 C41 C62 60 C63 20 120
0 3 = 816
C18 3
C18
= 816 C183 = 816 3
C18
= 816 816
C81 C42 48 C81 C61 C41 C8 C62
1
1 3
C18
= 816 3
C18
= 192
816 C183 = 120
816
0 360
816
C82 C41 C82 C61
2 3
C18
= 112
816 3
C18
= 168
816
0 0 280
816
C83 56 56
3 3
C18
= 816
0 0 0 816
220 396 180 20
Total 816 816 816 816
1
Exemple 2.5.2
Soit (X, Y ) un couple de variables aléatoires dont la loi de probabilité conjointe est donnée dans
le tableau suivant :
Y 0 1 2
X
1 1
0 0 0
2 2
1 1 1
1 0
4 4 2
1 1 1
1
4 2 4
Calculer Cov(X, Y ). Conclure.
Exercice 2.3
Soient X et Y deux variables aléatoires définies sur un même espace probabilisé, dont la loi de
probabilité conjointe est définie par le tableau suivant :
Y 1 2 3
X
1
1 0 0
2
1 1
2 0
4 4
Calculer la covariance de X et Y . Conclure.
Exercice 2.4
Soient X et Y deux variables aléatoires indépendantes définies sur un même espace probalisé,
dont les lois de probabilité sont données par :
xi 0 1 2 3
lP(xi ) 0.1 0.2 0.3 0.4
yi 1 2 3
P (yi ) 0.25 0.5 0.25
3.1 Définition
Définition 3.1.1
Soit (Ω, E(Ω), lP) un espace probabilisé. On suppose que Ω est infini non dénombrable.
Une variable aléatoire X définie sur Ω est dite continue si et seulement si l’ensemble X(Ω) est
infini non dénombrable (X(Ω) = IR ou X(Ω) est un intervalle de IR).
Exemple 3.1.1
On lance une flèche sur une cible matérialisée par un disque de rayon R.
Soit X, la variable aléatoire qui désigne la distance du point d’impact de la flèche au centre du
disque. On a X(Ω) = [0, R]. Donc, X est une variable aléatoire continue.
Exemple 3.1.2
On suppose que, dans une région, les pannes d’électricité se produisent en moyenne deux fois par
mois. Soit X = le temps qui sépare 2 pannes consécutives. On a X(Ω) = ]0, +∞[.
∀ x ∈ R, FX (x) = lP(X 6 x)
Définition 3.2.2
Soit X une variable aléatoire continue et soit FX sa fonction de répartition.
On appelle fonction densité de probabilité de X, notée fX , la fonction dérivée de FX . C’est donc
41
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 42
′
∀ x ∈ R, fX (x) = FX (x)
Définition 3.2.3
Soit X une variable aléatoire continue et soit fX sa fonction densité de probabilité.
On peut définir la fonction de répartition de X à partir de la fonction densité de probabilité par
la formule suivante : ∫ x
∀ x ∈ R, FX (x) = fX (t)dt
−∞
Propriétés caractéristiques
Soit X une variable aléatoire continue.
– La fonction densité de probabilité fX doit vérifier :
Toute fonction vérifiant ces propriétés peut être considérée comme la fonction de répartition
d’une variable aléatoire continue.
Remarque 3.2.1
Soient X une variable aléatoire continue.
– On peut effectuer les calculs des probabilités pour la variable X, soit en utilisant sa fonction
de répartition FX , soit en utilisant sa fonction densité de probabilité fX . On a :
∫ b
lP(a < X 6 b) = FX (b) − FX (a) = fX (t)dt
a
∀ x ∈ R, lP(X = x) = 0
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 43
– Par conséquent, pour une variable aléatoire continue, les probabilités avec les inégalités larges
ou strictes sont identiques : ∫ a
– lP(X 6 a) = lP(X < a) = FX (a) = fX (t)dt,
−∞∫
+∞
– lP(X > a) = lP(X > a) = 1 − FX (a) = fX (t)dt,
a
– lP(a < X < b) = lP(a∫ 6 X 6 b) = lP(a < X 6 b) = lP(a 6 X < b) =
b
= FX (b) − FX (a) = fX (t)dt,
a
Exemple 3.2.1
Soit X une variable aléatoire continue dont la fonction de répartition est définie par :
a − be−2x si x > 0
FX (x) =
0 sinon, a, b ∈ R∗
2. Calculer les probabilités suivantes : lP(X > 1), lP(−1 < X < 2), lP ((−1 < X < 2)|(X > 1)).
La suite des calculs dépend de la nature de la fonction φ(X) (bijective, croissante, décroissante
ou quelconque).
Exemple 3.3.1
Soit X une variable aléatoire continue et soit Y = exp(X).
La fonction exp(X) est croissante. Donc on a :
Exemple 3.3.2
Soit X une variable aléatoire continue et soit Y = X 2 . On a :
√ √
FY (x) = lP(Y 6 x) = lP(X 2 6 x) = lP(− x 6 X 6 x), si x > 0
et on en déduit :
1 √ √
√ (f ( x) + fX (− x)) si x > 0
2 x X
fY (x) =
0 sinon
Exemple 3.3.3
Soit X une variable aléatoire continue dont la fonction densité de probabilité est donnée par :
4x3 si 0 < x < 1
fX (x) =
0 sinon
√ √
1 − lP(− 1−x 6 X 6 1−x ) si 1−x > 0
3 3 3
=
1 sinon
√ √
1 − FX ( 1−x ) + FX (− 1−x ) si x < 1
3 3
=
1 sinon
D’où : √ √
1
√ √ (f ( 1−x
) + fX (− 1−x
)) si x < 1
2 3 1−x X 3 3
fY (x) =
0 sinon
Ainsi, pour l’exemple, on trouve :
2 (1 − x) si −2 < x < 1
fY (x) = 9
0 sinon
si 6 −2
0
FY (x) = 1 − ( 1−x )2 si − 2 6 x 6 1
3
1 si x > 1
Proposition 3.3.1
Soient X une variable alétoire continue et fX sa fonction densité de probabilité. Soit Y = φ(X)
une nouvelle variable aléatoire. Si la fonction φ est inversible et si la fonction inverse φ−1 est
dérivable, alors on a :
fY (x) = |(φ−1 (x))′ | × fX (φ−1 (x))
Espérance mathématique
Définition 3.4.1
Soit X une variable aléatoire continue et soit fX sa fonction densité de probabilité.
L’espérance mathématique de X (si elle existe) est définie par :
∫ +∞
E(X) = xfX (x)dx
−∞
Si φ est une fonction réelle continue, alors Y = φ(X) est une variable aléatoire continue et on a :
∫ +∞ ∫ +∞
E(φ(X)) = φ(x)fX (x)dx = xfY (x)dx
−∞ −∞
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 46
Variance - écart-type
Définition 3.4.2
On suppose que l’espérance de X existe. La variance de X (si elle existe) est définie par :
( )
V (X) = E X 2 − (E(X))2
avec ∫ +∞
2
E(X ) = x2 fX (x)dx
−∞
Propriétés
Soient X et Y deux variables aléatoires continues et a et b deux nombres réels. On a :
– E(aX + b) = aE(X) + b,
– V (aX + b) = a2 V (X),
– E(X + Y ) = E(X) + E(Y ),
– Si X et Y sont indépendantes alors :
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y )
Exemple 3.4.1
Calculer l’espérance et l’écart-type de la variable aléatoire de l’exemple 1.2.2.
∫ +∞ ∫ +∞
On a : E(X) = xfX (x)dx = λ xe−λx dx.
[−∞ −λx ]+∞ ∫ +∞0 [ −λx ]+∞
xe −λx e 1
D’où E(X) = λ − + e dx = − = (intégration par parties)
λ λ 0 λ
∫ +∞ 0 0 ∫ +∞
et on a : E(X 2 ) = x2 fX (x)dx = λ x2 e−λx dx.
[ −∞ ]
2 −λx +∞ ∫ +∞ 0
x e 2 2
D’où E(X 2 ) = λ − +2 xe−λx dx = E(X) = 2
λ 0 0 λ λ
1 √ 1
Donc, V (X) = E(X 2 ) − (E(X))2 = 2 et σ(X) = V (X) = .
λ λ
Exemple 3.4.2
Soit X une variable aléatoire dont la fonction densité de probabilité est définie par :
si x ∈]0, 1[
x
fX (x) = k − x si x ∈ [1, 2[
0 sinon, k ∈R
Proposition 3.5.1
Soit X une variable aléatoire continue qui suit une loi uniforme sur l’intervalle [a, b]. Alors on a :
0 si x 6 a
x−a
FX (x) = si x ∈ [a, b]
b−a
1 si x > b
a+b
E(X) = Me (X) =
2
(a − b)2
V (X) =
12
Remarque 3.5.1
L’équiprobabilité se traduit par : La probabilité d’un intervalle [c, d] ⊂ [a, b] est proportionnelle
à la longueur de cet intervalle :
d−c
lP(c 6 X 6 d) =
b−a
Exemple 3.5.1
Le temps de retard d’un train suit une loi uniformément distribuée entre 0 et 30 minutes.
1) Quelle est la probabilité que l’attente d’arrivée de ce train dure entre 10 et 15 minutes ?
2) Sachant que le train n’est pas arrivé après 10 minutes, quelle est la probabilité que l’attente
dure encore moins de 5 minutes ?
3) Quelle est la probabilité que l’attente dure entre 20 et 40 minutes ?
On note X → E(λ).
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 49
Proposition 3.5.2
Soit X une variable aléatoire continue qui suit une loi exponentielle de paramètre λ. Alors on a :
1 − e−λx si x > 0
FX (x) =
0 sinon
ln(2) 1 1
M e(X) = , E(X) = , V (X) =
λ λ λ2
Remarque : Reconnaissance de la loi exponentielle ?
La loi exponentielle est une loi continue qui peut être liée à un processus de Poisson :
Proposition 3.5.3
On suppose qu’un événement S se produit en moyenne λ fois par unité de temps (processus de
Poisson).
Si X est une variable aléatoire continue qui représente le temps (en cette unité) qui sépare deux
réalisations consécutives de l’événement S, alors X suit une loi exponentielle de paramètre λ.
Exemple 3.5.2
Dans une région, les pannes d’électricité se produisent en moyenne deux fois par mois.
1) Quelle la probabilité que durant un mois, on observe au moins 3 pannes ? (événement A)
2) Quelle la probabilité que le temps qui sépare les deux prochaines pannes soit supérieur à 10
jours ? (événement B)
Soit X1 = nombre de pannes par mois et soit X2 = le temps (en mois) qui sépare 2 pannes
consécutives.
On a X1 → P(2) et X2 → E(2). Donc,
lP(A) = lP(X1 > 3) = 1 − lP(X < 3) = 1 − 5e−2 .
lP(B) = lP(X2 > 1/3) = 1 − FX (1/3) = e−2/3 , (10 jours = 1/3 mois).
Exemple 3.5.3
Les données statistiques montrent que les décès dans une urgence se produisent avec une moyenne
de 3 décès par année. Si une personne est décédée aujourd’hui, quelle est la probabilité que le
prochain décès soit dans plus de 4 mois ? (événement A)
Proposition 3.5.4
Soit X une variable aléatoire continue qui suit une loi Gamma de paramètres r et λ. Alors on a :
∑
r−1
(λx)k
1 − e−λx si x > 0
FX (x) = k!
k=0
0 sinon
Proposition 3.5.5
Soit X une variable aléatoire continue qui suit une loi Gamma de paramètres r et λ. Alors on a :
r r
E(X) = , V (X) =
λ λ2
jours ? (événement B)
2) On vient d’observer une panne aujourd’hui (instant t0 ). Quelle la probabilité qu’il faut au
moins 15 jours pour observer les deux prochaines pannes ? (événement C)
Soit Xr = le temps (en mois), à partir de t0 , nécessaire pour observer r pannes consécutives.
On a Xr → G(r, 2). Donc,
1 − FX (1/3) = e−2/3 , (10 jours = 1/3 mois).
lP(B) = lP(X1 > 1/3) = ∫
+∞
lP(C) = lP(X2 > 1/2) = 4xe−2x dx = 2e−1 , (15 jours = 1/2 mois).
1
2
On note X → N (m, σ). N (0, 1) est appelée loi normale centrée réduite.
Proposition 3.5.7
Soit X une variable aléatoire qui suit une loi normale de paramètres m et σ. Alors on a :
V (X) = σ 2
Remarque 3.5.3
Soit X une variable aléatoire qui suit une loi normale de paramètres m et σ. On a :
∫ ( )
1 x
(t − m)2
FX (x) = √ exp − dt , ∀x ∈R
σ 2π −∞ 2σ 2
La fonction de répartition d’une loi normale ne peut pas être exprimée à l’aide de
fonctions usuelles.
Pour surmonter cette difficulté, nous utilisons des approximations numériques.
Nous utilisons une table qui donne les valeurs de la fonction de répartition de la loi normale
centrée réduite N (0, 1).
Evidemment, on ne peut pas avoir de telle table pour toutes les lois normales N (m, σ).
Donc, il faut savoir passer d’une loi normale quelconque à une loi normale centrée réduite N (0, 1).
Ce qui est possible avec les deux propositions suivantes :
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 52
Proposition 3.5.8
Si X suit une loi normale de paramètres m et σ (X → N (m, σ)), alors la variable aléatoire
X −m
Z= suit la loi normale centrée réduite (Z → N (0, 1)).
σ
La fonction densité de probabilité et la fonction de répartition de la loi normale centrée réduite
N (0, 1) sont notées respectivement φ(x) et Φ(x) et sont définies par :
( 2)
1 x
φ(x) = fZ (x) = √ exp −
2π 2
∫ x ( 2)
1 t
Φ(x) = FZ (x) = √ exp − dt
−∞ 2π 2
Φ(a)
Proposition 3.5.9
Soit X une variable aléatoire qui suit une loi normale de paramètres m et σ (X → N (m, σ)).
Alors les valeurs de FX (x) et de fX (x) se déduisent de celles de la loi normale centrée réduite
N (0, 1) à l’aide des relations suivantes :
( )
x−m
FX (x) = Φ
σ
( )
1 x−m
fX (x) = φ
σ σ
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 53
Remarque 3.5.4
Pour les calculs des probabilités utilisant une loi normale, on dispose d’une table numérique
donnant les valeurs de Φ(x). Avec cette table et en utilisant la proposition précédente, on peut
calculer les valeurs de FX (x) pour toute variable aléatoire X qui suit une loi normale de para-
mètres m et σ quelconques.
Exemple 3.5.5
Soit X → N (45, 4).
1) Calculer lP(X < 39), lP(X > 48) et lP(39 < X < 48).
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 54
Remarque 3.6.1
Correction de continuité :
Il faut faire attention lorsqu’on approxime une loi d’une variable discrète par une loi normale qui
est associée à une variable continue :
Pour une loi discrète, les probabilités sont concentrées en des points isolés, alors qu’une loi
continue affecte une probabilité nulle à tout point isolé.
Par exemple pour X → B(100, 0.4), comment peut-on approximer lP(X = 50) par la loi normale ?
(L’approximation par une loi normale est justifiée). Pour surmenter cette difficulté, on utilise ce
qu’on appelle la correction de continuité qui consiste à associer à toute valeur entière k d’une
variable discrète X (binomiale ou de Poisson), l’intervalle [k − 0.5, k + 0.5] pour approximer
lP(X = k) avec la loi normale. On pose donc :
De même, pour tout événement associé à une variable discrète X (binomiale ou Poisson), on
associe un événement avec une correction de continuité de la façon suivante :
Exemple 3.6.1
On considère 4500 répétitions indépendantes d’une épreuve de Bernoulli de paramètre p = 16 .
Soit X la variable aléatoire qui compte le nombre de succès.
1) Quelle est la loi de probabilité de X ?
2) Calculer les probabilités suivantes :
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 56
- lP(X = 800)
- lP(700 6 X 6 800),
- lP(700 < X < 800).
Exemple 3.6.2
1) On suppose que la probabilité qu’un composant électronique réussisse un test de performance
est égale à 0.9 . On choisit 200 composants au hasard. Quelle est la probabilité que :
- Au moins 190 composants réussissent le test.
- Entre 175 et 190 composants réussissent le test.
- Exactement 185 composants réussissent le test.
Exemple 3.6.3
L’erreur commise chaque jour par un caissier varie entre 0 et 20 dh suivant une loi uniforme.
Quelle est la probabilité que l’erreur commise au bout de 300 jours soit supérieure à 3000 dh ?
Définition 3.7.2
Soit (X, Y ) un couple aléatoire continue et soit F(X,Y ) sa fonction de répartition.
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 57
On appelle fonction densité conjointe du couple (X, Y ), la fonction, notée f(X,Y ) , définie par :
∂ 2F
∀ (x, y) ∈ R2 , f(X,Y ) (x, y) = (x, y)
∂x∂y
Définition 3.7.3
Soit (X, Y ) un couple aléatoire continue et soit f(X,Y ) sa fonction densité conjointe.
On peut définir la fonction de répartition F(X,Y ) du couple (X, Y ) à partir de la fonction densité
par : ∫ ∫
y x
∀ (x, y) ∈ R , F(X,Y ) (x, y) =
2
f(X,Y ) (u, v)dudv
−∞ −∞
Propriétés caractéristiques :
Soit (X, Y ) un couple de variables aléatoires continues.
– La fonction densité f(X,Y ) doit vérifier :
Toute fonction vérifiant ces propriétés est une fonction de répartition d’un couple aléatoire.
Remarque 3.7.1
On peut effectuer les calculs des probabilités, pour un couple aléatoire, soit à l’aide de la fonction
de répartition soit à l’aide de la fonction de densité. On a :
∫ b∫ d
lP(a < X 6 b et c < Y 6 d) = f(X,Y ) (u, v)dudv
a c
lP(a < X 6 b et c < Y 6 d) = (F(X,Y ) (b, d) − F(X,Y ) (a, d)) − (F(X,Y ) (b, c) − F(X,Y ) (a, c))
Définition 3.7.4
Soit (X, Y ) un couple aléatoire continue et soit f(X,Y ) sa fonction densité conjointe. Les fonctions
densités marginales de X et de Y , notées respectivement fX et fY , sont définies par :
∫ +∞
fX (x) = f(X,Y ) (x, y)dy
−∞
CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES 58
∫ +∞
fY (y) = f(X,Y ) (x, y)dx
−∞
Proposition 3.7.1
Deux variables aléatoires continues X et Y sont indépendantes si et seulement si
Exemple 3.7.1
Soit (X, Y ) un couple de variables aléatoires continues dont la fonction densité de probabilité est
donnée par :
1 si (x, y) ∈ [0, 1] × [0, 1]
f(X,Y ) (x, y) =
0 sinon
Exemple 3.7.2
Soit (X, Y ) un couple de variables aléatoires continues dont la fonction densité de probabilité est
donnée par :
kye−x si x > 0 et 0 < y < 1
f(X,Y ) (x, y) =
0 sinon
1. Déterminer la valeur de k.