Vous êtes sur la page 1sur 58

U NIVERSITÉ DES S CIENCES DES T ECHNIQUES ET DES

T ECHNOLOGIES DE B AMAKO

P OLYCOPIÉ DU C OURS DE
P ROBABILITÉS

N IVEAU L2

D R H AROUNA SANGARE F.S.T


M AÎTRE -A SSISTANT D.E.R M ATHS -I NFO

V ERSION DU 13 AVRIL 2021


Table des matières

1 Pré-requis 4

1.1 Théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.1.1 Ensemble, sous-ensemble, élément . . . . . . . . . . . . . . . . . . 4

1.1.2 Cardinal d’un ensemble et d’un sous-ensemble . . . . . . . . . . . 5

1.1.3 Opérations ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Principe fondamental du dénombrement ou produit cartésien . . 8

1.2.2 p-listes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.3 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.2.4 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.5 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.6 Modèle fondamental : schema d’urne . . . . . . . . . . . . . . . . 11

2 Espace de probabilité 13

2.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2 Modéliser une expériance aléatoire . . . . . . . . . . . . . . . . . . . . . . 13

2.2.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2.2 Ensemble des événements . . . . . . . . . . . . . . . . . . . . . . . 14

2.2.3 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1
Introduction aux calculs de Probabilités Version du 13 avril 2021

2.3 Probabilités finies, équiprobabilité . . . . . . . . . . . . . . . . . . . . . . 20

2.4 Conditionnement par un événement : formule de Bayes . . . . . . . . . . 21

2.5 Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . . 24

3 Variables aléatoires réelles 27

3.1 Variables aléatoires réelles discrètes . . . . . . . . . . . . . . . . . . . . . 28

3.1.1 Espérance d’une variable aléatoire réelle discrète . . . . . . . . . 31

3.2 Variables aléatoires réelles absolument continues . . . . . . . . . . . . . . 31

3.2.1 Espérance d’une variable aléatoire réelle absolument continue . . 33

3.3 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 35

3.4.1 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.4.2 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.4.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.4.4 Moments d’un couple . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.4.5 Covariance et coefficient de corrélation . . . . . . . . . . . . . . . 37

4 Lois de probabilité usuelles 39

4.1 Loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.6 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.7 Loi de Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.8 Loi binomiale négative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

harouna.sangare@mesrs.ml 2 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

4.9 Loi uniforme continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.10 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.11 Loi normale (ou gaussienne) . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.11.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.11.2 Règle de calcul de probabilités . . . . . . . . . . . . . . . . . . . . 48

4.11.3 Approximation par la loi normale . . . . . . . . . . . . . . . . . . 50

4.11.4 Lois dérivées de la loi normale . . . . . . . . . . . . . . . . . . . . 50

4.12 Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.13 Loi gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.14 Loi beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4.15 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4.16 Loi de Fisher-Tippett (ou log-Weibull) . . . . . . . . . . . . . . . . . . . . 56

4.17 Loi de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

harouna.sangare@mesrs.ml 3 Dr SANGARE
Chapitre 1

Pré-requis

1.1 Théorie des ensembles

1.1.1 Ensemble, sous-ensemble, élément

Définition 1. Un ensemble est une collection d’éléments. Si on note Ω cet ensemble et si ω est
un élément de Ω, alors l’appartenance de ω à Ω est notée : ω ∈ Ω.

On appelle sous-ensemble de Ω toute partie de Ω. Si on note A ce sous-ensemble, alors l’in-


clusion de A dans Ω est notée : A ⊂ Ω. Si par exemple Ω = {ω1 , ω2 , · · · , ω2n } et A =
{ω2 , ω4 , · · · , ω2n } , alors A ⊂ Ω.

L’ensemble de toutes les parties de Ω est noté P(Ω). Les relations d’inclusion dans Ω
peuvent alors être traduites par des relations d’appartenance à P(Ω) : si A ⊂ Ω, alors
A ∈ P(Ω).

Parmi les parties de Ω, on note en particulier :

l’espace entier Ω : elle est appelée partie pleine de Ω (on l’appelle parfois "univers" ou
"espace universel"),

la partie de Ω ne comportant aucun élément : elle est notée ∅ et est appelée partie vide,

4
Introduction aux calculs de Probabilités Version du 13 avril 2021

les singletons : toute partie de Ω réduite à un seul élément ω, notée {ω} .

Deux parties A et B peuvent :

être confondues : ∀x ∈ Ω : x ∈ A ⇐⇒ x ∈ B,

être incluses l’une dans l’autre. Par exemple, A ⊂ B : ∀x ∈ Ω : x ∈ A =⇒ x ∈ B,

être disjointes : ∀x ∈ Ω : {x ∈ A =⇒ x ∈
/ B} et {x ∈ B =⇒ x ∈
/ A}, ce qui se traduit,
grâce à l’opération "intersection" (que nous définirons plutard), par A ∩ B = ∅.

Définition 2. On appelle partition de Ω toute famille de sous-ensembles (Ai )1≤i≤p de P(Ω)


vérifiant :

1. ∀i 6= j, Ai ∩ Aj = ∅ (les sous-ensembles sont 2 à 2 disjoints),


S
2. Ai = Ω (leur union est égale à l’espace tout entier Ω).
1≤i≤p

1.1.2 Cardinal d’un ensemble et d’un sous-ensemble

Définition 3. On appelle cardinal de Ω, que l’on note card(Ω), le nombre d’éléments de Ω.

Si Ω = {ω1 , ω2 , · · · , ω2n } et A = {ω2 , ω4 , · · · , ω2n }, alors card(Ω) = 2n et card(A) = n.

En particulier :

a. card(∅) = 0 ;
b. card({ω}) = 1 ;
c. ∀A ∈ P(Ω) : card(A) ≤ card(Ω) ;
d. ∀ (A, B) ∈ P(Ω)2 : A ⊂ B =⇒ card(A) ≤ card(Ω).

Proposition 1. Si card(Ω) = n, alors card(P(Ω)) = 2n .

harouna.sangare@mesrs.ml 5 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

1.1.3 Opérations ensemblistes

Soit Ω un ensemble fini à n éléments et P(Ω) l’ensemble des parties de Ω. On définit


sur P(Ω) les opérations suivantes, appelées opérations ensemblistes

Définition 4. Nous avons les définitions suivantes

Réunion (ou union) : la réunion de deux sous-ensembles A et B est le plus petit sous-ensemble
de Ω contenant A et B. On le note A ∪ B et on le prononce "A union B" :

A ∪ B = {x ∈ Ω/x ∈ A ou x ∈ B} .

Intersection : l’intersection de deux sous-ensembles A et B est le plus grand sous-ensemble


de Ω contenu à la fois dans A et B.On le note A ∩ B et on le prononce "A inter B" :

A ∩ B = {x ∈ Ω/x ∈ A et x ∈ B} .

Complémentaire : le complémentaire d’un ensemble sous-ensemble A est le plus grand sous-


ensemble de Ω disjoint de A. On le note Ā ou Ac :

Ā ou Ac = {x ∈ Ω/x ∈
/ A} .

Privation : le sous-ensemble A "privé" du sous-ensemble B est la plus grande partie de A


disjointe de B. On le note A − B ou A\B

A − B ou A\B = {x ∈ Ω/x ∈ A et x ∈
/ B} = A ∩ B̄.

Si A et B sont disjoints, alors A − B ou A\B = A.

Les opérations ensemblistes présentent les propriétés suivantes

Commutativité : A ∪ B = B ∪ A; A ∩ B = B ∩ A.

Identité : A ∪ ∅ = A; A ∪ Ω = Ω; A ∩ Ω = A; A ∩ ∅ = ∅.

Associativité : (A ∪ B) ∪ C = A ∪ (B ∪ C) ; (A ∩ B) ∩ C = A ∩ (B ∩ C).

Distributivité : A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) ;
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).

harouna.sangare@mesrs.ml 6 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Complémentarité : A ∪ Ā = Ω; A ∩ Ā = ∅; Ā¯ = A; Ω̄ = ∅; ∅¯ = Ω

A ∪ B = Ā ∩ B̄; A ∩ B = Ā ∪ B̄.

Propriétes sur la cardinalité :

1. Si Ω est fini, ∀A ∈ P(Ω) : card(Ā) = card(Ω) − card(A)


2. ∀ (A, B) ∈ P(Ω)2 :
a. card(A ∪ B) ≤ card(A) + card(B),
b. card(A ∪ B) = card(A) + card(B) − card(A ∩ B),
3. en particulier, card(A ∪ B) = card(A) + card(B) si et seulement si A ∩ B = ∅.
4. Si Ω est fini, et si (Ai )1≤i≤p forme une partition de Ω, alors

X
card(Ai ) = card(Ω).
1≤i≤p

1.2 Analyse combinatoire

L’étude des permutations, arrangements, combinaisons ou partitions... s’appelle tadi-


tionnellement en mathématiques l’analyse combinatoire.

Elle s’intéresse aux objets mathématiques admettant plusieurs configurations et à l’iden-


tification des configurations acceptables en regard de critères donnés. Elle s’article au-
tour du dénombrement (calcul du nombre configurations acceptables) et de l’énumé-
ration (description de chacune des configurations acceptables).

Exemple 1. – combien existe t-il de possibilités d’obtenir un total de 7 en lançant deux dés à
6 faces ?
– combien existe t-il de tiercés différents pour une course de 20 chevaux ?
– combien existe t-il de manières de répartir 5 manteaux sur une patère à 5 crochets ?

L’outil du dénombrement est indispensable pour le calcul des probabilités dans les cas
finis discrets. On entend par "finis discrets" des cas pour lesquels on peut compter (dé-
nombrer) les issues possibles. Par exemple, un lancer de dé est une expérience dont les
résultats sont dans l’ensemble {1, 2, 3, 4, 5, 6}. Un contre-exemple est le temps d’attente
à une caisse, on ne peut à priori pas lister l’ensemble des résultats possibles.

harouna.sangare@mesrs.ml 7 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Cette section est une présentation des éléments les plus classiques du dénombrement.

1.2.1 Principe fondamental du dénombrement ou produit cartésien

Si un événement A peut se produire de a façons, un événement B de b façons, un


événement C de c façons,... Et tous ces événements étant indépendants, alors le total
n des possibilités de l’événement combiné A, B, C,... est le produit des possibilités de
chaque événement
n = a · b · c · ··

Ce principe s’applique lorsque les possibilités offertes s’enchaînent les unes à la suite
des autres pour créer l’événement complet. Il y a possibilité de choix, puis à ce niveau
se présente encore une possibilité de choix, etc.

Exemple 2. Un cadenas comporte 3 chiffres de 0 à 9. Combien y a t-il de possibilités d’avoir


un code différent ?

Trois choix à faire successivement (on parle d’événements) :

- Premier chiffre du code : a = 10 possibilités (événement A) ;

- Deuxième chiffre du code : b = 10 possibilités (événement B) ;

- Troisième chiffre du code : c = 10 possibilités (événement C).

Ces trois événements A, B, C sont indépendants les uns des autres. Le total des possibilités n
est le produit des possibilités de chaque événement.

n = a · b · c = 10 × 10 × 10 = 1000.

1.2.2 p-listes

Exemple 3. Une banque distribue à chacun de ses clients un identifiant de connexion formé
de six chiffres entre 0 et 9. Combien cette banque peut-elle avoir de clients au maximum avec ce
mode de connexion ?

harouna.sangare@mesrs.ml 8 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Il est clair que deux clients ne peuvent pas avoir le même identifiant et que chaque client a un
unique identifiant. L’ordre des chiffres a une importance mais chaque chiffre peut être utilisé
plusieurs fois. Ainsi, il y a dix possibilités pour le premier chiffre de l’identifiant, il y en a aussi
dix pour le second, et à chaque fois dix chiffres possibles pour chaque chiffre de l’identifiant.
Ainsi on a 10×10×10×10×10×10 = 106 = 1.000.000 identifiants possibles, par conséquent
la banque peut avoir au plus 1.000.000 clients avec ce mode de connexion.

Cet exemple est l’illustration de la formule de dénombrement des p-listes : np où n


représente le nombre d’éléments possible et p la longueur de la liste.

Dans quel cas utiliser cette formule ?

Cette formule s’utilise quand l’expérience s’apparente à un tirage successif avec re-
mise. Dans l’exemple, les éléments successifs à tirer sont des chiffres de 0 à 9, il y a
remise car chaque élément peut être tiré plusieurs fois.

1.2.3 Arrangements

Considérons l’exemple précédent avec la contrainte de n’utiliser qu’une seule fois chaque
chiffre, pour le premier chiffre du code, il y a 10 choix possibles. Pour le second, il n’y
en a plus que 9 : tous les chiffres de 0 à 9 sauf celui utilisé en premier. Pour le troisième,
il n’y en a plus que 8. Ainsi le nombre de codes possible est 10×9×8×7×6×5 = 151200.
Le nombre de clients possible est alors 151200.

Cet exemple est l’ illustration de la formule de dénombrement du nombre d’arrange-


ments :

n!
n × (n − 1) × (n − 2) × (n − 3) × · · · × (n − p + 1) =
(n − p)!
= Apn

où n représente le nombre d’éléments possible et p la longueur de l’arrangement.

Rappel : n! = 1 × 2 × 3 × 4 × · · · × n.

harouna.sangare@mesrs.ml 9 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Dans quel cas utiliser cette formule ?

Cette formule s’utilise quand l’expérience s’apparente à un tirage successif sans re-
mise. Dans l’exemple, les éléments successifs à tirer sont des chiffres de 0 à 9, il n’y a
pas remise car chaque élément ne peut être tiré qu’une fois.

1.2.4 Permutations

Définition 5. Soit E un ensemble à n éléments. Une permutation de E est une liste ordonnée
sans répétition ni omission des éléments de E. C’est donc un arrangement de n éléments de E.

Le nombre de permutations de E est noté n!. De plus,

n! = Ann = n × (n − 1) × · · · × 3 × 2 × 1.

1.2.5 Combinaisons

Exemple 4. On doit choisir deux salariés dans une équipe de cinq salariés pour effectuer une
mission spécifique. De combien de façons peut-on choisir ces deux salariés ?

A priori tous les couples sont possibles, en notant les salariés A, B, C, D et E les différents
couples possibles sont (A, B) ; (A, C) ; (A, D) ; (A, E) ; (B, C) ; (B, D) ; (B, E) ; (C, D) ;
(C, E) et (D, E) soit en tout dix couples possibles. On remarque que l’ordre n’a pas d’im-
portance : le couple (A, B) est le même que (B, A).

Une manière plus rapide de déterminer le nombre de couples possible est d’utiliser la
formule de dénombrement des combinaisons

n!
Cnp =
p! (n − p)!

où n représente le nombre d’éléments et p la taille de la combinaison.

Dans quel cas utiliser cette formule ?

harouna.sangare@mesrs.ml 10 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Cette formule s’utilise quand l’expérience s’apparente à un tirage simultané. Il n’y a


pas d’ordre dans le tirage. Dans l’exemple, les deux salariés sont sélectionnés en même
temps.

Certaines propriétés évitent de perdre du temps en calculs :

Cn0 = Cnn = 1 et Cn1 = Cnn−1 = n

p−1 p
Cnp = Cnn−p et Cn−1 + Cn−1 = Cnp .

1.2.6 Modèle fondamental : schema d’urne

Imaginons un ensemble comme une urne contenant n boules numérotées de 1 à n et


supposons que nous tirions p boules dans cette urne. Il y a, à priori, différents modes
de tirages qui correspondent à des cas "concrets" associés à autant de schemas d’urnes.
Nous allons déterminer le nombre de tirages possibles dans chacun des cas suivants.

Tirages successifs et avec remise

On tire au hasard une boule dans l’urne, puis on la remet dans l’urne avant d’effectuer
le tirage suivant. Si on effectue ainsi p tirages avec remise, le résultat global s’interprète
comme une p-liste.

Il y a donc np tirages avec remise (de p éléments) possibles.

Tirages successifs et sans remise

On tire au hasard dans l’urne une boule que l’on conserve ; la boule n’est donc pas
remise dans l’urne. Ainsi, il y aura une boule de moins après chaque tirage. Si on
effectue ainsi p tirages sans remise (p ≤ n), le résultat global s’interprète comme une p-
liste d’éléments 2 à 2 distincts ou encore comme un arrangement de p éléments parmi
n.

Il y a donc Apn tirages sans remise (de p éléments) possibles.

harouna.sangare@mesrs.ml 11 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Tirages simultanés

On tire simultanément p boules de l’urne. Un tel tirage s’interprète comme un sous


ensemble de l’ensemble des n éléments et donc comme une combinaison de p éléments
parmi n.

Il y a donc Cnp tirages simultanés (de p éléments) possibles.

harouna.sangare@mesrs.ml 12 Dr SANGARE
Chapitre 2

Espace de probabilité

2.1 Expérience aléatoire

On désigne par expérience aléatoire toute expérience dont le résultat est soumis au
hasard.

L’une des expériences aléatoires la plus simple est de lancer en l’air une pièce de mon-
naie et d’observer sa face visible lorsqu’elle retombe. Cette expérience n’a que deux
issues : pile ou face. Cette expérience sert souvent à départager deux adversaires. On
dit alors qu’on tire à "pile ou face". Généralement, nous tirons à pile ou face car nous
sommes convaincus d’avoir autant de chances de gagner que de perdre. Mais que si-
gnifie cette phrase ? Lui donner un sens est justement l’objectif de la théorie des proba-
bilités.

2.2 Modéliser une expériance aléatoire

En théorie des probabilités, le terme "modéliser" désigne l’opération consistant à asso-


cier à une expérience aléatoire trois objets mathématiques, généralement notés Ω, A et
P et que l’on appelle respectivement univers, ensemble des événements et probabilité.

13
Introduction aux calculs de Probabilités Version du 13 avril 2021

2.2.1 Univers

La première étape de la modélisation d’une expérience aléatoire ε consiste à préciser


l’ensemble des résultats possibles.

Définition 6. On appelle univers associé à une expérience aléatoire ε l’ensemble de tous les
résultats possibles de l’expérience aléatoire . Traditionnellement, l’univers est noté Ω.

Exemple 5. Dans le cas du lancer d’une pièce de monnaie, les résultats possibles sont "pile"
ou "face". L’univers associé au lancer d’une pièce de monnaie est : Ω = {"pile" ,"f ace"}.

Exemple 6. Dans le cas du lancer d’un dé à six faces, on convient généralement d’appeler
résultat le chiffre inscrit sur la face supé rieure du dé. L’univers associé au lancer d’un dé à six
faces est : Ω = {1, 2, 3, 4, 5, 6}.

Exemple 7. On jette deux fois un dé à six faces. Un résultat est représenté par un couple (i, j)
où i est le résultat du premier lancer et j le résultat du second lancer. L’univers Ω associé à cette
expérience aléatoire est donc le produit cartésien {1, 2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6}.

Remarque 1. Dans le cas de l’attente du bus, il est difficile de définir simplement les résultats
de cette expérience aléatoire. On préfère, dans ce type d’expérience, utiliser une autre notion que
nous aborderons plus tard : le concept de variable aléatoire, c’est-à-dire une mesure effectuée à
l’issue de l’expérience aléatoire. Par exemple, dans le cas de l’attente du bus, on considérera le
temps d’attente.

2.2.2 Ensemble des événements

La deuxième étape de la modélisation d’une expérience aléatoire consiste à définir la


notion "événement" associée à l’expérience aléatoire.

Définition 7. On appelle événement associé à une expérience aléatoire ε toute propriété dont
on sait dire si elle est vérifiée ou non à l’issue de l’expérience aléatoire.

Exemple 8. Dans le cas du lancer d’une pièce de monnaie, les phrases "on a obtenu pile" et
"on a obtenu face" définissent deux événements associés à l’expérience aléatoire.

harouna.sangare@mesrs.ml 14 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Exemple 9. Dans le cas du lancer d’un dé à six faces, les phrases "le résultat du lancer est
pair", "le résultat est divisible par 3" et "le résultat du lancer est 5" définissent trois événements
associés à l’expérience aléatoire.

La théorie moderne des probabilités utilise le langage de la théorie des ensembles pour
représenter les événements. Pour cette raison, on identifie généralement un événement
à un sous-ensemble de l’univers.

Exemple 10. Dans le cas du lancer d’une pièce de monnaie, l’événement "on a obtenu pile" est
le singleton {pile}.

Exemple 11. Dans le cas du lancer d’un dé à six faces, les événements A = "le résultat du
lancer est un nombre pair", B = "le chiffre obtenu est supérieur ou égal à 4" et C = "on
a obtenu un 6" désignent les sous-ensembles de Ω = {1, 2, 3, 4, 5, 6} : A = {2, 4, 6}, B =
{4, 5, 6} et C = {6}.

Exemple 12. Dans le cas du lancer de deux dés indistinguables, l’événement A = "la somme
des résultats est égale à 4" est le sous-ensemble de Ω : A = {{1, 3}, {2, 2}}.

Définition 8. Soit Ω l’univers associé à une expérience aléatoire. On appelle événements élé-
mentaires les singletons {ω}, ω ∈ Ω. De plus, Ω est appelé événement certain et ∅ est appelé
événement impossible.

Généralement, les événements sont formulés par des phrases littérales utilisant le lan-
gage de la logique alors que, dans le calcul de leurs probabilités, on utilise le langage de
la théorie des ensembles. Nous donnons dans le tableau ci-dessous la correspondance
entre ces deux langages.

Ecriture logique Ecriture ensembliste

le contraire de A s’est réalisé Ā ou Ac

A et B se sont réalisés A∩B

A ou B s’est réalisé A∪B


 
un seul des événements A et B s’est réalisé A ∩ B̄ ∪ Ā ∩ B = A∆B

B s’est réalisé mais pas A B\A = B ∩ Ā

harouna.sangare@mesrs.ml 15 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Exemple 13. Ecrivons les événements suivants sous forme ensembliste.

1. "Au moins un des événements A, B et C s’est réalisé" se traduit A ∪ B ∪ C.


2. "Un seul des événements A, B et C s’est réalisé " se traduit A∆B∆C.
3. "Tous les événements A, B et C se sont réalisés" se traduit A ∩ B ∩ C.
4. "Un seul des deux événements A et B s’est réalisé et C ne s’est pas réalisé" se traduit
(A∆B) ∩ C̄.

L’expérimentateur doit alors préciser l’ensemble des événements qu’il associe à l’ex-
périence aléatoire. Son choix est contraint par le fait qu’on est généralement amené à
effectuer un certain nombre d’opérations sur les événements. Par exemple, étant donnés
A et B deux événements liés à une expérience aléatoire ε, on souhaite pouvoir consi-
dérer que la non-réalisation de A, la réalisation simultanée de A et B, la réalisation de
l’un au moins des événements A et B soient encore des événements liés à l’expérience.
Ces considérations nous amènent à la définition suivante.

Définition 9. On appelle ensemble des événements associés à une expérience aléatoire tout
sous-ensemble A de P(Ω) vérifiant les propriétés suivantes

1. l’événement impossible ∅ et l’événement certain Ω appartiennent à A ;

2. si A appartient à A, alors le complémentaire de A appartient aussi à A ;

3. soit I une partie de N (finie ou infinie). Si (Ai )i∈I est une suite d’événements de A, alors
∩i∈I Ai et ∪i∈I Ai appartiennent à A.

Remarque 2. Un ensemble d’événements vérifiant les propriétés de la définition ci-dessus est


appelé une σ-algèbre ou une tribu.

Exemple 14. Les ensembles {∅, Ω} et {∅, A, Ā, Ω} vérifient les trois propriétés de la définition
ci-dessus, de même que l’ensemble des parties de Ω, noté P(Ω).

Définition 10. À une expérience aléatoire ε, on associe un couple ( Ω, A) où Ω est l’ensemble


des résultats possibles de l’expérience aléatoire et A l’ensemble des événements liés à l’expé-
rience aléatoire. On appelle le couple (Ω, A) l’espace probabilisable lié à l’expérience aléatoire.

harouna.sangare@mesrs.ml 16 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Remarque 3. Théoriquement, toute étude probabiliste d’une expérience alé atoire devrait com-
mencer par une description de l’espace probabilisable associé. Fort heureusement, il est possible
de résoudre certains problèmes de calcul de probabilités sans connaître exactement l’univers Ω
ni préciser explicitement A, à condition de connaître les probabilités des événements indispen-
sables pour mener à bien ce calcul.

Définition 11. Soit (Ω, A) un espace probabilisable associé à une expérience aléatoire.

1. Soient A et B deux événements de A. On dit que A et B sont incompatibles si et seule-


ment si A∩B = ∅, c’est-à-dire qu’il est impossible que A et B se réalisent simultanément.

2. On appelle système complet d’événements toute suite (Ai )i∈I d’événements de A deux à
deux incompatibles dont la réunion est égale à l’ensemble Ω, c’est-à-dire qu’à l’issue de
l’expérience un seul des événements Ai , i ∈ I est réalisé.

Exemple 15. Soit (Ω, A) un espace probabilisable. Pour tout événement A ∈ A, les événements
A et Ā forment un système complet d’événements puisque A ∪ Ā = Ω et A ∩ Ā = ∅, c’est-à-dire
que les événements A et Ā sont incompatibles.

2.2.3 Probabilités

La dernière étape de la modélisation d’une expérience aléatoire consiste à associer à


chacun des événements de A un nombre réel compris entre 0 et 1 représentant la pro-
babilité que l’événement se réalise.

Définition 12. Soit (Ω, A) un espace probabilisable associé à une expérience aléatoire. Une
probabilité P sur (Ω, A) est une application de A dans [0, 1] (c’est-à-dire que la probabilité d’un
événement est représentée par un nombre réel compris entre 0 et 1) vérifiant les deux propriétés
suivantes (axiomes de Kolmogorov) :

1. P (Ω) = 1, c’est-à-dire que la probabilité de l’événement certain est égale à 1 ;

2. pour toute suite (finie ou infinie dénombrable) d’événements de A deux à deux incompa-
tibles, (Ai )i∈I , on a !
[ X
P Ai = P (Ai )
i∈I i∈I

harouna.sangare@mesrs.ml 17 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

c’est-à-dire que la probabilité d’un événement qui est la réunion disjointe d’événements
est égale à la somme des probabilités de ces événements (σ-additivité).

Définition 13. À une expérience aléatoire ε, on associe le triplet (Ω, A, P), appelé espace de
probabilité associé à ε.

Nous allons dans la suite être amenés à calculer les probabilités d’événements qui ne
s’écrivent pas nécessairement comme une réunion d’événements, mais comme une ex-
pression utilisant l’un ou plusieurs des opérateurs ensemblistes − , ∪, ∩, ∆, \. Nous
donnons pour cela ici un certain nombre de résultats se déduisant de la définition
d’une probabilité.

Proposition 2. Soit (Ω, A, P) un espace de probabilité associé à une expérience aléatoire. Alors
P(∅) = 0 et, pour tout événement A ∈ A, P(Ā) = 1 − P(A).

Démonstration. Soit A un événement de A. Les événements A et Ā sont incompatibles,


donc
P(Ā) + P(A) = P(A ∪ Ā) = P (Ω) = 1,

dont on déduit que


P(Ā) = 1 − P(A).

Ensuite, pour A = Ω, l’égalité précédente devient

P(∅) = P(Ω̄) = 1 − P(Ω) = 0.

Proposition 3. Soit (Ω, A, P) un espace de probabilité associé à une expérience aléatoire. Pour
tous événements A et B de A, on a :

1. P(B ∩ Ā) = P(B) − P(A ∩ B);

2. si A ⊂ B alors P(A) ≤ P(B) ;

3. P(A ∪ B) = P(A) + P(B) − P(A ∩ B). En particulier P(A ∪ B) ≤ P(A) + P(B), et il


n’y a égalité que si les deux événements A et B sont incompatibles ;

4. P(A∆B) = P(A) + P(B) − 2P(A ∩ B).

harouna.sangare@mesrs.ml 18 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Démonstration. 1. Les deux événements A ∩ B et B ∩ Ā sont incompatibles et leur



réunion (A ∩ B) ∪ B ∩ Ā est égale à B, donc


P(B) = P((A ∩ B) ∪ B ∩ Ā ) = P(A ∩ B) + P(B ∩ Ā),

dont on déduit l’identité

P(B ∩ Ā) = P(B) − P(A ∩ B).

2. Dans le cas particulier où A ⊂ B, l’identité P(B ∩ Ā) = P(B) − P(A ∩ B) devient


P(B ∩ Ā) = P(B) − P(A). Par définition, la probabilité d’un événement est positive,
donc
P(B) − P(A) ≥ 0,

dont on déduit l’inégalité


P(B) ≥ P(A).

3. La réunion A ∪ B de deux ensembles peut se réécrire comme A ∪ (B\(A ∩ B)). Les


deux événements A et B\(A ∩ B) sont incompatibles, donc

P(A ∪ B) = P(A) + P(B\(A ∩ B)) = P(A) + P(B ∩ (A ∩ B)

= P(A) + P(B) − P(A ∩ B).

4. Par définition, la différence symétrique A∆B de deux ensembles A et B est égale à


   
la réunion A ∩ B̄ ∪ Ā ∩ B . Les événements A ∩ B̄ = (A\(A ∩ B)) et Ā ∩ B =
(B\(A ∩ B)) sont incompatibles, donc


P(A∆B) = P A ∩ B̄ + P(Ā ∩ B) = P(A) − P(A ∩ B) + P(B) − P(A ∩ B)

= P(A) + P(B) − 2P(A ∩ B).

Exemple 16. Calculons la probabilité de l’union de trois événements A, B et C à l’aide des


propriétés ci-dessus. Pour cela, on commence par écrire que

P(A ∪ B ∪ C) = P(A) + P(B ∪ C) − P(A ∩ (B ∪ C)).

harouna.sangare@mesrs.ml 19 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

L’événement A ∩ (B ∪ C) est l’union des deux événements A ∩ B et A ∩ C, donc

P(A ∩ (B ∪ C)) = P(A ∩ B) + P(A ∩ C) − P ((A ∩ B) ∩ (A ∩ C))

= P(A ∩ B) + P(A ∩ C) − P(A ∩ B ∩ C).

De même,
P(B ∪ C) = P(B) + P(C) − P(B ∩ C).

En regroupant toutes ces identités, on obtient finalement

P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(B ∩ C) − P(A ∩ B) − P(A ∩ C) + P(A ∩ B ∩ C).

2.3 Probabilités finies, équiprobabilité

Une hypothèse classique en théorie des probabilités consiste à supposer que tous les
résultats d’une expérience aléatoire sont équiprobables, c’est-à-dire qu’ils ont la même
probabilité de réalisation. Cette hypothèse n’a de sens que si l’univers Ω associé à l’ex-
périence aléatoire est fini. Sous cette hypothèse, le calcul de la probabilité d’un événe-
ment se ramène à un problème de dénombrement, c’est-à-dire revient à énumérer le
nombre de résultats de l’expérience réalisant l’événement.

Définition 14. Soit (Ω, A) un espace probabilisable. On suppose que l’algèbre des événements
A contient tous les événements élémentaires {ω}, ω ∈ Ω. On appelle hypothèse d’équiprobabilité
le choix d’une probabilité P vérifiant
1
∀ω ∈ Ω, P ({ω}) =
card (Ω)
Proposition 4. Soit (Ω, A) un espace probabilisable. Sous l’hypothèse d’équiprobabilité, le
seul choix possible de probabilité P est la probabilité définie par
card (A)
∀A ∈ A, P (A) = .
card (Ω)
Remarque 4. Sous l’hypothèse d’équiprobabilité, le calcul de la probabilité d’un événement A
consiste à dénombrer le nombre de résultats de l’expérience aléatoire réalisant A et à le diviser
par le cardinal de Ω. On résume souvent ce calcul par la "formule" suivante :
nombre de cas favorables à l’événement A
P (A) = .
nombre de cas possibles

harouna.sangare@mesrs.ml 20 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Exemple 17. On lance deux dés équilibrés, c’est-à-dire que toutes les faces sont équiprobables.

On appelle A1 l’événement "le premier dé amène un nombre pair", A2 l’événement "le second
dé amène un nombre pair" et A3 l’événement "la somme des nombres obtenus est paire".

On convient de représenter un résultat par un couple (i, j) où i et j sont deux entiers compris
entre 1 et 6, l’entier i représente le résultat du premier dé et j représente le résultat du second
dé. L’univers Ω ainsi associé au lancer des deux dés est le produit cartésien {1, 2, 3, 4, 5, 6}2
dont le cardinal est 62 .

L’événement A1 est constitué de l’ensemble des couples (i, j) avec i ∈ {2, 4, 6} et j ∈ {1, 2, 3, 4, 5, 6}.
3×6
Donc P (A1 ) = 62
= 21 . Par un raisonnement identique, on trouve que P (A2 ) = 12 . Enfin,
l’événement A3 est la réunion de l’ensemble {2, 4, 6}2 (les deux dés donnent un résultat pair)
2×32
et de l’ensemble {1, 3, 5}2 (les deux dés donnent un résultat impair). Donc P (A3 ) = 62
= 12 .

2.4 Conditionnement par un événement : formule de Bayes

La notion de conditionnement par un événement est la plus importante, mais aussi la


plus délicate de la théorie des probabilités. Elle s’introduit en particulier à chaque fois
que, pendant le déroulement d’une expérience aléatoire, une information partielle est
fournie à l’expérimentateur, modifiant le pronostic sur la probabilité d’un événement.

Définition 15. Soient A et B deux événements, on suppose que l’événement A n’est pas quasi
impossible, c’est-à-dire P(A) 6= 0 . On appelle probabilité conditionnelle de B sachant A, notée
P(B/A), le quotient
P(A ∩ B)
P(B/A) = .
P(A)
Proposition 5. Soit (Ω, A, P) un espace de probabilité associé à une expérience aléatoire. Pour
tous événements A, B et C de A, on a :

1. P(B̄/A) = 1 − P(B/A) ;

2. P(B ∩ C̄/A) = P(B/A) − P(B ∩ C/A) ;

3. si B ⊂ C, alors P(B/A) ≤ P(C/A) ;

harouna.sangare@mesrs.ml 21 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

4. P(B ∪ C/A) = P(B/A) + P(C/A) − P(B ∩ C/A) ;

5. si B et C sont incompatibles, alors P(B∪C/A) = P(B/A)+P(C/A). Plus généralement,


si I est une partie finie ou infinie de N ou de Z et si (Bi )i∈I , est une suite d’événements
P
deux à deux incompatibles, P(∪i∈I Bi /A) = i∈I P(Bi /A).

Remarque 5. La relation définissant la probabilité conditionnelle peut se réécrire de la manière


suivante :
P(A ∩ B) = P(B/A)P(A).

Cette écriture s’appelle la formule des probabilités composées. Elle peut se généraliser comme
suit : soit (Ai )1≤i≤n une suite d’événements, on suppose que l’événement ∩ni=1 Ai n’est pas quasi
impossible, alors
n
!
\
P Ai = P(A1 )P(A2 /A1 )P(A3 /A1 ∩ A2 ) · · · P(An /A1 ∩ A2 · · · ∩ An−1 ).
i=1

Exemple 18. Soit une urne contenant quatre boules blanches et trois boules noires. On tire
une à une et sans remise trois boules de l’urne. Quelle est la probabilité que la première boule
tirée soit blanche, la deuxième blanche et la troisième noire ?

Notons Bi l’événement "la iième boule tirée est blanche" et Ni l’événement "la iième boule tirée
est noire". La probabilité recherchée s’écrit alors P(B1 ∩ B2 ∩ N3 ). Or

P(B1 ∩ B2 ∩ N3 ) = P(B1 ) × P(B2 /B1 ) × P(N3 /B1 ∩ B2 )


4 3 3 6
= × × = .
7 6 5 35

Nous allons maintenant énoncer une première conséquence de la formule des proba-
bilités composées.

Corollaire 1 (Formule des probabilités totales). Soit B un événement. Pour tout événement
A qui ne soit ni quasi impossible (c’est-à-dire P(A) 6= 0) ni quasi certain (c’est-à-dire P(A) 6=
1), on a
P(B) = P(B/A)P(A) + P(B/Ā)P(Ā).

Plus généralement, pour tout système complet d’événements (Ai )i∈I dont aucun des événe-
ments Ai , i ∈ I n’est quasi impossible, on a
X
P(B) = P(B/Ai )P(Ai ).
i∈I

harouna.sangare@mesrs.ml 22 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Remarque 6. Remarquons maintenant qu’on peut écrire de deux manières différentes la pro-
babilité de A ∩ B :

1. P(A ∩ B) = P(B/A)P(A).

2. P(A ∩ B) = P(A/B)P(B).

On en déduit le résultat suivant.

Proposition 6. Soient A et B deux événements qui ne sont pas quasi impossibles. Alors,

P(A/B)P(B)
P(B/A) = .
P(A)

Une conséquence du résultat précédent est une formule très importante due à Thomas
Bayes (1702-1761) . Cette formule est l’une des plus importantes en théorie des proba-
bilités. Elle est très utilisée en classification automatique, par exemple dans le domaine
de la lutte contre le pourriel (en anglais spam) par la méthode dite d’inférence bayé-
sienne.

Proposition 7 (Formule de Bayes). Pour tout événement A qui ne soit pas quasi impossible
et tout événement B qui ne soit ni quasi impossible ni quasi certain, on a

P(A/B)P(B)
P(B/A) = .
P(A/B)P(B) + P(A/B̄)P(B̄)

Plus généralement, pour tout système complet d’événements (Bi )i∈I dont aucun n’est quasi
impossible et tout événement B qui ne soit pas quasi impossible, on a

P(A/Bi )P(Bi )
P(Bi /A) = P .
j∈J P(A/Bj )P(Bj )

Exemple 19. Lors d’une épidémie, on estime que la probabilité de contamination d’un indi-
1
vidu est de 20
. Pour contrer l’épidémie, on a développé un test T pour repérer si un individu
est contaminé ou non. On estime le test fiable à 90%, c’est-à-dire que le résultat du test est
positif (respectivement négatif) sachant que l’individu est contaminé (respectivement n’est pas
9
contaminé) avec une probabilité de 10
.

Quelle est la probabilité qu’un individu soit contaminé sachant que le test est négatif ?

harouna.sangare@mesrs.ml 23 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Notons M l’événement "l’individu est contaminé" et T l’événement "le test est positif". La

probabilité recherchée est P M/T̄ .

 P(T̄ /M )P(M )
P M/T̄ = .
P(T̄ /M )P(M ) + P(T̄ /M̄ )P(M̄ )
1 9
Par hypothèse, P (M ) = 20
,
P(T /M ) = P(T̄ /M̄ ) = 10 . Donc,
9 1

 1 − 10 × 20 1
P M/T̄ = 9
 1 9 1
=
1 − 10 × 20 + 10 × 1 − 20 172

car P(T̄ /M ) = 1 − P(T /M ).

2.5 Indépendance d’événements

Un concept important en théorie des probabilités est la notion d’indépendance d’évé-


nements. Dire que deux événements sont indépendants signifie que la connaissance de
l’information "B est réalisé" ne modifie pas la probabilité de réalisation de A, c’est-à-
dire P(A/B) = P(A). La formule des probabilités composées devient alors :

P(A ∩ B) = P(A/B) · P(B) = P(A) · P(B).

C’est par cette relation que nous définissons l’indépendance de deux événements.

Définition 16. On dit que deux événements A1 et A2 sont indépendants si

P(A1 ∩ A2 ) = P(A1 ) · P(A2 )

Plus généralement, on dit que n événements A1 , · · · , An sont mutuellement indépendants si


n
! n
\ Y
P Ai = P (Ai ) .
i=1 i=1

Exemple 20. Trois tireurs tirent sur une cible. La probabilité que le premier touche la cible est
égale à 34 . Le deuxième touche la cible avec une probabilité égale à 1
10
et le troisième touche la
cible avec une probabilité égale à 21 . On suppose que les tirs des trois tireurs sont mutuellement
indépendants. Quelle est la probabilité que les trois tireurs touchent la cible ?

Notons A l’événement "le premier tireur touche la cible", B l’ événement "le second tireur
touche la cible" et C l’événement "le troisième tireur touche la cible". L’événement D = "les

harouna.sangare@mesrs.ml 24 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

trois tireurs touchent la cible" est égal à A ∩ B ∩ C. Les trois événements A, B et C étant
mutuellement indépendants, la probabilité que D se réalise est égale à

P(D) = P(A ∩ B ∩ C) = P(A) · P(B) · P(C)


3 1 1 3
= × × = .
4 10 2 80

Proposition 8. Soient A et B deux événements indépendants. Alors A et B̄ sont indépendants,


de même que Ā et B̄.

Démonstration. Par définition, A∩B et A∩ B̄ sont deux événements incompatibles dont


la réunion est A. Donc
P(A) = P(A ∩ B) + P(A ∩ B̄).

Les événements A et B étant indépendants, on a donc

P(A) = P(A) · P(B) + P(A ∩ B̄),

soit

P(A ∩ B̄) = P(A) − P(A) · P(B) = P(A) (1 − P(B))

= P(A)P(B̄),

prouvant ainsi que les événements A et B̄ sont indépendants. L’indépendance de Ā et


B̄ se montre en utilisant les calculs suivants :

P(Ā ∩ B̄) = 1 − P(A ∪ B) = 1 − P(A) − P(B) + P(A ∩ B)

= 1 − P(A) − P(B) + P(A) · P(B)

= (1 − P(A)) · (1 − P(B)) = P(Ā)P(B̄).

La proposition précédente peut être étendue au cas de n événements.

Proposition 9. Soient n événements A1 , · · · , An mutuellement indépendants. Alors, les évé-


nements B1 , · · · , Bn où, pour tout i ∈ {1, · · · , n}, Bi = Ai ou Bi = Āi , sont mutuellement
indépendants.

harouna.sangare@mesrs.ml 25 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Exemple 21. Reprenons l’exemple 20. Quelle est la probabilité qu’au moins un des trois tireurs
touche la cible ?

L’événement E="au moins un des trois tireurs touche la cible" est le contraire de l’événement
"aucun des trois tireurs ne touche la cible", qui correspond à l’événement Ā ∩ B̄ ∩ C̄ . Donc
P(E) = 1 − P(Ā ∩ B̄ ∩ C̄). Les événements A, B et C étant mutuellement indépendants, les
événements Ā, B̄, C̄ le sont aussi d’après la proposition 9. Donc,

P(E) = 1 − P(Ā ∩ B̄ ∩ C̄) = 1 − P(Ā)P(B̄)P(C̄)

= 1 − (1 − P(A)) × (1 − P(B)) × (1 − P(C))


1 9 1 9 71
= 1− × × =1− = .
4 10 2 80 80

harouna.sangare@mesrs.ml 26 Dr SANGARE
Chapitre 3

Variables aléatoires réelles

Le concept de variable aléatoire est central en théorie des probabilités. Soient ε une
expérience aléatoire et (Ω, A, P) l’espace de probabilité associé. Il arrive très souvent
qu’à chaque résultat de ε on associe un nombre réel. On définit ainsi une application
X : Ω → R. Etant donnés deux réels a et b, nous serons naturellement amenés à consi-
dérer l’ensemble des résultats ω de Ω tels que X(ω) = a, ou tels que X(ω) < a, ou
encore tels que X(ω) ∈]a, b[. Nous voudrions parler de la probabilité de telle ou telle
situation. Or, dans un espace de probabilité, seuls les événements ont une probabilité.
Nous sommes donc amenés à restreindre le choix des applications de Ω dans R.

Définition 17. Soit (Ω, A, P) un espace de probabilité. On appelle variable aléatoire réelle
(v.a.r) toute application de Ω dans R ayant la propriété suivante : pour tout intervalle I de R,
l’ensemble X −1 (I) = {ω ∈ Ω|X(ω) ∈ I} est un événement de A (il aura donc une probabi-
lité !).

Remarque 7. Traditionnellement, on note X(Ω) l’ensemble des valeurs prises par la variable
aléatoire X définie sur l’espace de probabilité.

Remarque 8. Il est d’usage, en théorie des probabilités, de modifier quelque peu les notations
de la théorie des ensembles. Il faut donc savoir que

a. X −1 ({x}) = {ω ∈ Ω|X(ω) = x} se note {X = x} ;


b. X −1 (] − ∞, a[) = {ω ∈ Ω|X(ω) < a} se note {X < a} ;
c. X −1 (]a, b]) = {ω ∈ Ω|a < X(ω) ≤ b} se note {a < X ≤ b} .

27
Introduction aux calculs de Probabilités Version du 13 avril 2021

Dans ce chapitre, nous n’allons considérer que deux grandes familles de variables aléa-
toires réelles : les variables aléatoires discrètes et les variables aléatoires absolulement
continues. la différence entre ces deux types ne porte pas seulement sur l’ensemble
X(Ω) des valeurs atteintes par X, mais aussi sur les techniques d’étude de ces deux
types de variables aléatoires : calculs de sommes finies ou sommation de séries dans
le cas discrèt, calculs d’intégrales généralisées dans le cas absolument continu. Mais,
avant cela, introduisons un objet mathématique permettant de caractériser une va-
riable aléatoire réelle, à savoir la fonction de répartition.

Définition 18. Soit X une variable aléatoire réelle définie sur un espace de probabilité (Ω, A, P).
On appelle fonction de répartition de X la fonction numérique réelle FX définie par

∀ t ∈ R, FX (t) = P(X ≤ t).

Remarque 9. La fonction de répartition FX d’une variable aléatoire réelle possède les propriétés
suivantes :

1. FX est une fonction croissante de R dans [0; 1];

2. limt→−∞ FX (t) = 0 et limt→+∞ FX (t) = 1. et FX est continue à droite et admet une


limite à gauche en tout point de R.

Nous allons dans la suite expliquer comment la fonction de répartition peut s’exprimer
en fonction de ce qu’on appellera la loi de X.

3.1 Variables aléatoires réelles discrètes

Une variable aléatoire réelle X définie sur un espace de probabilité (Ω, A, P) est dite
discrète si l’ensemble de ses valeurs, noté X(Ω), est au plus dénombrable, c’est à dire
un ensemble ayant un nombre fini d’éléments ou dénombrable.

Pour introduire ce que l’on nomme loi d’une variable aléatoire réelle discrète, nous
allons considérer un exemple simple d’expérience aléatoire.

harouna.sangare@mesrs.ml 28 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Exemple 22. La première expérience aléatoire que nous considérons est celle consistant à lan-
cer deux dés équilibrés de couleur différente et à observer les faces supérieures de ces dés. L’uni-
vers Ω associé à cette expérience aléatoire est {1, 2, 3, 4, 5, 6}2 . On suppose tous les résultats
équiprobables. On note alors X(ω) la somme i + j des résultats obtenus pour chaque résultat
ω = (i, j) de l’expérience aléatoire. On définit ainsi une application de Ω dans N. Par exemple,
si ω = (2, 1), X(ω) = 2 + 1 = 3. On peut résumer toutes les valeurs possibles de X dans un
tableau à six lignes et six colonnes.

+ 1 2 3 4 5 6

1 2 3 4 5 6 7

2 3 4 5 6 7 8

3 4 5 6 7 8 9

4 5 6 7 8 9 10

5 6 7 8 9 10 11

6 7 8 9 10 11 12

On voit sur ce tableau que l’ensemble des valeurs prises par X, noté X(Ω), est l’ensemble
{2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. Déterminer la fonction de répartition de X consiste alors à éva-
luer la probabilité de chaque événement {X ≤ k} , k ∈ X(Ω), qui représente l’ensemble des
résultats (i, j) de l’expérience aléatoire pour lesquels i + j ≤ k. Une approche alternative
consiste à considérer les événements {X = k} et à évaluer leurs probabilités, dont les valeurs
sont données ci-dessous

k 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P({X = k}) 36 36 36 36 36 36 36 36 36 36 36

À partir de ces valeurs, on peut alors calculer la probabilité de n’importe quel événement de la
forme {X ∈ I} = {ω ∈ Ω|X(ω) ∈ I} , où I désigne une partie de X(Ω). La probabilité d’un
tel événement se calcule simplement en utilisant la relation suivante

{X ∈ I} = ∪k∈I {X = k} .

Par exemple

5 6 5 4
P(X ∈ {6, 7, 8}) = P(X = 6) + P(X = 7) + P(X = 8) = + + = .
36 36 36 9

harouna.sangare@mesrs.ml 29 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Mais, surtout, se donner l’ensemble des probabilités {P({X ≤ k}), k ∈ X(Ω)} est équivalent
à se donner l’ensemble des probabilités {P({X = k}), k ∈ X(Ω)} puisque

X
P({X ≤ k} = P(X = i).
i≤k

Définition 19. Soit X une variable aléatoire réelle définie sur un espace de probabilité (Ω, A, P).
On dit que X est discrète si X(Ω) est au plus dénombrable. De plus, on appelle loi de X la don-
née d’une suite numérique (px )x∈X(Ω) telle que

1. ∀ x ∈ X(Ω), px ≥ 0;
P
2. x∈X(Ω) px = 1;
P P
3. pour tout réel t, P (X ≤ t) = x≤t px où x≤t désigne la sommation sur l’ensemble des
x ∈ X(Ω) qui sont inférieurs ou égaux à t (si cet ensemble est vide, alors la somme est
nulle !).

Exemple 23. Un grossiste estime que la demande en tonnes de ses clients est une variable
aléatoire X à valeurs dans {0, 1, 2, 3, 4, 5} dont la loi est la suivante

k 0 1 2 3 4 5

P(X = k) 0, 05 0, 15 a 0, 35 0, 15 0, 1

Déterminons a pour qu’on ait une loi de probabilité. Par définition


5
X
P(X = k) = 1 ⇔ 0, 05 + 0, 15 + a + 0, 35 + 0, 15 + 0, 1 = 1
k=0

=⇒ a = 0, 2.

L’événement "la demande est inférieure ou égale à deux tonnes" se note {X ≤ 2} et vaut

P(X ≤ 2) = P(X = 0) + P(X = 1) + P (X = 2) = 0, 4.

Les événements "la demande est supérieure ou égale à trois tonnes" et "la demande est stricte-
ment comprise entre une tonne et trois" se notent respectivement {X ≥ 3} et {1 < X < 3} .
Elles valent respectivement

P(X ≥ 3) = P(X = 3) + P(X = 4) + P(X = 5) = 0, 6

harouna.sangare@mesrs.ml 30 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

et
P(1 < X < 3) = P(X = 2) = 0, 2.

L’événement "la demande est inférieure à une tonne et demie" se note {X < 1, 5} et vaut

P(X < 1, 5) = P(X = 0) + P(X = 1) = 0, 2.

3.1.1 Espérance d’une variable aléatoire réelle discrète

Définition 20. Soit X une variable aléatoire discrète définie sur un espace de probabilité
(Ω, A, P). Supposons que l’ensemble des valeurs atteintes par X puisse s’écrire X(Ω) = {x1 , x2 , · · · , xn , · · · }.
On dit que X possède une espérance si la série +∞
P
n=0 xn P (X = xn ) est absolument conver-

gente (c’est à dire la série +∞


P
n=0 |xn | P (X = xn ) est convergente). On appelle alors espérance

de X le nombre E(X) défini par


+∞
X
E(X) = xn P(X = xn ).
n=0

Remarque 10. L’espérance E(X) apparaît donc comme la moyenne (au sens statistique du
terme) des valeurs xn affectées des masses P(X = xn ). C’est pour cette raison qu’on utilise
parfois le terme valeur moyenne de X pour désigner l’espérance d’une variable aléatoire X.

Exemple 24. Reprenons l’exemple 23. L’espérance de X est égale à


5
X
E(X) = kP(X = k) = 0 × 0, 05 + 1 × 0, 15 + · · · + 5 × 0, 1 = 2, 7.
k=0

La demande moyenne des clients du grossiste est donc égale à 2, 7 tonnes.

3.2 Variables aléatoires réelles absolument continues

Dans cette section, nous considérons des variables aléatoires réelles dont l’ensemble
des valeurs X(Ω) contient au moins un intervalle I de R.

Définition 21. Soit X une variable aléatoire à valeurs dans R définie sur un espace de proba-
bilité (Ω, A, P). On dit que X est une variable aléatoire réelle absolument continue s’il existe
une fonction numérique f telle que

harouna.sangare@mesrs.ml 31 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

1. ∀x ∈ R, f (x) ≥ 0;

2. f est continue sur R, sauf éventuellement en un nombre fini de points où elle admet une
limite finie à gauche et à droite ;
R +∞
3. −∞
f (x)dx = 1;
Rt
4. la fonction de répartition est donnée par : ∀t ∈ R, FX (t) = P(X ≤ t) = −∞
f (x)dx.

On appelle alors f une densité de probabilité de X.

NB : La connaissance d’une densité de probabilité permet de déterminer la probabilité


de n’importe lequel des événements {X ≤ t} , {s ≤ X ≤ t} , ou {X ≥ t} , t ∈ R :
Z t Z +∞
P(s ≤ X ≤ t) = f (x)dx = FX (t) − FX (s), P(X ≥ t) = f (x)dx = 1 − FX (t).
s t

Exemple 25. Soient a ∈ R∗+ et X la variable aléatoire absolument continue de loi de densité f
définie par

 ax(4 − x) si 0 ≤ x ≤ 4
f (x) =
 0 sinon.
Déterminons la valeur de a qui fait de f une densité de probabilité.
Z +∞ Z +∞ Z 4
1= f (x)dx = ax(4 − x)dx = ax(4 − x)dx
−∞ −∞ 0

4
x3

2 3
= a 2x − ⇒a= .
3 0 32
Déterminons sa fonction de répartition. Pour 0 ≤ t ≤ 4, on a
t t t
x3
Z Z 
3 3 2
P(X ≤ t) = f (x)dx = x(4 − x)dx = 2x −
−∞ 0 32 32 3 0

t3
 
3 2
= 2t − .
32 3
La fonction de répartion est ainsi définie par




 0 si t < 0
  
FX (t) = 3 2 t3
32
2t − 3
si 0 ≤ t ≤ 4



1 si t > 4.

harouna.sangare@mesrs.ml 32 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

3.2.1 Espérance d’une variable aléatoire réelle absolument continue

Définition 22. Soit X une variable aléatoire absolument continue à valeurs dans R de densité
R +∞
de probabilité f. On dit que X admet une espérance si l’intégrale −∞ |x| f (x)dx est conver-
R +∞
gente. On appelle alors espérance de X, notée E(X), la valeur de l’intégrale −∞ xf (x)dx.

Exemple 26. Reprenons l’exemple 25. L’espérance mathématique est égale à


Z +∞ Z 4
3 2
E(X) = xf (x)dx = x (4 − x)dx
−∞ 0 32
 4
4
3 4 3 x
= x − = 2.
32 3 4 0

3.3 Variance

Pour mesurer la dispersion des valeurs d’une variable aléatoire X autour de son es-
pérance, on utilise une quantité appelée variance de X et définie de la manière qui
suit :

Définition 23. Soit X une variable aléatoire réelle discrète ou absolument continue définie sur
un espace de probabilité (Ω, A, P) et ayant une espérance E(X). Alors, on dit que la variable
aléatoire réelle X admet une variance si la variable aléatoire réelle (X − E(X))2 admet une
espérance. La variance de X, que l’on note Var(X), est alors définie par

Var(X) = E (X − E(X))2 .


Lorsqu’une variable aléatoire X admet une variance, on appelle écart-type de X, noté σ(X), la
p
valeur de Var(X).

Généralement, on ne calcule pas directement la variance d’une variable aléatoire. On


utilise ce qu’on appelle le moment d’ordre 2 d’une variable aléatoire réelle.

Définition 24. Soit X une variable aléatoire réelle discrète ou absolument continue définie sur
un espace de probabilité (Ω, A, P) . Alors, avec les notations précédentes, on dit que la variable
aléatoire X admet un moment d’ordre 2 si et seulement si la variable aléatoire X 2 admet une
espérance.

harouna.sangare@mesrs.ml 33 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

La variance d’une variable aléatoire réelle discrète X s’exprime alors en fonction de


son espérance et de son moment d’ordre 2 (théorème de Koening-Huyghens).

Proposition 10. Soit X une variable aléatoire réelle discrète ou absolument continue définie
sur un espace de probabilité (Ω, A, P) . Supposons qu’elle admette un moment d’ordre 2 ; alors,
elle possède une espérance et une variance. De plus, on a

Var(X) = E(X 2 ) − (E(X))2 .

Exemple 27. Le moment d’ordre 2 de la variable aléatoire définie dans l’exemple 23 est égale à
5
X
2
E(X ) = k 2 P (X = k) = 02 × 0, 05 + 12 × 0, 15 + · · · + 52 × 0, 1 = 9.
k=0

La variance de X est donc égale à

Var(X) = E(X 2 ) − (E(X))2 = 9 − (2, 7)2 = 1, 71.

Exemple 28. Le moment d’ordre 2 de la variable aléatoire définie dans l’exemple 25 est égale à
Z +∞ Z 4
2 2 3 3
E(X ) = x f (x)dx = x (4 − x)dx
−∞ 0 32
Z 4 4
x5

3 3 4 3 4 24
= (4x − x )dx = x − = .
0 32 32 5 0 5

La variance de X est donc égale à

24 4
Var(X) = E(X 2 ) − (E(X))2 = − (2)2 = .
5 5

Remarque 11. La variance d’une variable aléatoire réelle est toujours positive ou nulle et la
variance d’une constante est égale à 0.

Un cas particulier mais important est celui où l’on considère l’image d’une aléatoire
réelle X par une fonction affine.

Proposition 11. Soit X une variable aléatoire réelle discrète ou absolument continue admet-
tant une espérance E(X) et une variance Var(X). Soit Y la variable aléatoire réelle définie par
Y = aX + b où a et b sont deux réels. Alors Y admet une espérance et une variance. De plus,
E(Y ) = aE(X) + b et Var(Y ) = a2 Var(X).

harouna.sangare@mesrs.ml 34 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Définition 25. Soit X une variable aléatoire réelle discrète ou absolument continue admet-
tant une espérance E(X) et une variance Var(X). On appelle version centrée réduite de X la
variable aléatoire réelle Z définie par

X − E(X)
Z= p .
Var(X)

Alors Z admet une espérance et une variance. De plus, on a

E(Z) = 0 et Var(Z) = 1.

3.4 Couples de variables aléatoires

Définition 26. Soient X et Y deux variables aléatoires respectivement définies sur X(Ω) et
Y (Ω). Alors le couple (X, Y ) est une variable aléatoire sur X(Ω) × Y (Ω), dont la loi est la
donnée de
P [(X, Y ) = (x, y)] ∀ (x, y) ∈ X(Ω) × Y (Ω).

→ Dans le cas de variables aléatoires discrètes, X(Ω) = {x1 , x2 , · · · , xn , · · · } et Y (Ω) =


{y1 , y2 , · · · , yn , · · · }. Alors la loi du couple (X, Y ) est entièrement déterminée par la
famille des pij telles que :

pij = P (X = xi , Y = yj ) ∀i, j.

→ Dans le cas de variables aléatoires continues, la loi du couple (X, Y ) est naturelle-
ment décrite par une fonction de densité à deux entrées :

(X, Y ) 7−→ fX,Y (x, y) = P (X = x, Y = y) .

3.4.1 Lois marginales

Définition 27. On appelle lois marginales du couple (X, Y ) les lois des deux variables aléa-
toires X et Y déduites de la loi du couple.

harouna.sangare@mesrs.ml 35 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Ces formules sont :

→ dans le cas discret :

X X
∀xi ∈ X(Ω) : P (X = xi ) = P (X = xi , Y = yj ) = pij = pi·
j j

X X
∀yi ∈ Y (Ω) : P (Y = yi ) = P (X = xi , Y = yj ) = pij = p·j
i i

→ dans le cas continu :


Z Z
∀x ∈ R : P (X = x) = P (X = x, Y = y) dy = fX,Y (x, y) dy = fX (x)
y∈R y∈R
Z Z
∀y ∈ R : P (Y = y) = P (X = x, Y = y) dx = fX,Y (x, y) dx = fY (y)
x∈R x∈R

3.4.2 Lois conditionnelles

Définition 28. On appelle loi conditionnelle de X conditionnée par (Y = y) la loi définie par

P [(X, Y ) = (x, y)]


x 7−→ P (X = x/Y = y) = .
P (Y = y)

C’est à dire

→ dans le cas discrèt

P (X = xi , Y = yj ) pij
∀xi ∈ X(Ω), ∀yi ∈ Y (Ω) : P (X = xi /Y = yj ) = =
P (Y = yj ) p·j

→ dans le cas continu

fX,Y (x, y)
∀x ∈ R, ∀y ∈ R : P (X = x/Y = y) = = fX/Y =y (x) .
fY (y)

Remarque 12. La fonction : x 7−→ E(Y /X = x), s’appelle fonction de régression de Y en X,


avec
Z +∞ Z +∞
fX,Y (x, y)
E(Y /X = x) = yfY /X=x (x) dy = y dy.
−∞ −∞ fX (x)

harouna.sangare@mesrs.ml 36 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

3.4.3 Indépendance

Définition 29. X et Y sont deux variables indépendantes si et seulement si

∀ (x, y) ∈ X(Ω) × Y (Ω) : P ((X, Y ) = (x, y)) = P (X = x) × P (Y = y) .

Par inférence, lorsque X et Y sont deux variables aléatoires indépendantes, alors pour toutes
fonctions h1 et h2 continues de R2 dans R

E [h1 (X) · h2 (Y )] = E [h1 (X)] × E [h2 (Y )] .

En particulier, E (X · Y ) = E (X) × E (Y ) (la réciproque est fausse).

3.4.4 Moments d’un couple

Définition 30. Soit h une fonction continue de R2 dans R. L’espérance mathématique de Z =


h (X, Y ) est définie :

→ pour X et Y variables aléatoires discrètes, par :


XX
E [h (X, Y )] = h (xi , yj ) × pij
i j

→ pour X et Y variables aléatoires continues, par :


Z Z
E [h (X, Y )] = h (x, y) × f (x, y) · dx · dy
R R

3.4.5 Covariance et coefficient de corrélation

Définition 31. On appelle covariance de X et Y le nombre

Cov (X, Y ) = E [(X − E (X)) · (Y − E (Y ))]

= E (X · Y ) − E (X) · E(Y ).

En vertu de l’implication [X et Y sont indépendantes =⇒ E (X · Y ) = E (X) · E(Y )] ,


on a : si X et Y sont indépendantes alors Cov (X, Y ) = 0 (la réciproque est fausse).
En particulier
Var(X + Y ) = Var(X) + Var(Y ) + 2Cov (X, Y ) .

harouna.sangare@mesrs.ml 37 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Si X et Y sont indépendantes (ou non corrélées) alors

Var(X + Y ) = Var(X) + Var(Y ).

Plus généralement, pour des variables aléatoires X1 , · · · , Xn , on a


n
! n
X X X
Var Xi = Var(Xi ) + Cov(Xi , Xj ).
i=1 i=1 i6=j

En particulier si les X1 , · · · , Xn sont indépendantes, alors


n
! n
X X
Var Xi = Var(Xi ).
i=1 i=1

La version "normalisée" de la covariance est le coefficient de corrélation, noté ρX,Y . Il


permet de mesurer le degré de dépendance des deux variables aléatoires

Cov (X, Y )
Corr (X, Y ) = ρX,Y = .
σ(X) × σ(Y )

ρX,Y ∈ [−1, 1] . En particulier, plus le coefficient de corrélation est proche de 1 en valeur


absolue, plus le comportement conjoint des variables aléatoires se rapproche d’une
relation linéaire. Le coefficient de la liaison linéaire qui approxime la relation entre les
deux variables est de même signe que le coefficient de corrélation ρX,Y .

Selon le signe et la valeur absolue de ce coefficient, on dit que les variables sont plus
ou moins corrélées ou anticorrélées.

harouna.sangare@mesrs.ml 38 Dr SANGARE
Chapitre 4

Lois de probabilité usuelles

Ce chapitre est consacré à la présentation de quelques variables aléatoires réelles dis-


crètes et absolument continues classiques, en indiquant pour chacune leurs paramètres
fondamentaux : moyenne et variance.

4.1 Loi uniforme discrète

On dit qu’une variable aléatoire X suit une loi uniforme discrète sur {1, 2, · · · , n} si
elle prend des valeurs entières entre 1 et n et si sa loi de probabilité est

1
∀k ∈ {1, 2, · · · , n} , P (X = k) = .
n

L’espérance et le moment d’ordre 2 de X sont égaux à


n n  
X 1X 1 n(n + 1) n+1
E (X) = kP (X = k) = k= × = ,
k=1
n k=1 n 2 2

n n
2
 X
2 1X 2
E X = k P (X = k) = k
k=1
n k=1
 
1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
= × = .
n 6 6

La variance de X est alors égale à

n2 − 1
Var (X) = E X 2 − (E (X))2 =

.
12

39
Introduction aux calculs de Probabilités Version du 13 avril 2021

4.2 Loi de Bernoulli

On dit qu’une variable X suit une loi de Bernoulli de paramètre p, p ∈]0; 1[, si X(Ω) =
{0, 1} et si sa loi de probabilité est

 P (X = 1) = p
 P (X = 0) = 1 − p.

L’espérance et le moment d’ordre 2 de X sont égaux à

E (X) = 0 × (1 − p) + 1 × p = p

E X 2 = 02 × (1 − p) + 12 × p = p.


La variance de X est ainsi égale à

Var (X) = E X 2 − (E (X))2 = p − p2 = p (1 − p) .




Le modèle probabiliste classique associé est le lancer d’une pièce de monnaie donnant
pile avec probabilité p et face avec 1 − p. Si l’on définit la variable aléatoire X par X = 1
si le lancer amène pile et X = 0 si le lancer amène face, la variable X ainsi définie suit
une loi de Bernoulli de paramètre p.

4.3 Loi binomiale

On dit qu’une variable aléatoire X suit une loi binomiale de paramètres n ∈ N et p


∈]0, 1[ si X(Ω) = {1, 2, · · · , n} et si sa loi de probabilité est

∀k ∈ {1, 2, · · · , n} , P (X = k) = Cnk pk (1 − p)n−k .

Ce modèle sert généralement lorsqu’on s’intéresse au nombre de succès obtenus lors


d’une succession de n essais indépendants d’une expérience aléatoire n’ayant que deux
issues possibles : le succès avec une probabilité p et l’éhec avec une probabilité 1 − p.

L’espérance et la variance sont égales à

E (X) = np et Var (X) = np (1 − p) .

harouna.sangare@mesrs.ml 40 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Pour calculer l’espérance et la variance de X, rappelons l’identité suivante (formule du


binôme de Newton) :
n
X
n
(x + y) = Cnk xk y n−k .
k=0

En dérivant l’expression ci-dessous par rapport à x, on obtient


n
X
n−1
n (x + y) = kCnk xk−1 y n−k
k=0

et en multipliant les deux membres de l’égalité par x, on trouve


n
X
n−1
nx (x + y) = kCnk xk y n−k .
k=0

En prenant x = p et y = 1 − p dans cette dernière égalité, on obtient


n
X
np = kCnk pk (1 − p)n−k = E (X) .
k=0

En dérivant deux fois la formule du binôme de Newton et en multipliant l’égalité ainsi


obtenue par x2 , on obtient
n
X
2 n−2
n(n − 1)x (x + y) = k (k − 1) Cnk xk y n−k .
k=0

Donc
n
X
E (X (X − 1)) = k (k − 1) Cnk xk y n−k = n(n − 1)p2 ,
k=0

dont on en déduit que

E X 2 = E (X (X − 1)) + E (X) = n(n − 1)p2 + np.




La variance de X est donc est égale à

Var(X) = n(n − 1)p2 + np − n2 p2 = np − np2 = np(1 − p).

4.4 Loi géométrique

On dit qu’une variable aléatoire suit une loi géométrique de paramètre p, p ∈]0, 1[ si
X(Ω) = N∗ et si sa loi de probabilité est

∀k ∈ N∗ , P (X = k) = (1 − p)k−1 p.

harouna.sangare@mesrs.ml 41 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

L’espérance et la variance de X sont égales à

1 1−p
E (X) = et Var (X) = .
p p2

Pour obtenir ces valeurs, on utilise l’identité suivante


+∞
X 1
∀t ∈] − 1, 1[, tn = .
n=0
1−t

Les dérivées premières et secondes de cette identité par rapport à t sont


+∞ +∞
X
n−1 1 X 2
∀t ∈] − 1, 1[, nt = 2 et n (n − 1) tn−2 = .
n=0
(1 − t) n=0
(1 − t)3

En prenant t = 1 − p puis en multipliant par p, on obtient


+∞
X 1 1
E (X) = p n (1 − p)n−1 = p =
n=0
p2 p

et
+∞
X
E (X (X − 1)) = p (1 − p) n (n − 1) (1 − p)n−2
n=0
2 2 (1 − p)
= p (1 − p) 3
= ;
p p2

2 (1 − p) 1 2−p
E X 2 = E (X (X − 1)) + E (X) =

2
+ = ;
p p p2
2−p 1 1−p
Var (X) = E X 2 − (E (X))2 =

2
− 2 = .
p p p2
Ce modèle sert généralement lorsqu’on s’intéresse au temps d’attente du premier suc-
cès ( c’est à dire au nombre d’essais nécessaires pour obtenir un succès) lors d’une
succession d’expériences aléatoires indépendantes n’ayant que deux issues possibles :
le succès avec une probabilité p et l’échec avec une probabilité 1 − p.

4.5 Loi de Poisson

On dit qu’une variable aléatoire X suit une loi de Poisson de paramètre λ ∈ R∗+ si
X (Ω) = N et si sa loi de probabilité est

λk
∀k ∈ N, P (X = k) = exp (−λ) .
k!

harouna.sangare@mesrs.ml 42 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

L’espérance et la variance de X sont égales à

E(X) = Var (X) = λ.

Le calcul de l’espérance de X s’effectue ainsi :


+∞ +∞
X λk X λk
E(X) = k exp (−λ) = k exp (−λ)
k=0
k! k=1
k!
+∞ +∞ k
X λk−1 X λ
= λ exp (−λ) = λ exp (−λ)
k=1
(k − 1)! k=0
k!
= λ exp (−λ) × exp (λ) = λ.

Le calcul de la variance s’effectue comme suit :


+∞ +∞
X λk X λk
E (X (X − 1)) = k (k − 1) exp (−λ) = k (k − 1) exp (−λ)
k=0
k! k=2
k!
+∞ +∞ k
X λk−2 X λ
= λ2 exp (−λ) = λ2 exp (−λ)
k=2
(k − 2)! k=0
k!
= λ2 exp (−λ) × exp (λ) = λ2

E X 2 = E (X (X − 1)) + E (X) = λ2 + λ


ainsi on obtient

Var (X) = E X 2 − (E(X))2 = λ2 + λ − λ2 = λ.




Il s’agit là, peut-être, de la plus importante des lois discrètes. La loi de Poisson est
aussi utilisée pour décrire plusieurs catégories de phénomènes dont voici quelques
exemples :

1. nombre de véhicules franchissant un poste de péage pendant une période donnée ;

2. nombre d’appels reçus par un standard téléphonique pendant une période donnée ;

3. nombre de défauts dont est affecté un objet fabriqué en série.

Elle apparaît aussi comme une approximation de la loi binomiale : soit X une variable
aléatoire suivant une loi binomiale de paramètres n et p ; pour n assez grand et p proche
de 0, on peut approcher la loi de X par la loi de Poisson de paramètre λ = np.

Remarque 13. Cette approximation est, en général, utilisée pour n ≥ 30, p ≤ 0, 1, et np ≤ 10.

harouna.sangare@mesrs.ml 43 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

4.6 Loi hypergéométrique

On tire sans remise n objets d’un ensemble de N objets dont N1 possédent une carac-
téristique particulière (et les autres N − N1 ne la possédent pas).

Soit X le nombre d’objets de l’échantillon qui possédent la caractéristique. Alors X suit


une loi hypergéométrique de paramètres n, N , N1 de densité de probabilité

CNk 1 × CNn−k
−N1
P (X = k) = .
CNn

L’espérance et la variance de X sont égales à


  
N1 N1 N1 N −n
E(X) = n et Var (X) = n 1− .
N N N N −1

4.7 Loi de Pascal

La loi de Pascal est la loi de probabilité de la variable aléatoire X qui comptabilise le


nombre d’essais nécessaires avant l’obtention du rième succès, sachant que la probabi-
lité d’un succès est p.

En effet si on exécute une série d’épreuves indépendantes ayant une probabilité p de


donner un succès, 0 < p < 1, jusqu’à obtenir un total de r succès et si on désigne par X
le nombre d’épreuves nécessaires pour atteindre ce résultat, alors

p (1 − p)k−r .
r−1 r
∀k ≥ r, P (X = k) = Ck−1

Cette loi est la loi de Pascal de paramètres r et p. On remarquera qu’une variable géo-
métrique est celle de Pascal de paramètres 1 et p.

L’espérance et la variance de X sont égales à

r r (1 − p)
E(X) = et Var (X) = .
p p2

harouna.sangare@mesrs.ml 44 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

4.8 Loi binomiale négative

Une variable aléatoire X suit une loi binomiale négative (ou de Polya) de paramètres r
et p si sa densité de probabilité est

k
∀k ∈ N, P (X = k) = Ck+r−1 pr (1 − p)k .

L’espérance et la variance de X sont égales à

r (1 − p) r (1 − p)
E(X) = et Var (X) = .
p p2

Cette loi comptabilise le nombre d’échecs nécessaires avant l’obtention du rième succès.

4.9 Loi uniforme continue

Une variable aléatoire X suit une loi uniforme sur un intervalle I = [a; b] de R si et
seulement si sa densité de probabilité est

1

b−a
si x ∈ I
∀x ∈ R, f (x) =
 0 sinon.

L’espérance et la variance de X sont égales à


+∞ b b
x2
Z Z 
x
E (X) = x f (x)dx = dx =
−∞ a b−a 2 (b − a) a
b 2 − a2 (b + a) (b − a) b+a
= = = .
2 (b − a) 2 (b − a) 2

+∞ b b
x2 x3
Z Z 
2 2

E X = x f (x)dx = dx =
−∞ a b−a 3 (b − a) a
3 3 2 2
b −a (b − a) (b + ab + a ) b2 + ab + a2
= = = .
3 (b − a) 3 (b − a) 3

2
b2 + ab + a2

2
 2 b+a
Var(X) = E X − E (X) = −
3 2
2 2 2 2
b + ab + a b + 2ab + a b − 2ab + a2
2
= − =
3 4 12
2 2 2
b − 2ab + a (b − a)
= = .
12 12

harouna.sangare@mesrs.ml 45 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

La loi uniforme sur [0, 1] joue un rôle particulier car des algorithmes permettent la
génération efficace par ordinateur de réalisations (nombres aléatoires) d’une variable
aléatoire qui suit cette loi. Cela permet ensuite de générer des réalisations de variables
aléatoires qui suivent d’autres lois discrètes ou continues. Ceci est à la base des tech-
niques de simulation de processus aléatoires par ordinateur, un outil indispensable
pour la modélisation statistique moderne.

4.10 Loi exponentielle

Une variable aléatoire X suit une loi exponentielle de paramètre λ, λ > 0 si et seule-
ment si sa densité de probabilité est

 λ exp(−λx) si x > 0
∀x ∈ R, f (x) =
 0 sinon.
L’espérance et la variance de X sont égales à
Z +∞ Z +∞
E (X) = x f (x)dx = λx exp(−λx)dx
−∞ 0

en utilisant la technique d’intégration par parties (en posant u = x =⇒ u0 = 1 et


v 0 = λ exp(−λx) =⇒ v = − exp(−λx), on obtient :
Z +∞
E (X) = [−x exp(−λx)]+∞
0 + exp(−λx)dx
0
 +∞
1 1
= − exp(−λx) = .
λ 0 λ
De la même mamière, on trouve
Z +∞ Z +∞
2 2 2
λx2 exp(−λx)dx =

E X = x f (x)dx = .
−∞ 0 λ2
Et finalement
2 1 1
Var(X) = E X 2 − E (X)2 = 2 − 2 = 2 .

λ λ λ
Les lois exponentielles sont souvent utilisées pour modéliser des temps d’attente ou
des durées de vie. Par exemple, les temps d’attente à partir de maintenant du prochain
tremblement de terre, de la prochaine panne d’un appareil, de la prochaine désintégra-
tion dans un réacteur nucléaire suivent des lois exponentielles. Le paramètre λ désigne
alors l’inverse du temps d’attente moyen.

harouna.sangare@mesrs.ml 46 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Remarque 14. Pour tous réels positifs x et h, on a

P (X ≥ x + h/X ≥ h) = P (X ≥ x) .

Cette propriété signifie que la loi exponentielle correspond à la loi de durée de vie sans vieillis-
sement. Réciproquement, une loi de durée de vie sans vieillissement est une loi exponentielle.

4.11 Loi normale (ou gaussienne)

C’est une loi très importante pour plusieurs raisons :

– Elle apparaît dans de nombreux problèmes courants (pour modéliser).


– Bien souvent, on peut approcher une loi par une loi normale.
– De plus, on dispose de la table de ses valeurs à laquelle on se réferre pour des calculs
approchés.

Définition 32. On dit que la variable aléatoire X suit une loi normale N (m, σ 2 ) si elle a pour
densité la fonction !
1 (x − m)2
fm,σ (x) = √ exp − .
2πσ 2 2σ 2
Son espérance est E (X) = m. Sa variance est Var(X) = σ 2 .

Définition 33. La loi normale standard N (0, 1) est celle de densité


 2
1 x
f0,1 (x) = √ exp − .
2π 2

Son espérance est E (X) = 0. Sa variance est Var(X) = 1.

Remarque 15. Cette loi est fondamentale en théorie des probabilités et en statistique : c’est la
loi limite de la moyenne dans une suite infinie d’épreuves répétées indépendantes. En pratique
elle sert à modéliser les effets additifs de petits phénomènes aléatoires indépendants répétés
souvent.

4.11.1 Propriétés

– Si X N (m, σ 2 ) et a ∈ R alors aX N (am, a2 σ 2 ).

harouna.sangare@mesrs.ml 47 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

– Quand on somme des variables aléatoires gaussiennes indépendantes de loi N (m1 , σ12 )
et N (m2 , σ22 ), on obtient une variable aléatoire gaussienne avec pour pararmètres la
somme des paramètres N (m1 + m2 , σ12 + σ22 ).

Plus généralement quand X1 , X2 , · · · , Xn sont n variables aléatoires indépendantes de


loi N (m, σ 2 ), alors
σ2
 
X1 + · · · + Xn
N m, .
n n
Notez encore qu’on peut facilement passer d’une loi normale à la loi standard.

X−m
Proposition 12. Si la variable aléatoire X suit une loi N (m, σ 2 ), alors Z := σ
suit la loi
N (0, 1).

La variable aléatoire Z s’appelle la variable aléatoire centrée réduite associée à X. En


fait, pour faire des calculs effectifs de probabilité, grâce à ce résultat, on commencera
systématiquement par se ramener d’une loi normale quelconque N (m, σ 2 ) à la loi nor-
male standard N (0, 1). On pourra alors utiliser la table des valeurs pour cette loi.

4.11.2 Règle de calcul de probabilités

Dans l’utilisation de la table de la loi normale standard N (0, 1), on aura des calculs de
probabilités à faire. On les fera avec les règles suivantes :

P (X = a) = 0

P (X < a) = P (X ≤ a)

P (X > a) = 1 − P (X ≤ a)

P (X ≤ −a) = P (X ≥ a) = 1 − P (X < a)

P (−a ≤ X ≤ a) = 2P (X ≤ a) − 1.

Les trois premières règles sont vraies pour toute variable aléatoire X à densité (car
pour ces lois les points sont négligeables). Les deux dernières sont vraies pour toute
loi symétrique (c’est à dire avec densité paire : f (−x) = f (x)).

Table de la loi N (0, 1)

harouna.sangare@mesrs.ml 48 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

La table de la loi N (0, 1) permet deux choses pour une variable aléatoire Z centrée
réduite :

1. Connaissant la valeur de z ≥ 0, trouver la valeur de P (Z ≤ z) ;

2. Connaissant la valeur d’une probabilité P (Z ≤ z) , trouver la valeur de z corres-


pondant.

Objectif. En général, on souhaite calculer des probabilités du type

P (X > x) , P (X < x) , P (|X| > x) , P (x < X < y)

lorsque X suit une loi normale N (m, σ 2 ) pas nécessairement centrée réduite.

Etape 1 : Réexprimer les probabilités à calculer avec la variable aléatoire centrée réduite
X−m
Z := σ
.

Etape 2 : Via les règles ci-dessus, se ramener à des probabilités du type P (Z ≤ z) pour
certain z.

Etape 3 : Utiliser la table de la loi normale standard.

Exemple 29. Si X N (3, 0.25), calculer P (X > 3.5) .

D’abord on centre et on réduit, pour obtenir une variable aléatoire Z N (0, 1)

X −3
Z := √ .
0.25

On remarque ensuite l’égalité d’événements suivante

{X > 3.5} = {Z > 1}

puis
P (Z > 1) = 1 − P (Z ≤ 1)

enfin, on cherche P (Z ≤ 1) à partir de la table de la fonction de répartition de la loi N (0, 1).


On trouve
P (X > 3.5) = P (Z > 1) = 1 − 0.8413447 = 0.16.

harouna.sangare@mesrs.ml 49 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

Exemple 30. Si X N (3, 0.25) et si P (X > t) = 0.6, calculer t.

On a
 
t−3
P Z>z= √ = 0.6.
0.25
En passant au complémentaire, on trouve

P (Z ≤ z) = 1 − 0.6 = 0.4

et on obtient la valeur de z, à partir de la table des quantiles de la loi N (0, 1),

t−3
−0.2533471 = z = √ =⇒ t = 2.873.
0.25

4.11.3 Approximation par la loi normale

Un résultat général de probabilité (le théorème central limite) justifie l’approximation


de certaines lois par des lois normales. On utilisera par la suite les deux approximations
de loi suivantes :

Loi de X Loi approchée de X conditions requises

Binomiale(n, p) N (np, np(1 − p)) n ≥ 30, np > 10, np(1 − p) > 10

Poisson(λ) N (λ, λ) λ > 10

Correction de continuité. Lorsque l’on approche une loi discrète par une loi à densité,
il convient de faire une correction de continuité que l’on peut résumer avec la formule
suivante : pour toutes les vaeurs xi de X,

Pdiscrète (X = xi ) ' Pà densité (xi − 0.5 ≤ X ≤ xi + 0.5) .

4.11.4 Lois dérivées de la loi normale

Parfois d’autres lois que la loi normale sont utililes dans les approximations (les calculs
d’intervalle de confiance, de test). Ce sont les lois de Student, du Khi deux (χ2 ) et de
Fisher-Snedecor. Ces lois dépendent d’un paramètre n entier, appelé degré de liberté
(d.d.l).

harouna.sangare@mesrs.ml 50 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

De même que pour la loi normale N (0, 1), on disposera des tables pour ces lois. Les
mêmes règles de calcul que pour la loi normale s’appliqueront pour réexprimer les
probabilités qu’on cherchera en des probabilités disponibles dans ces tables.

Loi du χ2 de Pearson

Définition 34. Soit X1 , X2 , · · · , Xi, , · · · , Xn , n variables normales centrées réduites, on ap-


pelle χ2 la variable aléatoire définie par
n
X
χ2 = X12 + X22 + · · · + Xi2 + · · · + Xn2 = Xi2 .
i=1

On dit que χ2 suit une loi de Pearson à n degrés de liberté (d.d.l), de fonction densité de proba-
bilité de la forme
 2
 C(n)χ2 n2 −1 e− χ2 si χ2 > 0 avec C(1) = √1

f χ2 =

 0 si χ2 ≤ 0.

Pour n > 1, on utilise la table du Khi deux.


R +∞
Remarque 16. La constante C(n) est telle que −∞
f (x)dx = 1. La distribution du χ2 est
dissymétrique et tend à devenir symétrique lorsque n augmente en se rapprochant de la distri-
bution normale à laquelle elle peut être assimilée lorsque n > 30.

La Loi du χ2 de Pearson trouve de nombreuses applications dans le cadre de la com-


paraison de proportions, des tests de conformité d’une distribution observée à une
distribution théorique et le test d’indépendance de deux caractères qualitatifs. Ce sont
les tests du Khi deux.

L’espérance de la variable du χ2 est :

E χ2 = n


Pn
car par définition E (χ2 ) = i=1 E (Xi2 ) , avec Xi variable normale centrée réduite,
or Var(Xi ) = E (Xi2 ) − (E (Xi ))2 = 1 pour la variable normale centrée réduite avec
E (Xi ) = 0 d’où E (Xi2 ) = 1 et donc E (χ2 ) = n.

harouna.sangare@mesrs.ml 51 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

La variance de la variable du χ2 est :

Var χ2 = 2n


car par définition les Xi variables normales centrées réduites étant indépendantes,
2
Var (χ2 ) = ni=1 Var (Xi2 ) et d’autre part Var (Xi2 ) = E (Xi4 ) − (E (Xi2 )) or E (Xi4 ) = 3
P

d’où Var (Xi2 ) = 2 ainsi Var (χ2 ) = 2n.

Loi de Student

Définition 35. Soient U une variable aléatoire suivant une loi normale réduite N (0, 1) et V
une variable aléatoire suivant une loi de pearson à n degrés de liberté χ2 (n), U et V étant
indépendantes, on dit alors que Tn = √UV suit une loi de student à n degrés de liberté, de
n

densité de probabilité
− (n+1)
T2
 2
f (T ) = C(n) 1 + .
n
R +∞
Remarque 17. La constante C(n) est telle que −∞ f (x)dx = 1. La distribution de T de
Student est sysmétrique et peut être approchée par la loi normale N (0, 1) lorsque n > 30.

La loi de Student est utilisée lors des tests de comparaison de paramètres comme la
moyenne et dans l’estimation de paramètres de la population à partir de données sur
un échantillon (test de Student).

L’espérance et la variance de la variable de Student sont égales à

n
E (T ) = 0 si n > 1 et Var (T ) = si n > 2.
n−2

Loi de Fisher-Snedecor

Définition 36. Soient U et V deux variables aléatoires indépendantes suivant une loi du Khi
U/n
deux respectivement à n et m degrés de liberté . On dit que F(n,m) = V /m
suit une loi de
Fisher-Snedecor à (n, m) degrés de liberté, de densité de probabilité

 C(n, m)F n2 −1 (m + nF )−( m+n 2 ) si F > 0

f (F ) =
 0 si F ≤ 0.

harouna.sangare@mesrs.ml 52 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

R +∞
Remarque 18. La constante C(n, m) est telle que −∞
f (x)dx = 1. Si n = 1, alors on a la
U
relation suivante : F(1,m) = V /m
= Tm .

L’espérance et la variance de la variable de Fisher-Snedecor sont égales à

m 2m2 (n + m − 2)
E (F ) = si m > 2 et Var (F ) = si m > 4.
m−2 n(m − 2)2 (m − 4)

4.12 Loi de Pareto

Cette loi a été introduite pour modéliser la distribution de revenus supérieurs à un


seuil donné, puis s’est avérée utile pour d’autres phénomènes (par exemple la distribu-
tion de la taille de grains de sable passés au travers d’un tamis). Elle a deux paramètres
strictement positifs : le paramètre de seuil a et un paramètre de forme θ. La fonction de
densité est : 
θ a θ+1


a x
si x ≥ a
f (x) =
 0 sinon.
L’espérance et la variance de la variable sont égales à

θa θa2
E (X) = si θ > 1 et Var (X) = si θ > 2.
θ−1 (θ − 1)2 (θ − 2)

4.13 Loi gamma

Définition 37. X suit la loi gamma de paramètres λ, t > 0, X ∼ gamma(λ; t), si sa densité de
probabilité est

1

Γ(t)
λt xt−1 exp(−λx) si x ≥ 0
f (x) =
 0 sinon
où Γ est la fonction gamma définie par
Z +∞
Γ(t) = xt−1 exp(−x)dx et Γ(t + 1) = t! = tΓ(t) si t ∈ N∗ .
0

1
Lorsque λ = 2
et t = 21 d, d un entier, on dit que X suit la loi du Khi deux à d degrés de liberté.

harouna.sangare@mesrs.ml 53 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

L’espérance et la variance de la variable gamma sont égales à


Z +∞ Z +∞
λt t−1 λt
E (X) = x · x exp(−λx)dx = x(t+1)−1 exp(−λx)dx
Γ(t) 0 Γ(t) 0
t+1 Z +∞
λ Γ(t + 1)
= × x(t+1)−1 exp(−λx)dx
λΓ(t) Γ(t + 1) 0
Z +∞
Γ(t + 1) 1
= × λt+1 x(t+1)−1 exp(−λx)dx
λΓ(t) 0 Γ(t + 1)
Γ(t + 1) tΓ(t) t
= = = .
λΓ(t) λΓ(t) λ

En procédant comme pour l’espérance, on trouve

 Γ(t + 2) t(t + 1)
E X2 = 2 = .
λ Γ(t) λ2

Par conséquent,
 2
t(t + 1) t t
Var (X) = − = 2.
λ2 λ λ
Les distributions Gamma sont utilisées pour modéliser une grande variété de phéno-
mènes, et tout particulièrement les phénomènes se déroulant au cours du temps où par
essence, le temps écoulé est une grandeur réelle positive ; c’est le cas par exemple dans
l’analyse de survie.

4.14 Loi beta

Définition 38. X suit une loi beta de paramètres a; b > 0, X ∼ beta(a; b), si sa densité de
probabilité est

 1
B(a;b)
xa−1 (1 − x)b−1 si 0 ≤ x ≤ 1
f (x) =
 0 sinon
où B(a; b) est la constante de normalisation. On peut montrer que

Γ(a)Γ(b)
B(a; b) = .
Γ(a + b)

Si a = b = 1, X est uniforme sur [0; 1].

La distribution bêta est très utilisée en statistiques bayesiennes.

harouna.sangare@mesrs.ml 54 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

L’espérance et la variance de la variable gamma sont égales à


Z 1 Z 1
1 b−1 1
E (X) = a−1
x · x (1 − x) dx = x(a+1)−1 (1 − x)b−1 dx
B(a; b) 0 B(a; b) 0
Z 1
1 B(a + 1; b)
= × x(a+1)−1 (1 − x)b−1 dx
B(a; b) B(a + 1; b) 0
B(a + 1; b) 1
Z
1
= x(a+1)−1 (1 − x)b−1 dx
B(a; b) 0 B(a + 1; b)
B(a + 1; b) a
= = .
B(a; b) a+b

En procédant comme pour l’espérance, on trouve

 B(a + 2; b) a (a + 1)
E X2 = =
B(a; b) (a + b) (a + b + 1)

et
 2
a (a + 1) a ab
Var (X) = − = 2 .
(a + b) (a + b + 1) a+b (a + b) (a + b + 1)

4.15 Loi de Weibull

Définition 39. X suit une loi de Weibull de paramètres α, β > 0, si sa densité de probabilité
est 
 αβxβ−1 exp(−αxβ ) si x > 0
f (x) =
 0 sinon.
où β est le paramètre de forme et α le paramètre d’échelle.

– Quand β < 1 la densité décroît depuis +∞. Ce cas correspond à un matériel qui se
bonifie avec le temps.
h  i β1
1 β−1
– Quand β > 1 elle admet un maximum (mode de la loi) au point α β
. Ce cas
correspond à un matériel qui se dégrade avec le temps (usure).
– Lorsque β = 1, on retrouve la distribution exponentielle. Ce cas correspond à un
matériel sans usure (pannes purement accidentelles).

L’espérance et la variance sont égales à


     
Γ 1 + β1 Γ 1 + β2 − Γ2 1 + β1
E (X) = 1 et Var (X) = 2 .
αβ αβ

harouna.sangare@mesrs.ml 55 Dr SANGARE
Introduction aux calculs de Probabilités Version du 13 avril 2021

La loi de Weibull est très populaire dans les modèles statistiques en fiabilité. Elle est
également utilisée, par exemple, pour analyser les signaux reçus par les radars, ou dans
les réseaux de communication sans fil. D’un point de vue plus théorique, elle joue un
rôle important dans l’analyse des valeurs extrêmes lors d’expériences aléatoires.

4.16 Loi de Fisher-Tippett (ou log-Weibull)

C’est une autre loi de modélisation de valeurs extrêmes dont les fonctions de densité
et de répartition sont :

 
1 x−α −( x−α )
f (x) = exp − −e β , x ∈ R.
β β

 
− x−α
FX (x) = exp −e β , x ∈ R (β > 0) .

On montre que sa moyenne est

E (X) = α + γβ, où γ = 0, 577... est la constante d’Euler,

et que sa variance est


π2β 2
Var (X) = .
6
La valeur α correspond à son mode. Elle est liée à la loi limite du maximum d’une série
de n observations quand n tend vers l’infini, pour une grande variété de lois.

4.17 Loi de Gumbel

Il s’agit d’un cas particulier de la loi de Fisher-Tippett pour α = 0 et β = 1.

harouna.sangare@mesrs.ml 56 Dr SANGARE
Bibliographie

[1] J.F. Gueyze, (2006) : Introduction aux probabilités et aux statistiques

[2] J.P. Marco et al., (2007) : Mathématiques L2, cours complet avec 700 tests et exercices corrigés,

Pearson Education France, ISBN : 978-2-7440-7225-3

[3] E. Cantoni, P. Huber et E. Ronchetti, (2009) : Maîtriser l’aléatoire Exercices résolus de probabi-

lités et statistique, 2ème édition

[4] J.P. Lecoutre, (2016) : Statistique et probabilités Cours et exercices corrigés, 6ème édition

[5] B. Legros, (2011) : Mini manuel de mathématiques pour la gestion : Probabilités et Statistique,
c

Dunod, Paris, ISBN 978-2-10-0559011-5

[6] M. Lejeune, (2010) : Statistique : La théorie et ses applications, 2ème édition,


c Springer-Verlag

France, Paris, ISBN : 978-2-8178-0156-8

57

Vous aimerez peut-être aussi