Vous êtes sur la page 1sur 84

UNIVERSITE MOULAY ISMAIL

ECOLE NATIONALE SUPERIEURE


DES ARTS ET DES METIERS MEKNES

COURS DE
CALCUL DES PROBABILITÉS.

Pr. Houda BARKOUKI

Année universitaire : 2021 − 2022


Contents

1 Esapce probabilisé 5

1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Vocabulaire probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.2 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.3 Événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.4 Mesure de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.4.1 Tribu ou σ-algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.4.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2.4.3 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.2.4.4 Notion d’incompatibilité . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.2.4.5 Système complet d’événements . . . . . . . . . . . . . . . . . . . . . 13

1.2.5 Probabilité équidistribuée ou probabilité uniforme . . . . . . . . . . . . . . . . 14

1.3 Indépendance et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1
Contents

1.3.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.3.2 Événements indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.3.3 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.3.4 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Variable aléatoire discrète 32

2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.1.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2 Loi de probabilité ou distribution de probabilité . . . . . . . . . . . . . . . . . . . . . 34

2.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2.4 Moment d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.4.1 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.4.2 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.5 Lois de probabilité discrète usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.5.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.5.2 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.5.3 Loi de poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.5.4 Approximation de la loi binomiale par la loi de poisson . . . . . . . . . . . . . 44

2.5.5 Loi Géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.5.6 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2
Contents

3 Variable aléatoire continue 48

3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.2 Loi de probabilité et fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . 49

3.3 Caractéristiques d’une variable aléatoire continue . . . . . . . . . . . . . . . . . . . . 51

3.4 Lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3.4.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3.4.2 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.4.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.4.3.1 Loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . 56

3.4.3.2 Utilisation de la table de la loi normale centrée réduite . . . . . . . . 57

3.4.3.3 Lien avec la loi normale . . . . . . . . . . . . . . . . . . . . . . . . . 59

3.4.4 Loi Log-Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.4.5 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.4.6 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.4.7 Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4 COUPLE DE VARIABLES ALÉATOIRES 63

4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.2 Couple de v.a. discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4.2.1 Loi d’un couple de variables aléatoires discrètes ou loi conjointe . . . . . . . . 65

4.2.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3
Contents

4.2.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

4.2.4 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

4.2.5 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

4.2.6 Caractéristiques d’un couple de v.a discrètes . . . . . . . . . . . . . . . . . . . 70

4.3 Couple de v.a. continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.3.1 Densité de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.3.2 Lois marginales et lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . 75

4.3.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4.3.4 Loi de la somme et de produit . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

4.3.4.1 Loi de la somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

4.3.4.2 Loi de produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

4.3.5 Loi de Inf(X,Y) et Sup(X,Y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

4.3.6 Fonction de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4.4 Relations entre les principales lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4.5 Convergence et approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.5.1 Théorème Central Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.5.2 Théorème de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

4.5.3 Approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

4
Esapce probabilisé
1
1.1 Introduction

La théorie des probabilités a été originellement motivée par l’analyse des jeux de hasard, notamment
par le jeu de dès et de cartes. C’est à propos de ce type de problèmes que Pascal, Fermat et Bernoulli
ont construit les premiers principes du calcul des probabilités au 16 ème siècle.

Au 18 ème siècle, Laplace et d’autres mathématiciens ont développé une théorie rigoureuse qui a
fait des probabilités une branche particulière des mathématiques et aussi une science très importante.

Les probabilités occupent aujourd’hui une place centrale dans la plupart des sciences. Tout d’abord,
de par ses applications pratiques : en tant que base des statistiques, elle permet l’analyse des données
recueillies lors d’une expérience, lors d’un sondage, etc. ; elle a également conduit au développement
de puissants algorithmes stochastiques pour résoudre des problèmes inabordables par une approche

5
Chapter 1. Esapce probabilisé

déterministe; elle possède en outre de nombreuses applications directes, par exemple en fiabilité, ou
dans les assurances et la finance. D’un côté plus théorique, elle permet la modélisation de nom-
breux phénomènes, aussi bien en sciences naturelles (physique, chimie, biologie, etc.) qu’en sciences
humaines (économie, sociologie, par exemple) et dans d’autres disciplines (médecine, climatologie,
informatique, réseaux de communication, traitement du signal, etc.).

Elle s’est même révélée utile dans de nombreux domaines de mathématiques pures (algèbre, théorie
des nombres, combinatoire, etc.) et appliquées (EDP, par exemple).

Finalement, elle a acquis une place importante en mathématiques de par son intérêt intrinsèque, et,
de par sa versatilité, possède un des spectres les plus larges en mathématiques, allant des problèmes
les plus appliqués aux questions les plus abstraites.

Le concept de probabilité est devenu aujourd’hui familier à tout type de problème dans n’importe
quel domaine. Nous sommes constamment confrontés à des événements dépendant d’un grand nombre
de facteurs hors de notre contrôle ; puisqu’il nous est impossible dans ces conditions de prédire exacte-
ment quel en sera le résultat, on parle de phénomènes aléatoires. Ceci ne signifie pas nécessairement
qu’il y ait quelque chose d’intrinsèquement aléatoire à l’œuvre, mais simplement que l’information à
notre disposition n’est que partielle.

Quelques exemples : le résultat d’un jeu de hasard (pile ou face, jet de dé, roulette, loterie, etc.), la
durée de vie d’un atome radioactif, d’un individu ou d’une ampoule électrique, le nombre de gauchers
dans un échantillon de personnes tirées au hasard; le bruit dans un système de communication; la
fréquence d’accidents de la route, le nombre de SMS envoyés la nuit du 31 décembre, le nombre
d’étoiles doubles dans une région du ciel, la position d’un grain de pollen en suspension dans l’eau,
l’évolution du cours de la bourse, la fiabilité d’un composant électrique, le contrôle de qualité d’une
production, etc.

On peut ainsi définir la théorie de probabilité comme étant une étude des phénomènes aléatoires:
les phénomènes caractérisés par le hasard et l’incertitude, en construisant un modèle mathématique
convenable permettant de bien gérer et maitriser ces phénomènes.

6
Chapter 1. Esapce probabilisé

1.2 Vocabulaire probabiliste

Le but de la théorie des probabilités est de fournir un modèle mathématique pour décrire les phénomènes
aléatoires. Sous sa forme moderne, la formulation de cette théorie contient quatre ingrédients :
l’experience aléatoire, l’univers, les événements, et la mesure de probabilité.

1.2.1 Expérience aléatoire

La définition de la probabilité est toujours liée à la notion d’expérience aléatoire.

Une expérience est dite aléatoire lorsqu’on ne peut en prévoir exactement le résultat. C’est un
processus dans lequel intervient le hasard et qui est susceptible de produire différents résultats ; elle
se caractérise de quatre façons :

1. nous ne pouvons prédire avec certitude le résultat,

2. nous pouvons décrire à priori l’ensemble de tous les résultats possibles,

3. elle peut être répétée,

4. elle a un but précis.

Un événement élémentaire, ou une issue, est un événement qui peut se réaliser ou non au cours
d’une expérience aléatoire. C’est l’un des résultats possible d’une expérience aléatoire.

Exemple :

1. Le jet d’un dé numéroté de 1 à 6 est une expérience aléatoire car le résultat du jet est
imprévisible.

2. Le nombre d’appels téléphoniques dans un central.

3. Position d’une particule en suspension dans un liquide. Sa position à un instant t donné peut
être un point quelconque du liquide.

7
Chapter 1. Esapce probabilisé

1.2.2 Univers

La théorie moderne des probabilités utilise le langage des ensembles pour modéliser une expérience
aléatoire.

L’univers d’une expérience aléatoire, que l’on note habituellement par Ω, est l’ensemble de tous
les résultats possibles, ou les événements élémentaires, de cette expérience. On l’appelle également
l’espace des observables, l’espace échantillon ou encore l’ensemble fondamental.

Exemples

1. Le lancer d’un dé avec six faces : Ω = {1, 2, 3, 4, 5, 6}. Ω est ici fini.

2. Le nombre d’appels téléphoniques: Ω = {0, 1, 2, 3, 4, ...}. Ω est ici infini dénombrable.

3. La position d’une particule dans un liquide: Ω est ici infini non dénombrable.

1.2.3 Événement

En théorie des probabilités, un événement lié à une expérience aléatoire est un sous-ensemble des
résultats possibles pour cette expérience (c’est-à-dire un certain nombre d’événements élémentaires
de l’univers lié à l’expérience).

Un événement étant souvent défini par une proposition, nous devons pouvoir dire, connaissant le
résultat de l’expérience aléatoire, si l’événement a été réalisé ou non au cours de cette expérience.

On dit qu’un événement est réalisé si un des événements élémentaires qui le constitue est réalisé.

Exemple

• Soit l’expérience qui consiste à jeter une pièce de monnaie deux fois et de noter le côté qui
apparaı̂t. Ainsi, l’univers est
Ω = {f f, f p, pf, pp}

8
Chapter 1. Esapce probabilisé

Voici quelques exemples d’événements :

A: ” obtenir face au premier lancer ” = {f f, f p}

B: ” obtenir face au deuxième lancer ” = {f f, pf }

C: ” obtenir le même côté lors des deux lancers ” = {f f, pp}

D: ” obtenir des côtés différents lors des deux lancers ” = {f p, pf }

• Soit l’expérience qui consiste à lance deux fois successivement un dé. Ainsi, l’univers est
Ω = {(m, n) ∈ {1, 2, 3, 4, 5, 6}2 }

Voici quelques exemples d’événements :

A: ” le second lancer est un 6 ” = {(m, 6) : m ∈ {1, 2, 3, 4, 5, 6}}.

B: ” le premier lancer est supérieur au second” : {(m, n) ∈ Ω : m > n}.

C: ” la somme des deux lancers est paire ” : {(m, n) ∈ Ω : 2|(m + n)}.

À l’aide des opérations sur les ensembles, nous pouvons, à partir d’un ou de plusieurs événements,
en former de nouveaux.

Avec ce mode de représentation, les opérations logiques sur les événements : ”et”, ”ou”, ”négation”
se traduisent par des opérations ensemblistes : intersection, réunion, passage au complémentaire.
Voici un tableau de correspondance entre les deux langages

9
Chapter 1. Esapce probabilisé

Notations vocabulaire ensembliste vocabulaire probabiliste


Ω ensemble plein événement certain
∅ ensemble vide événement impossible
ω élément de Ω événement élémentaire
A sous-ensemble de Ω événement
ω∈A ω appartient à A ω réalise A
A⊂B A inclus dans B A implique B
A∪B réunion de A et B A ou B
A∩B intersection de A et B A et B
c
A ou Ā complémentaire de A événement contraire de A
A\B soustraction de deux ensembles A se réalise et B ne se réalise pas

1.2.4 Mesure de probabilité

1.2.4.1 Tribu ou σ-algèbre

Définition.

Une tribu ou σ-algèbre, notée F ⊆ P(Ω) avec P(Ω) représente l’ensemble de toutes les parties de
Ω, est une classe d’événements associée à Ω vérifiant:

1. Ω ∈ F; ∅ ∈ F

2. Si A ∈ F ⇒ Ā ∈ F;
S T
3. Si (An )n∈N ∈ F ⇒ n≥0 An ∈ F et n≥0 An ∈ F.

Le couple (Ω, F) est appelé espace probabilisable ou espace mesurable et A ∈ F est appelé ensemble
mesurable.

Exemple :

• soit Ω = {0, 1, 2}. Construisons P(Ω):

10
Chapter 1. Esapce probabilisé

P(Ω) = {∅, {0}, {1}, {2}, {0, 1}, {0, 2}, {1, 2}, Ω}

• La tribu est dite grossière Si F = {∅, Ω}.

• La tribu est dite discrète si F = P(Ω).

Remarque:

• Si Ω fini ou infini dénombrable, F = P(Ω) est une tribu sur Ω.

• Si Ω infini non dénombrable, on ne peut plus prendre F = P(Ω) (i.e on ne peut plus considérer
que tous les éléments de P(Ω) sont des événements).
Dans ce cas l’ensemble des événements est une partie F de P(Ω) vérifiant certains conditions.

1.2.4.2 Probabilité

La probabilité d’un événement A de F est une valeur numérique qui mesure la chance qu’il a
de se réaliser. Autrement dit, la probabilité est le pourcentage de ”chances” que cet événement
se réalise. Par exemple si un événement a 25 chances sur 100 de se réaliser, on dira que sa probabilité
est de 25% (ou 0,25 ou 1/4).

Cette définition montre que la probabilité est toujours comprise entre 0 et 1, et que la proba-
bilité d’un événement A est la somme des probabilités de chacun des événements élémentaires qui le
constituent. Enfin, la somme des probabilités de tous les éléments de Ω est 1.

Important : rappelons qu’un événement n’est rien d’autre qu’une partie de Ω. Une probabilité
associe à chaque événement un nombre entre 0 et 1. Il s’agit donc d’une application de la tribu F
dans [0, 1].

Définition 1. On appelle probabilité sur Ω, ou aussi une mesure de probabilité, toute application

P : F → [0, 1]

11
Chapter 1. Esapce probabilisé

telle que :

1. 0 ≤ P (A) ≤ 1, pour tout A ∈ F


X S
2. P (A) = P (ω), pour tout événement A = i {ωi } de F.
ω∈A

3. P (Ω) = 1.

n
X n
X
Si Ω = {ω1 , ω2 , . . . , ωn }, on peut poser pi = P (ωi ) et on a P (Ω) = P (ωi ) = pi = 1
i=1 i=1

Ceci permet de donner la définition suivante équivalente à la précédente.

Définition. Une probabilité sur un ensemble Ω = {ω1 , ω2 , . . . , ωn } est la donnée de (p1 , p2 , . . . , pn ) ∈


Xn
n
[0, 1] tel que pi = 1.
i=1

La suite des nombres (p1 , p2 , . . . , pn ) est appelée distribution de probabilité.

1.2.4.3 Espace probabilisé

Définition. On appelle espace probabilisé, ou encore espace de probabilité, le triplé (Ω, F, P )


où Ω est l’ensemble fondamental, F est une tribu de Ω et P : F → [0, 1] est une mesure de probabilité
sur F.

1.2.4.4 Notion d’incompatibilité

Définition. Deux événements aléatoires A et B associés à une même expérience aléatoire sont dits
incompatibles ou disjoint, ou encore exclusifs, s’ils ne peuvent pas se réaliser simultanément, c’est-à-
dire lorsque l’intersection des sous-ensembles A et B est vide :A ∩ B = ∅.

Exemple :

On lance un dé à huit faces numérotées de 1 à 8. On considère les événements :

12
Chapter 1. Esapce probabilisé

A: ≪ Le résultat est inférieur ou égal à 3 ≫

B: ≪ Le résultat est pair ≫

C: ≪ Le résultat est un multiple de 4

Les événements A et B sont-ils incompatibles ? A et C ?

On a A = {1, 2, 3}; B = {2, 4, 6, 8} et et C = {4, 8}

A et B ne sont pas incompatibles car leur intersection n’est pas vide: 2 appartient aux deux en-
sembles.

A et C sont incompatibles car ils n’ont aucun élément commun.

Remark 1.2.1 • Tout événement est incompatible avec l’événement impossible.

• Tout événement est incompatible avec son événement contraire.

1.2.4.5 Système complet d’événements

Soit (Ai ), i = 1, . . . , n une famille d’événements de Ω, l’univers d’une expérience aléatoire. (Ai )i=1,...,n
est appelée partition de Ω, ou encore système complet d’événements, si elle vérifie les deux conditions
suivantes:

Sn
1. i=1 Ai = Ω

2. les Ai sont deux à deux incompatibles :Ai ∩ Aj = ∅ pour i ̸= j

Dans ce cas, on a:
p(A1 ∪ A2 ∪ ... ∪ An ) = p(A1 ) + ... + p(An ) = 1

13
Chapter 1. Esapce probabilisé

Remark 1.2.2 Un événement A de Ω et son événement contraire Ā forment une partition de Ω car
on a :

•A ∩ Ā = ∅

•A ∪ Ā = Ω

1.2.5 Probabilité équidistribuée ou probabilité uniforme

Soit Ω = {ω1 , . . . , ωn } et p1 , . . . , pn une distribution de probabilité sur Ω. On dit que la probabilité


est équidistribuée sur Ω, ou encore uniforme, si
1
p1 = p2 = . . . = pn = .
n

En effet:

X X
1 = P (Ω) = P (ω) = p = p × card(Ω)
ω∈Ω ω∈Ω
1 1
D’où p = = , pour tout ω ∈ Ω.
card(Ω) n

La probabilité d’un événement A de F se calcule facilement :

X card(A) Nombre de cas favorable à A card(A)


P (A) = P (ω) = = =
ω∈A
card(Ω) Nombre de cas possible card(Ω)

Attention ! Cette formule n’est valable que lorsque les événements élémentaires sont bien équiprobables
(Ω fini). Dans ce cas, il suffit de savoir calculer le cardinal des ensembles considérés pour calculer les
probabilités.

Remarque : Un rappel des techniques de dénombrement est disponible


à l’annexe A

On est maintenant en mesure de modéliser des expériences aléatoires simples, c’est-à dire :

• choisir Ω,

14
Chapter 1. Esapce probabilisé

• choisir une probabilité sur Ω en justifiant ce choix.

Attention, pour décrire une probabilité, il faut donner P(A) pour tout A ∈ F(A ⊂ Ω). Ou alors,
on peut plus simplement donner P (ω) pour tout ω ∈ Ω. Le lecteur déduira P(A) pour tout A d’aprés
la définition d’une probabilité.

Énonçons à présent quelques propriétés élémentaires, mais extrêmement importantes pour le calcul
de probabilité.

Theorem 1.2.1 Toute mesure de probabilité P sur un ensemble Ω possède les propriétés suivantes.

1. P(Ω)=1.

2. Pour toute suite d’événements (Ak )k≥1 incompatibles deux à deux ( c’est à dire Ai ∩ Aj = ∅
pour tout i ̸= j), on a Alors,
[ X
P ( Ai ) = P (Ai ) (σ-additivité)
i∈N i∈N

Démonstration :

La première affirmation suit immédiatement de la définition. Pour la seconde, il suffit d’observer


que
[ X XX X
P ( Ai ) = P (ω) = P (ω) = P (Ai )
S
i∈N ω∈ i∈N Ai i∈N ω∈Ai i∈N
S
puisque chaque ω ∈ i Ai appartient à exactement un des ensemble Ai .

Corollary 1.2.1 Toute application P : F → [0, 1] possédant les propriétés 1 et 2 du théorème possède
également les propriétés suivantes.

1. Soit A1 , . . . , An une collection finie d’événements 2 à 2 incompatibles. Alors,


[n X n
P ( Ai ) = P (Ai ) (Additivité finie)
i=1 i=1

2. P (∅) = 0

3. Pour tout A ⊂ Ω, P (Ā) = 1 − P (A)

15
Chapter 1. Esapce probabilisé

4. Pour tout A ⊂ B ⊂ Ω, on a :
P (A) ≤ P (B) (Monotonicité)

5. Soit (Ai )i=1,...,n une collection dénombrable d’événements. Alors,


[n Xn
P ( Ai ) ≤ P (Ai ) (Sous-σ-additivité)
i=1 i=1

6. Pour tout A, B ⊂ Ω
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

7. Pour tout A, B, C ⊂ Ω, on a
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)

8. Plus généralement,
! pour tout collection finie A1 , A2 , . . . , An , on a !
[n n
X X X n
\
P Ai = P (Ai )− P (Ai ∩Aj )+ P (Ai ∩Aj ∩Ak )−. . .+(−1)n+1 P Ai
i=1 i=1 1≤i<j≤n 1≤i<j<k≤n i=1

Démonstration

1. Il suffit d’appliquer la propriété de σ-additivité à la collection (Bk )k≥1 avec Bk = Ak pour


k = 1, . . . , n, et Bk = ∅ pour k > n, et de conclure en utilisant le fait que P (∅) = 0.

2. Soit E un événement quelconque. Comme E ∪ ∅ = E, on a P (E ∪ ∅) = P (E). D’autre part, on


sait que E ∩ ∅ = ∅ (tout événement est incompatible avec l’événement impossible) et d’après le
théorème 1, on a P (E ∪ ∅) = P (E) + P (∅). Des deux égalités, on obtient P (∅) = 0.

3. On a A∪ Ā = Ω et A∩ Ā = ∅. Donc P (Ω) = P (A∪ Ā) = P (A)+(Ā) = 1, d’où P (Ā) = 1−P (A).

4. On a : P (B) = P (A ∪ (B \ A)) = P (A) + P (B \ A) ≥ P (A).

5. On applique la propriété d’additivité finie sur la famille (Bk )nk=1 construite par la façon suivante
: B1 = A1 et, pour k ≥ 2, Bk = Ak \ k−1
S Sn Sn
i=1 Bi . On a alors k=1 Ak = k=1 Bk pour tout n,
Bi ∩ Bj = ∅ si i ̸= j, et Bk ⊂ Ak pour tout k. Par conséquent,
[n [n Xn Xn
P ( Ak ) = P ( Bk ) = P (Bk ) ≤ P (Ak )
k=1 k=1 k=1 k=1

6. Comme P (A ∪ B) = P (A) + P (B \ (A ∩ B)), l’affirmation suit de P (B) = P (A ∩ B) + P (B \


(A ∩ B)).

16
Chapter 1. Esapce probabilisé

7. Idée : Posez B ∪ C = E et calculer P (A ∪ E).

8. Sera fait en exercice.

1.3 Indépendance et conditionnement

1.3.1 Probabilité conditionnelle

Exemple : Soit la probabilité suivante:

Quelle est la probabilité d’avoir un cancer du poumon ?

Soit la même probabilité mais avec une information supplémentaire :

Quelle est la probabilité d’avoir un cancer du poumon, si la personne fume une vingtaine de
cigarettes par jour?

Cette information va changer la 1ère probabilité.

L’outil qui permet cette mise à jour est la probabilité conditionnelle.

Définition. Considérons le cas de plusieurs expériences aléatoires simultanées ou successives.


Soient deux événements aléatoires A et B non nécessairement incompatibles, avec P (A) > 0.

On appelle probabilité de B conditionnellement à A, ou encore la probabilité de réalisation de


l’événement A sachant que l’événement B est déjà réalisé, la probabilité notée P (B/A), ou encore
PA (B), définie par :
p(A ∩ B)
p(B/A) =
p(A)

Remarque: P (./A) : F → [0, 1] est bien une probabilité.

Cette définition conduit à la formule de probabilité composée :


P (A ∩ B) = P (A)P (B/A) = P (B)P (A/B)

17
Chapter 1. Esapce probabilisé

Donc on peut avoir deux utilisations :

• Utilisation 1 : quand P(A) et P (A ∩ B) sont faciles à calculer, on peut en déduire P (B/A).

•Utilisation 2 : quand P (B/A) et P(A) sont faciles à trouver, on peut obtenir P (A ∩ B).

De plus, la probabilité conditionnelle sachant A, P (./A), est une nouvelle probabilité et possède
donc toutes les propriétés d’une probabilité.

Pour plusieurs événements, on utilise la formule des probabilités composée généralisée suivante :

Proposition 1.3.1 Soient n événements A1 , . . . , An tels que P (A1 ∩ . . . ∩ An ) ̸= 0. Alors :

P (A1 ∩ . . . ∩ An ) = p(A1 ) × p(A2 /A1 ) × p(A3 /(A1 ∩ A2 )) ∩ . . . ∩ P (An /(A1 ∩ . . . ∩ An−1 ))

Exemple:
Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3 boules
: si on tire une noire, on l’enlève, si on tire une blanche, on la retire, et on ajoute une noire à la place.
Quelle est la probabilité de tirer 3 blanches à la suite ?

On note Bi l’événement ”La i-ème boule tirée est blanche”. La probabilité recherchée est :
P (B1 ∩ B2 ∩ B3 ) = P (B1 )P (B2 |B1 )P (B3 |B1 ∩ B2 )

Clairement, P (B1 ) = 3/10. Maintenant, si B1 est réalisé, avant le 2ème tirage, l’urne est constituée
de 8 boules noires et 2 blanches. On a donc : P (B2 |B1 ) = 2/10. Si B1 et B2 sont réalisés, avant le
3ème tirage, l’urne est constituée de 9 boules noires et 1 blanche. On en déduit P (B3 |B1 ∩B2 ) = 1/10.
Finalement
P (B1 ∩ B2 ∩ B3 ) = 3/10 × 2/10 × 1/10 = 6/1000 = 3/500

18
Chapter 1. Esapce probabilisé

1.3.2 Événements indépendants

Deux événements A et B sont indépendants si la probabilité de réaliser l’événement A ne dépend pas


de la réalisation ou de la non réalisation de l’événement B, et inversement. On peut alors écrire :
p(A) = p(A/B) = p(A/B̄)
et
p(B) = p(B/A) = p(B/Ā)
On dit encore que A et B sont indépendants si et seulement la probabilité de réalisation simultanée
de ces événements est égal au produit de leurs probabilités individuelles :

p(A ∩ B) = p(A) × p(B)

Remark 1.3.1 • Si deux événements A et B sont indépendants, alors il en est de même pour A et
B̄ , Ā et B, Ā et B̄.

• Deux événements incompatibles A et B, avec P (A) > 0 et P (B) > 0, ne sont jamais indépendants.
En effet, A ∩ B = ∅ entraine P (A ∩ B) = 0 ̸= P (A)P (B).

Definition 1.3.1 Un ensemble d’événements A1 , A2 , . . . , An est dit :

• totalement indépendant si :

p(A1 ∩ A2 ∩ . . . ∩ An ) = p(A1 ) × p(A2 ) × . . . × p(An )

• deux à deux indépendants si pour tous indices i, j, avec i ̸= j, on a


P (Ai ∩ Aj ) = P (Ai ) × P (Aj )

• mutuellement indépendant si, pour toute


! famille J ∈ {1, . . . , n}, on a :
\ Y
P Aj = P (Aj )
j∈J j∈J

Exemple :

19
Chapter 1. Esapce probabilisé

Par exemple, pour 3 événements A,B et C, ils sont :

• totalement indépendant si :

P (A ∩ B ∩ C) = P (A)P (B)P (C)

• deux à deux indépendants si :

P (A ∩ B) = P (A)P (B), P (A ∩ C) = P (A)P (C), et P (B ∩ C) = P (B)P (C)

• mutuellement indépendant si :

P (A ∩ B) = P (A)P (B), P (A ∩ C) = P (A)P (C)


P (B ∩ C) = P (B)P (C), P (A ∩ B ∩ C) = P (A)P (B)P (C)

Exercice :

On lance 2 fois une pièce de monnaie. On considère les événements suivants :

• A=On obtient pile au 1er lancer.

• B=On obtient face au 2ème lancer.

• C=On obtient la même chose aux 2 lancers.

Très facilement, on déduit que :

P (A) = 1/2, P (B) = 1/2, P (C) = 1/2


P (A ∩ B) = 1/4, P (A ∩ C) = 1/2, P (B ∩ C) = 1/4
P (A ∩ B ∩ C) = 0

Donc les événements A,B et C sont donc 2 à 2 indépendants, mais ne sont pas totalement

20
Chapter 1. Esapce probabilisé

indépendant et par conséquent ne sont pas aussi mutuellement indépendants.

1.3.3 Formule des probabilités totales

En théorie des probabilités, la formule des probabilités totales est un théorème qui permet de calculer
la probabilité d’un événement en le décomposant suivant un système complet d’événements, dit aussi
une partition de Ω.

Commençant d’abord par le cas de deux événements A et B.

Proposition 1.3.2 (Formule des probabilités totales)

Soit A et B deux événements. On a :


P (B) = P (A)P (B/A) + P (Ā)P (B/Ā)

Démonstration :

Comme A ∪ Ā = Ω, on a
P (B) = P (B ∩ Ω) = P (B ∩ (A ∪ Ā)) = P ((B ∩ A) ∪ (B ∩ Ā))
Or (B ∩ A) et (B ∩ Ā) ont incompatibles. On en déduit :
P (B) = P (B ∩ A) + P (B ∩ Ā)) = P (A)P (B/A) + P (Ā)P (B/Ā)

Pour le cas général, on a le résultat suivant.

Proposition 1.3.3 (Formule des probabilités totales généralisée)

Considérons une partition A1 , A2 , ..., An de Ω. Il est possible de reconstituer la probabilité totale


P(B) de tout évènement B de Ω en fonction de ses probabilités conditionnelles P (B/Ai ). On a :

n
X
P (B) = P (Ai )P (B/Ai )
i=1

Exemple :

21
Chapter 1. Esapce probabilisé

Une urne contient 7 boules jaunes et 3 boules noires. On effectue deux tirages successifs sans remise
dans cette urne. Quelle est la probabilité que la deuxième boule tirée soit jaune ?

On note,pour i=1 et i=2:

ˆ Ji : ≪ La ième boule tirée est jaune ≫;

ˆ Ni : ≪ La ième boule tirée est noire ≫;

On a :
P (N1 ) = 3/10, P (J1 ) = 7/10
P (J2 /N1 ) = 7/9, P (J2 /J1 ) = 6/9 = 2/3

ˆ On cherche P (J2) :

Par application de la formule des probabilités totales, on a

P (J2 ) = P (J1 ∩ J2 ) + P (N1 ∩ J2 ) = P (J1 )P (J2 /J1 ) + P (N1 )P (J2/N1 )


Donc

P (J2 ) = 7/10 × 2/3 + 3/10 × 7/9 = 7/10

La formule des probabilités totales permet de suivre les étapes de l’expérience aléatoire dans l’ordre
chronologique. Nous allons maintenant voir une formule à remonter le temps...

1.3.4 Formule de Bayes

Il arrive dans certains problèmes pratiques qu’on ait besoin de probabilités a posteriori du type
P (Ai /B), alors que, à partir de considérations théoriques ou de données historiques, on connaisse
plutôt les probabilités a priori P (Ai ) et les probabilités conditionnelles P (B/Ai ). Le théorème de
Bayes indique comment obtenir les probabilités désirées sous certaines hypothèses sur les événements

22
Chapter 1. Esapce probabilisé

Ai , i = 1, . . . , n.

Proposition 1.3.4 (Formule de Bayes) Soit A et B deux événements tels que 0 < P (A) < 1 et
P (B) > 0. Alors,

P (B/A)P (A)
P (A/B) =
P (A)P (B/A) + P (Ā)P (B/Ā)

Démonstration On a :
P (A ∩ B)
P (A/B) =
P (B)
Le résultat est donc obtenu en utilisant la formule des probabilités composées et la formule des
probabilités totales.

Pour le cas général, on a :

Proposition 1.3.5 (Formule de Bayes généralisée) Soient B un événement de probabilité non nulle,
et A1 , . . . , An une partition de Ω. Alors pour tout i = 1, . . . , n, on a :
P (Ai )P (B/Ai )
P (Ai /B) = n , i = 1, . . . , n
X
P (Aj )P (B/Aj )
j=1

Exemple :

on sait que dans une population 5 hommes sur 100 sont daltoniens, contre 25 femmes sur 10 000.
Un daltonien est choisi au hasard dans la population ; quelle est la probabilité que ce soit un homme
? (on admettra qu’il y a autant d’hommes que de femmes dans la population).

Par application du théorème de Bays, on a :


P (H)P (D/H)
P (H/D) =
P (D)
avec :
P (H) = 1/2, P (D/H) = 5/100
et pour P(D), on applique le théorème des probabilités totales, on a :
P (D) = (P (H)P (D/H)) + (P (F )P (D/F )) = (1/2 × 5/100) + (1/2 × 25/10000)

23
Chapter 1. Esapce probabilisé

d’où
P (H/D) = 20/21

24
Chapter 1. Esapce probabilisé

Annexe A : Analyse combinatoire


L’analyse combinatoire est l’étude des différentes manières de ranger les objets, et elle fournit
des méthodes de dénombrements particulièrement utiles en théorie des probabilités. Elle permet de
répondre à des questions telles que:

1. “Combien de nombres différents de 4 chiffres peut-on former ?”

2. “Dans une classe de 24 élèves, on doit élire deux délégués de classe. Combien existe-t-il de
paires différentes possibles ?”

3. Combien de codes de 9 chiffres entre 0 et 9 peut on former?

4. Un digicode est composé d’une lettre A ou B suivi de 3 chiffres. Combien y a-t-il de codes
possibles ?

5. Un digicode est composé d’une lettre quelconque suivi de 3 chiffres. Combien y a-t-il de codes
possibles ?

6. On veut garer 3 voitures sur un parking de 6 places. Combien y a-t-il de possibilités de trois
places vides ?

Les méthodes de dénombrement se classe selon 3 catégories:

1. Les arrangements

2. Les permutations

3. Les combinaisons

Principe de base

principe multiplicatif de dénombrement :


Si une opération globale peut se décomposer en k opérations élémentaires successives, ces dernières
pouvant s’effectuer respectivement de n1 , n2 , ..., nk manières, alors l’opération globale peut se faire de
n1 × n2 × ... × nk manières différentes.

25
Chapter 1. Esapce probabilisé

Les arrangements

Etant donné un ensemble E de n objets, on appelle arrangement de p objets toute suites ordonnées
de p objets pris parmi les n objets. Le nombre d’arrangement de p objets pris parmi n est noté: Apn .

Remarque:

Pour un arrangement, on tient compte de l’ordre des objets.

On peut distinguer entre deux types d’arrangement:

1. Arrangement avec répétition: Lorsqu’un objet peut être observé ou utilisé plusieurs fois
dans un arrangement. Dans ce cas, les p objets de la liste ne sont pas nécessairement tous
distincts, cela correspond à un tirage avec remise et avec ordre.
Le nombre d’arrangement de p objets parmi n avec répétition est donné par :
Apn = np , avec 1 ≤ p

26
Chapter 1. Esapce probabilisé

Exemple: Combien de nombres de cinq chiffres peut-on former avec les chiffres 1 et 2?

2. Arrangement sans répétition: Lorsque chaque objet ne peut être observé ou utilisé qu’une
seule fois dans un arrangement. Dans ce cas les p objets de la liste sont tous distincts, cela
correspond à un tirage sans remise et avec ordre.
Le nombre d’arrangement de p objets parmi n sans répétition est donné par :

n!
Apn = , avec 1 ≤ p ≤ n
(n − p)!

Exemple: Combien de nombres de deux chiffres distincts peut-on former avec les chiffres 5, 6,
7, 8, 9 ?

Remarque: Pour les arrangements, l’ordre d’écriture est très important: par exemple dans le
2ème exemple, les nombres 56 et 65 sont différents.

Les permutations

Pour les permutations, on distingue aussi entre deux types:

27
Chapter 1. Esapce probabilisé

1. Permutations sans répétition: Etant donné un ensemble E de n objets, on appelle permu-


tation sans répétition de n objets distincts toutes suites ordonnées de ces n objets. Autrement
dit, c’est un arrangement de p = n objets pris parmi n objets.
Exemple :
Le nombre 2537 est une permutation du nombre 3752.
Le nombre de permutation de n objets est donné par :
Pn = Ann = n!

Exemple:
• Le nombre de manières de placer 8 convives autour d’une table est:
P8 = 8! = 40320

• Les nombres de 3 chiffres qu’on peut former avec 1, 3 et 5 sont :


P3 = 3! = 6

2. Permutations avec répétition: Considérons un ensemble de n objets divisés en p groupes


d’éléments identiques, les groupes comprenant respectivement n1 , n2 , ..., etnp objets tel qu’on a
n1 + n2 + ... + np = n.
Alors le nombre de permutations de cet ensemble est :

n!
Pn =
n1 !n2 !...nk !
Exemple: Considérons le mot ”CELLULE”. Le nombre de mots possible (avec ou sans signi-
fication) que l’on peut écrire en permutant ces 7 lettres est:
7!
P7 =
2!3!
en considérant deux groupes de lettres identiques: L(3 fois) et E(2 fois).

Les combinaisons

Définition :

28
Chapter 1. Esapce probabilisé

On appelle une combinaison de p objets parmi n toute disposition non ordonnée de p éléments
distincts choisis parmi les n (1 ≤ p ≤ n).

On note Cnp le nombre de combinaison possible.

Remarque:

1. Pour les combinaison, l’ordre n’intervient pas et n’influence pas sur le résultat.

2. On a nécessairement 1 ≤ p ≤ n et n, p ∈ N∗ . Si n < p, alors, Cnp = 0

1. Combinaison sans répétition Si la disposition est non-ordonnée et sans répétition, on dit


que l’on a une combinaison sans répétition de p éléments parmi n. Le nombre de combinaisons
sans répétition de p objets pris parmi n est :
Ap n!
Cnp = n = , 1≤p≤n
P! p!(n − p)!

Exemple: De combien de manières différentes peut-on former un comité de trois personnes à


partir d’une classe de 24 élèves ?

Remarque: Une combinaison n’est pas caractérisée par l’ordre des objets. L’équipe qui con-
tient les personnes 1 etf 2 ne diffère pas de l’équipe contenant les personnes 2 et 1.

29
Chapter 1. Esapce probabilisé

2. Combinaison avec répétition


C’est une disposition non-ordonnée de p éléments, à choisir parmi n éléments discernables, avec
répétition. Le nombre de combinaisons avec répétitions de n objets pris p à p est :
p
Knp = Cn+p−1

Propriétés

Pour p ≤ n, la combinaison Cnp est appelée aussi coefficient binomial et elle vérifie les propriétés
suivantes :

ˆ Cnp = Cnn−p

ˆ p
Cnp = Cn−1 p−1
+ Cn−1
Les deux relations donnent lieu au triangle de Pascal qui permet un calcul rapide des coeffi-
cients pour de petites valeurs de n :

30
Chapter 1. Esapce probabilisé

Les coefficient binomiaux sont les coefficients qui apparaissent en développant la puissance n-ième
de a + b :
Xn
(a + b)n = Cnp ap bn−p
p=0

Cette relation est appelée formule du binôme de Newton.

Par exemple, en regardant la cinquième ligne du triangle de Pascal, on obtient immédiatement que
:

(a + b)5 = a5 + 5a4 b + 10a3 b2 + 10a2 b3 + 5ab4 + b5

31
Variable aléatoire discrète
2
2.1 Exemple introductif

Dans de nombreuses expériences aléatoires, on n’est pas intéressé directement par le résultat de
l’expérience, mais par une certaine fonction de ce résultat. Considérons par exemple l’expérience
suivante : dans une urne contenant 3 boules rouges et 2 boules blanches, on tire simultanément 2
boules et on considère le jeu suivant : on gagne 2E pour chaque boule rouge tirée et on perd -3E pour
chaque boule blanche tirée.

Le gain éventuel n’est pas connu avant le jeu, donc c’est un nombre aléatoire que l’on note X et
qui peu prendre les valeurs suivantes : -6, -1, +4 (les réalisations de la variable aléatoire réelle).

32
Chapter 2. Variable aléatoire discrète

2.1.1 Premières définitions

Une variable aléatoire est une grandeur numérique dont la valeur dépend du résultat d’une expérience
aléatoire.

Definition 2.1.1 On appelle tribu borélienne (également appelée tribu de Borel ou tribu des boréliens)
de R, notée B(R) ou encore B, la plus petite tribu sur R contenant tous les ensembles ouverts de R.
Les éléments de la tribu borélienne sont appelés des boréliens. et on dit que (R, B) est un espace
mesurable ou probabilisable.

Definition 2.1.2 Fonction mesurable

Soient (Ω1 , F1 ) et (Ω2 , F2 ) deux espaces mesurables.

f : (Ω1 , F1 ) → (Ω1 , F2 ) est une fonction mesurable (on dit aussi (F1 , F2 )-mesurable ) si :

∀A ∈ F2 , f −1 (A) ∈ F1 ,

avec f −1 (A) = {ω1 ∈ Ω1 /f (ω1 ) ∈ A}.

Definition 2.1.3 Soit (Ω, F, P ) un espace probabilisé.

• On appelle variable aléatoire réelle X sur Ω toute application

X:Ω→R
ω → X(ω) = x
qui est (F, B)-mesurable, c’est à dite telle que :
∀A ∈ B, X −1 (A) ∈ F

c.à.d :
∀b ∈ R, X −1 (] − ∞, b[) ∈ F,

avec B est la tribu de Borel sur R.

33
Chapter 2. Variable aléatoire discrète

• On appelle support de la variable aléatoire réelle X l’ensemble X(Ω) = {X(ω), ω ∈ Ω} des valeurs
prises par X. On le note aussi Im(X).

Remarque :

Soient (Ω, F, P ) un espace probabilisé et X une variable aléatoire réelle sur Ω.

1. Si X(Ω) est fini ou infini dénombrable, on parlera de variable aléatoire discrète (v.a.d).

2. Si X(Ω) est infini non dénombrable, on parlera de variable aléatoire continue (v.a.c).

Remarque: Dans ce chapitre, nous nous focaliserons sur les variables aléatoires discrètes : c’est
à dire lorsque X(Ω) est fini ou bien lorsque X(Ω) est infini et dénombrable. Les variables aléatoires
continues seront vues au chapitre suivant.

Plus précisément, l’application X : Ω → R sera une v.a.d si on peut calculer la probabilité de


l’événement X −1 (xi ) pour la tribu définie sur Ω. Dans ce cas, on dit que X est mesurable.

2.2 Loi de probabilité ou distribution de probabilité

Definition 2.2.1 Soit Ω un univers muni d’une probabilité P, et soit X une v.a.r sur Ω et PX sa
mesure de probabilité associée. On appelle loi de probabilité de X, ou encore la probabilité image,
notée PX , l’application

PX : B(R) → [0, 1]
A → PX (A) = P (X ∈ A)
avec
PX (A) = P (X −1 (A)) = P (X ∈ A) = P ({ω ∈ Ω : X(ω) ∈ A})
Si on appelle L cette loi, on dit que X suit la loi L et on note X ∼ L.

Remarque :

34
Chapter 2. Variable aléatoire discrète

Soient X et Y deux variables aléatoires telles que :

X:Ω→R


Y :Ω →R
Si PX = PY , on dit que X et Y sont de même loi, ou équidistribuées.

Dans la suite du cours, on utilisera la notation abrégée : P (ω ∈ Ω : X(ω) ∈ A) = P (X ∈ A). De


même, on notera P(X = x) la probabilité P (ω ∈ Ω : X(ω) = x).

Definition 2.2.2 Pour une variable aléatoire discrète, PX est nulle partout sauf sur l’ensemble dis-
cret X(Ω) des valeurs prises par X. Ainsi, la loi de probabilité d’une v.a.d est caractérisée par :

ˆ l’ensemble des valeurs qu’elle peut prendre (son domaine de définition);

ˆ les probabilités attribuées à chacune des valeurs potentiellement prises P(X = x). Dans ce cas,
la loi de la variable aléatoire est la loi de probabilité sur l’ensemble des valeurs possibles de X
qui affecte la probabilité P (X = xk ) au singleton xk , pour tout xk de X(Ω).
Si X(Ω) = {x1 , . . . , xn }, la loi de probabilité de X est définie par la suite:
p1 = P (X = x1 ), . . . , pn = P (X = xn ),
avec n
X
pk ≥ 0, ∀k = 1, 2, ..., n et pk = 1.
k=1

Exemples :

1. On lace un dé et on note par X le numéro obtenu. Donc on a X(Ω) = {1, 2, 3, 4, 5, 6}. La loi
de probabilité de X est

xi 1 2 3 4 5 6
P (X = xi ) 1/6 1/6 1/6 1/6 1/6 1/6

35
Chapter 2. Variable aléatoire discrète

2. On lance trois fois une pièce régulière. Lorsqu’il sort pile, on gagne 1E, s’il sort face 0E. Soit X
le gain obtenu par le joueur. L’expérience aléatoire considérée a 8 éventualités équi-probables :
Ω = {F F F, F F P, F P F, P F F, F P P, P F P, P P F, P P P }
et à chaque éventualité ω ∈ Ω, correspond une valeur X(ω) du gain X.
On peut résumer ceci par un tableau :

ω FFF FFP FPF PFF FPP PFP PPF PPP


X(ω) 0 1 1 1 2 2 2 3
P (ω) 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8

On voit que X(Ω) = {0, 1, 2, 3} et on détermine aussitôt les événements [X = xi ] :


[X = 0] = {F F F }
[X = 1] = {F F P, F P F, P F F }
[X = 2] = {F P P, P F P, P P F }
[X = 3] = {P P P }
On en déduit la loi de probabilité de X :

xi 0 1 2 3
P (X = xi ) 1/8 3/8 3/8 1/8

2.3 Fonction de répartition

La fonction de répartition a été introduite en statistique pour répondre rapidement à des questions
de type : quelle est le pourcentage d’individus ayant au moins ..., ou au plus...

Definition 2.3.1 Soit X une v.a définie sur (Ω, F, P ). On appelle fonction de répartition de la v.a
X, la fonction FX définie par :

FX : R −→ [0, 1]
x −→ FX (x) = P (X ≤ x)

On a aussi : FX (x) = P (X ∈] − ∞, x]) = PX (] − ∞, x]).

36
Chapter 2. Variable aléatoire discrète

On s’intéresse souvent à la probabilité cumulée.

Pour X une v.a.d prenant les valeurs classées xi avec les probabilités pi , on a
X
FX (x) = P (X ≤ x) = pi .
xi ∈X(Ω),xi ≤x

Propriétés :

1. ∀x ∈ R, F (x) ∈ [0, 1]

2. F est une fonction croissante.

3. F est une fonction en escalier, continue à droite et positive ou nulle .

4. lim F (x) = 0, lim F (x) = 1


x→−∞ x→+∞

5. ∀a ∈ R, P (X ≤ a) = F (a)

6. ∀(a, b) ∈ R2 , P (a < X ≤ b) = F (b) − F (a)

7. ∀a ∈ R, P (X > a) = 1 − F (a)

37
Chapter 2. Variable aléatoire discrète

2.4 Moment d’une variable aléatoire discrète

2.4.1 Espérance mathématique

Definition 2.4.1 Soit X une variable aléatoire discrète avec X(Ω) = {x1 , ..., xn }. L’espérance
mathématique de X représente sa valeur moyenne. Elle est définit par
X n n
X
E[X] = xi p(X = xi ) = xi p(xi )
i=1 i=1

Propriétés: Soit X et Y deux variables aléatoires et a, b ∈ R. On a :

ˆ E(a) = a

ˆ E(aX + b) = aE(X) + b

ˆ E(X + Y ) = E(X) + E(Y )

ˆ E(X − Y ) = E(X) − E(Y )

ˆ E(X × Y ) = E(X) × E(Y ) si X et Y sont deux v.a indépendantes.

ˆ E[X − E[X]] = E[X] − E[X] = 0

38
Chapter 2. Variable aléatoire discrète

Moment d’ordre k (k ∈ N+ )

Soit X une v.a.d. On a :

n
X n
X
E[X k ] = xki p(X = xi ) = xki p(xi )
i=1 i=1

Moment centré d’ordre k (k ∈ N+ )

Soit X une v.a.d. On a :

n
X
E[(X − E[X])k ] = (xi − E[X])k p(X = xi )
i=1

2.4.2 Variance et écart-type

La variance d’une variable aléatoire est l’espérance mathématique des carrés des écarts par rapport
à l’espérance. Elle mesure la dispersion de X autour de son espérance. Elle est définit par:
X n
2
V (X) = E[(X − E(X)) ] = (xi − E[X])2 p(X = xi ) = E(X 2 ) − E(X)2
i=1
L’écart-type de la variable X est égale à la racine carrée de la variance :
p
σ(X) = V (X)
Plus l’écart-type est grand, plus la variable est dispersée autour de l’espérance. Plus l’écart-type est
petit, plus les valeurs de X sont concentrées autour de l’espérance.

Le coefficient de dispersion CD (ou encore le coefficient de variation CV) est définie par:
σ(X)
CD = ,
E[X]
il mesure la dispersion des valeurs de X autour de son espérance. Plus la valeur du coefficient de
variation est élevée, plus la dispersion autour de la moyenne est grande. Il est généralement exprimé
en pourcentage. Sans unité, il permet la comparaison de distributions de valeurs dont les échelles de
mesure ne sont pas comparables.

Propriétés: Soit X et Y deux v.a et a, b ∈ R. On a :

39
Chapter 2. Variable aléatoire discrète

ˆ V(a)=0

ˆ V (aX) = a2 V (X)

ˆ V (aX + b) = a2 V (X)

ˆ Si X et Y sont indépendantes, on a
V (X + Y ) = V (X) + V (Y ) et V (X − Y ) = V (X) + V (Y )

X − E[X]
En particulier, si Y = , alors E[Y]=0 et σ(Y ) = 1. Dans ce cas, on dit que Y est une
σ(X)
variable centrée réduite.

Exemple :

On lance un dé. On perd 2 euros si on tire 1 ou 2, on gagne 0,5 euros si on tire 3 et enfin on gagne
1euro si on tire 4, 5 ou 6.

On appelle X la variable aléatoire qui donne le gain associé à un tirage.

On a ainsi X(Ω) = {−2, 0.5, 1}. La loi de probabilité de la variable aléatoire X est donc donnée
par le tableau :

xi -2 0.5 1
1 1 1
P (X = xi )
3 6 2

L’espérance se calcule alors ainsi :


1 1 1 −1
E[X] = × (−2) + × 0.5 + × 1 = .
3 6 2 12

Concrètement, elle signifie que si on joue un très grand nombre de fois à ce jeu, en moyenne, on
−1
perd d’euro par partie.
12
Pour la variance de X, on a :

   2
2 2 1 2 1 2 1 2 −1 269
V (X) = E[X ] − E[X] = × (−2) + × (0.5) + × 1 − =
3 6 2 12 144

40
Chapter 2. Variable aléatoire discrète

et donc √
p 269
σ(X) = V (X) =
12

2.5 Lois de probabilité discrète usuelles

En théorie des probabilités, une loi de probabilité décrit le comportement aléatoire d’un phénomène
dépendant du hasard.

Une probabilité est dite discrète si elle est associée à une variable aléatoire discrète.

2.5.1 Loi de Bernoulli

La loi de Bernoulli intervient dans le cas d’une seule expérience aléatoire à laquelle on associe un
événement aléatoire quelconque à deux issues: succès et échec par exemple (vrai ou faux). Soit X la
variable aléatoire qui caractérise
( cette expérience, on a:
X = 0, si le résultat est un échec,
X = 1, si le résultat est un succès.

La réalisation de l’événement au cours de cette expérience est appelée succès et la probabilité de


réalisation est dite probabilité de succès, désignée par
P (X = 1) = p
Par contre la non réalisation de l’événement est appelée échec et la probabilité de non réalisation est
dite probabilité d’échec, désignée par
P (X = 0) = q = 1 − p

La variable aléatoire X qui caractérise le nombre de succès au cours d’une seule expérience aléatoire
est appelée variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec les probabilités respec-
tives q et p.

Une variable aléatoire X qui suit une loi de Bernoulli de paramètres p, est désignée par : X ∼ B(p).

41
Chapter 2. Variable aléatoire discrète

Les caractéristiques d’une variable Bernoulli sont :

ˆ
P2
Espérance mathématique: E(X) = i=1 xi pi (x) = 0 × q + 1 × p = p

ˆ Variance: V (X) = E(X 2 ) − E(X)2 = p − p2 = pq

Exemple: On lance une pièce de monnaie une seule fois. Soit X la variable aléatoire qui caractérise
le nombre de pile obtenus. X est une variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec
la probabilité constante 0,5, càd:
P (X = 1) = 0.5 et P (X = 0) = 1 − 0.5 = 0.5

2.5.2 Loi Binomiale

La loi binomiale intervient dans le cas de plusieurs expériences aléatoires identiques et indépendantes
dont l’issue est un succès ou un échec.

La réalisation de l’événement au cours de chacune des expériences est appelée succès et la prob-
abilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non réalisation de
l’événement est appelée échec et la probabilité de non réalisation est dite probabilité d’échec, désignée
par q = 1 − p.

On considère que l’expérience se répète n fois et la variable aléatoire X représente le nombre de


succès qu’on peut avoir. On a
X(Ω) = {0, 1, 2, . . . , n}
et on dit que la variable aléatoire X suit la loi binomiale de paramètres n et p, et on note : X ∼ B(n, p).

La probabilité d’obtenir k succès et donc (n-k) échecs au cours de n expériences aléatoires indépendantes
est:
P (X = k) = Cnk pk (1 − p)n−k , ∀k ∈ X(Ω)

42
Chapter 2. Variable aléatoire discrète

La variable Bernoulli est un cas particulier de la loi binomiale, elle correspond à la loi binomiale
de paramètres 1 et p.

Une variable binomiale de paramètres n et p, peut être considérée comme étant la somme de n
variables de Bernoulli identiques et indépendantes de même paramètre p. On peut donc écrire
X = X1 + X2 + . . . , +Xn
Avec Xi (i=1 à n) est une variable de Bernoulli telle que :
E(Xi ) = p, V (Xi ) = pq

ˆ L’espérance de la loi binomiale:


E(X) = E(X1 + ... + Xn ) = E(X1 ) + ...E(Xn ) = np

ˆ La variance de la loi binomiale:


V (X) = V (X1 + ... + Xn ) = V (X1 ) + ...V (Xn ) = pq + ... + pq = npq

Exemple: On lance une pièce de monnaie 20 fois de suite. Ces expériences sont identiques et
indépendantes. On considère comme succès ”obtenir Pile” et comme échec ”obtenir Face”. Soit X
la variable aléatoire qui caractérise le nombre de succès. Soit p la probabilité de succès au cour de
chaque lancer, donc p=1/2. On calcule la probabilité d’obtenir 15 succès (donc 5 échec):
15 15
P (X = 15) = C20 p (1 − p)5

2.5.3 Loi de poisson

La loi de poisson, ou encore loi des événements rares, intervient pour un événement qui se répète
plusieurs fois pendant une période de temps déterminée et avec une moyenne donnée notée λ, tel que
les périodes sont indépendantes.

Exemple :

1. Nombre d’appels reçus par un standard téléphonique.

2. Nombre d’accidents de la circulation.

43
Chapter 2. Variable aléatoire discrète

3. Nombre de visiteur d’un centre commercial.

La variable aléatoire X qui caractérise le nombre de réalisations de ce phénomène est appelée


variable de poisson de paramètre λ, elle prend les valeurs entières 0, 1, 2, . . . (X(Ω) = N), et on
note X ∼ P(λ), avec
λk e−λ
P (X = k) = , ∀k ∈ N.
k!

L’espérance et la variance de X sont:


E(X) = V (X) = λ

Exemple

Si un standard téléphonique peut recevoir en moyenne 5 appels par minute, quelle est la probabilité
qu’il reçoive 30 appels dans un laps de temps de 10 minutes? Soit la variable aléatoire X qui caractérise
le nombre d’appel reçus pendant 10 minutes. X suit la loi de poisson de paramètre λ = 5 × 10 = 50.
Donc on a :
e−50 × 5030
P (X = 30) = = 6.77 × 10−4
30!

2.5.4 Approximation de la loi binomiale par la loi de poisson

Lorsque n devient grand, le calcul des probabilités d’une loi binomiale devient très fastidieux. On
va donc, sous certaines conditions, trouver une approximation de P(X = k) plus manipulable. On
constate le comportement asymptotique : si n → ∞ et p → 0, alors X : B(n, p) → P(λ) avec np = λ,
k k n−k λk e−λ
c.à.d : P (X = k) = Cn p (1 − p) → .
k!
Remarque : cette approximation est correcte dès que


 n > 30,

p ≤ 0.1,

n × p < 15.

Démonstration : voir le TD.

44
Chapter 2. Variable aléatoire discrète

2.5.5 Loi Géométrique

Répétons continuellement et d’une façon indépendante une épreuve de Bernoulli, avec une probabilité
de succès p ∈]0, 1[. Le nombre des épreuves n’étant pas fixé.

Si X est la variable aléatoire à valeur dans N∗ nécessaire pour obtenir le premier succès ( on dit
aussi le rang du premier succès), alors X suit une loi géométrique de paramètre p et note : X ∼ G(p).

On dit pour cela que la loi géométrique est la loi du premier succès. On a :
X(Ω) = N∗

En notant q = 1 − p la probabilité d’échec, :

La probabilité que X = k, pour k = 1, 2, 3,. . . , correspond à la probabilité d’obtenir dans une


succession de k épreuves de Bernoulli, k-1 échecs suivis d’un succès. Les épreuves étant indépendantes,
cette probabilité est donc :

P (X = k) = q k−1 p

Si X une v.a qui suit une loi géométrique de paramètres p, alors on a :

ˆ L’espérance de la la variable X est :


1
E(X) =
p
ˆ La variance de la variable X est :
q
V (X) =
p2

Exemple: Une urne contient 4 boules blanches et 6 boules rouges. On effectue des tirages succes-
sives et avec remises jusqu’à obtenir une boule blanche. Quelle est la probabilité d’avoir une boule
blanche la troisième tentatives?

Soit X la variable aléatoire qui caractérise le rang du premier succès (avoir une boule blanche). On
a X suit une loi géométrique de paramètre p=0.4. Donc :

45
Chapter 2. Variable aléatoire discrète

P (X = 3) = (1 − 0.4)2 0.4 = 0.144

2.5.6 Loi hypergéométrique

La loi hypergéométrique de paramètres associés n, p et N est une loi de probabilité discrète, décrivant
le modèle suivant :

On tire sans remise (simultanément ou successivement sans remise (mais cela induit un ordre)) n
objets d’un ensemble de N objets dont N1 = pN possèdent une caractéristique particulière, et les
autres N2 = qN ne la possèdent pas, avec p+q=1 et N1 + N2 = N .

Soit X le nombre d’objets de l’échantillon qui possèdent la caractéristique.

Alors X suit une loi hypergéométrique de paramètres n, N, p, dénoté X ∼ H(n, p, N ).

L’univers X(Ω) est donc l’ensemble des entiers de 0 à n, i.e :

X(Ω) = {0, 1, . . . , n}

La variable X suit alors la loi de probabilité définie par

N1 N2
 
k n−k
P (X = k) = N

n

qui donne la probabilité d’avoir k succès dans un échantillon de N objets.

Il est nécessaire que p soit un réel compris entre 0 et 1, que pN soit entier et que n ≤ N . Lorsque
ces conditions ne sont pas imposées, l’ensemble des possibles X(Ω) est l’ensemble des entiers entre
max(0, n − N2 ) et min(N1 , n).

L’espérance d’une variable aléatoire X suivant une loi hypergéométrique de paramètres (n,p,N), est
la même que celle d’une variable binomiale de paramètres (n,p) :

46
Chapter 2. Variable aléatoire discrète

E(X) = np

La variance d’une variable aléatoire suivant une loi hypergéométrique de paramètres (n,p,N) est :

N −n
V (X) = npq
N −1
dont on remarque qu’elle tend vers la variance de la loi binomiale npq, lorsque N tend vers l’infini.

Exemple :

On tire simultanément 4 boules dans une urne contenant 10 boules gagnantes et 15 boules perdantes.
On compte alors le nombre de boules gagnantes extraites dans l’échantillon de 4 boules choisies et
on appelle X la variable aléatoire donnant ce nombre. Quelle est la probabilité d’avoir 3 boules
gagnantes?
10
On a X suit la loi hypergéométrique de paramètres n=4, p = = 0.4 et N=25. Donc la probabilité
25
d’avoir 3 boules gagnantes est :

10 15
 
3 1 120 × 15
P (X = 3) = 25
 = = 0.14
4
12650

Convergence :

Lorsque N tend vers l’infini, la loi hypergéométrique converge vers une loi binomiale de paramètres
n et p. D’ailleurs, intuitivement, pour N grand, tirer simultanément n boules revient à effectuer n fois
une épreuve de Bernoulli dont la probabilité de succès serait p est la proportion de boules gagnantes
dans l’ensemble des boules, car il est très peu probable de retomber sur la même boule, même si on
la replace dans l’urne.

47
Variable aléatoire continue
3
3.1 Définition

Une variable X : Ω −→ R est dite continue si l’ensemble X(Ω) est infini non dénombrable. On
l’utilise quand on veut mesurer des grandeurs “continues” (distance, masse, pression, taille, poids, la
durée de vie...).

Comme il y a une infinité de nombres dans X(Ω), la probabilité qu’un nombre en particulier (par
exemple a ∈ X(Ω)) sorte est nulle. On a :
P (X = a) = 0.
Dans le cas d’une variable aléatoire continue, on s’intéresse à la probabilité des événements suivants :

P (a ≤ X ≤ b), P (X ≤ b) ou P (X ≤ a)

48
Chapter 3. Variable aléatoire continue

avec a,b ∈ R.

3.2 Loi de probabilité et fonction de répartition

Définition
Une variable aléatoire X est dite continue, ou encore à densité, s’il existe une fonction f définie sur R
décrivant la loi de la v.a. X en ce sens :

Z b
P (a ≤ X ≤ b) = f (x)dx ∀a, b ∈ R
a
Z x
F (x) = P (X ≤ x) = f (x)dx ∀x ∈ R.
−∞

où f est une fonction intégrable sur R satisfaisant les conditions suivantes

1. f (x) ≥ 0, ∀x ∈ R
R
2. R f (x)dx = 1, ∀x ∈ R

Une fonction qui vérifie les conditions 1. et 2. est appelée densité de probabilité ou fonction de
densité.

Propriété Soit X une variable aléatoire à densité.

Alors pour tout x ∈ R, P (X = x) = 0.

Remarque

Rb
1. La probabilité P (X ∈ [a, b]) = a f (x)dx correspond à l’aire de la surface comprise entre la
courbe de f et l’axe des abcisses sur l’intervalle [a, b].

2. La fonction de répartition d’une variable à densité est continue.

Proposition

49
Chapter 3. Variable aléatoire continue

La fonction de répartition F d’une v.a. X de densité f est continue et croissante. Elle est dérivable
en tout point x où f est continue et F ′ (x) = f (x). On a la relation:
P (a ≤ X ≤ b) = P (a < X ≤ b) = F (b) − F (a)

Important : La loi d’une v.a. X est donnée par

- sa densité

ou

- les probabilités P (a ≤ X ≤ b) pour tous a, b

ou

- les probabilités F (x) = P (X ≤ x) pour tout x (F est la fonction de répartition).

Propriétés:
La définition nous permet d’écrire:

Rx
1. F (x) = P (X ∈] − ∞, x]) = −∞
f (x)dx.
Rb
2. P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) = a f (t)dt = F (b) − F (a), ∀a, b ∈ R
R +∞
3. P (X > b) = b f (t)dt = 1 − P (X ≤ b) = 1 − F (b), ∀b ∈ R.

Remarque :
Pour une variable aléatoire continue, pour tout a ∈ R on a
P (X = a) = 0
On a donc :

1. P (X ≤ a) = P (X < a) + P (X = a) = P (X < a),

2. P (X ≥ b) = P (X > b) + P (X = b) = P (X > b).

3. P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b).

Exemple: Voici quelques exemples des fonctions de densité ainsi que leurs courbes.

50
Chapter 3. Variable aléatoire continue

3.3 Caractéristiques d’une variable aléatoire continue

1. Espérance mathématique
Soit X une v.a continue admettant une densité f, l’espérance mathématique de X, noté E(X),
est le réel Z +∞
E(X) = xf (x)dx
−∞
une v.a.c X est dite centrée si et seulement si son espérance est nulle: E(X) = 0.
Si X admettant une espérance non nulle, alors la v.a X − E(X) est centrée.

2. Variance

51
Chapter 3. Variable aléatoire continue

Soit X une v.a continue. On appelle variance de X, noté V(X), le réel positif
Z +∞
V (X) = E[(X − E(X))2 ] = (x − E(x))2 f (x)dx
−∞
ou encore

Z +∞ Z +∞ 2
2 2 2
V (X) = E[X ] − E[X] = x f (x)dx − xf (x)dx
−∞ −∞

3. Ecart-type
On appelle écart-type de X le réel, noté σ(X), définit par:
p
σ(X) = V (X)

Propriété 3:
Soient X et Y deux variables aléatoires continues admettant une espérance et une variance, alors pour
tout a, b ∈ R, on a :

1. E(aX+b)=aE(X)+b

2. V (aX + b) = a2 V (X)

3. σ(aX + b) = |a|σ(X)

4. E(X+Y)=E(X)+E(Y)

5. E(X-Y)=E(X)-E(Y)
Si de plus X et Y sont indépendantes,

6. V(X+Y)=V(X)+V(Y)

7. V(X-Y)=V(X)+V(Y)

52
Chapter 3. Variable aléatoire continue

3.4 Lois continues usuelles

3.4.1 Loi uniforme

La loi uniforme est utilisée pour modéliser une grandeur aléatoire qui prend au hasard ses valeurs dans
un intervalle [a,b] de R. Pour cette loi, tous les intervalles de même longueur inclus dans l’intervalle
[a,b] ont la même probabilité. Cela se traduit par le fait que la densité de probabilité de cette loi est
constante sur [a,b].

Définition. Une v.a continue X suit une


loi uniforme sur [a,b] si sa fonction de densité est
 1 si x ∈ [a, b],
f (x) = b−a
 0 sinon

On note X ∼ U([a, b]).

Exemple 1: La durée de la communication téléphonique d’une personne est entre 1 et 10 min. On


considère la variable aléatoire continue X qui modélise cette communication en minute, et on cherche
la probabilité qu’elle soit entre 2 et 3 min. On a Z
:
3
1
P (2 ≤ X ≤ 3) = dx = 1/9
2 10 − 1

Exemple 2 Lors d’une étude du comportement animal, on a relaché des oiseaux dont l’orientation
a été rendue très difficile. On s’attend alors à ce que les oiseaux choisissent au hasard leur direction.
On peut modéliser la direction prise par un oiseau de la façon suivante. On considère X l’angle entre
le nord et la direction prise par l’oiseau (selon le sens des aiguilles d’une montre). La variable X suit
une loi uniforme entre 0 et 360 degrés.

Propriétés :

1. Dans le cas de la loi uniforme, on a


a+b (b − a)2
E(X) = et V (X) =
2 12

53
Chapter 3. Variable aléatoire continue

2. La fonction de répartition de la loi uniforme


 sur l’intervalle [a,b] est la suivante:

 0 si x < a,
 x−a
F (x) = si a ≤ x ≤ b,

 b−a
1 six > b

3.4.2 La loi exponentielle

Cette densité de probabilité permet en général de modéliser des durées de vie d’êtres non soumis au
vieillissement (par exemple, la durée de vie d’une bactérie) ou des temps d’attente (par exemple, le
temps d’attente entre deux signaux synaptiques)

Définition. Soit λ > 0, on dit que X suit une loi exponentielle de paramètre λ si sa densité de
probabilité est donnée par (
λe−λx si x > 0,
f (x) =
0 sinon

On note X ∼ E(λ).

Exemple 1: La durée de vie d’un agenda électronique, exprimé en année, peut être représentée
par une variable aléatoire continue X qui suit une loi exponentielle de paramètre λ = 4 × 10−2 . On
cherche la probabilité que la durée de vie de cet agenda dépasse
Z 3 ans. On a :
3
P (X > 3) = 1 − P (X ≤ 3) = 1 − λe−λx dx.
−∞

Exemple 2 :Dans une substance radioactive, la désintegration des noyaux se fait de façon spon-
tanée. Le nombre de désintegration sur un intervalle de temps fixé suit une loi de Poisson. Par contre
le temps d’attente entre deux désintégrations est modélisé par une loi exponentielle.

Propriété :
Dans le cas d’une variable aléatoire continue X qui suit une loi exponentielle de paramètre λ, on a
1 1
E(X) = et V (X) = 2
λ λ

54
Chapter 3. Variable aléatoire continue

La fonction de répartition de la loi exponentielle


( est la suivante:
1 − e−λx si x > 0,
F (x) =
0 sinon

Remarque :La loi exponentielle est la seule loi continue qui vérifie la propriété d’absence de
mémoire : Si X ∼ E(λ), alors pour tout s, t > 0P (X > t + s|X > t) = P (X > s). La loi exponentielle
est celle de la mortalité des êtres qui ne seraient pas soumis au vieillissement : à chaque moment ils
ont la même probabilité de mourir dans l’unité de temps qu’il leur reste, quelque soit leur âge.

3.4.3 Loi normale

La loi Normale, ou la loi Gaussienne, est une loi centrale dans la théorie des probabilités. Elle est
notamment très utilisée en statistique. Une grandeur influencée par un grand nombre de paramètres
indépendants est souvent modélisée par une loi normale (par exemple, les erreurs de mesures lors
d’une expérience ou la durée de vie d’une population).

Définition. On dit que X suit la loi normale de paramètre m et σ si elle admet comme densité de
probabilité la fonction suivante:
1 x − m !2
1 −
f (x) = √ e 2 σ
2πσ 2

On note X ∼ N (m, σ).

Propriétés :
Si X une variable aléatoire continue qui suit une loi normale, alors :
E(X) = m et σ(X) = σ.
Ainsi les paramètres d’une loi normale sont en fait son espérance mathématique m et son écart-type σ.

Remarque :
La fonction de répartition correspondante à la loi normale n’a pas de formule simple. Donc, pour

55
Chapter 3. Variable aléatoire continue

tous a et b tels que a ≤ b, on écrit:


1 x − m !2
Z b −
1
P (a ≤ X ≤ b) = √ e 2 σ dx.
2πσ 2 a

On pourrait étudier cette loi précisément mais on passant par la loi normale centrée réduite.

3.4.3.1 Loi normale centrée réduite

Définition :
On dit que X suit une loi normale centré réduite de paramètre m = 0 et σ = 1, et on note X ∼ N (1, 0),
si sa fonction de densité est la suivante:
−1 2
1 x
f (x) = √ e 2

On note Φ la fonction de répartition de la loi normale centrée réduite. Elle est définie, pour tout
réel x, par

Z x
−1 2
1 x
Φ(x) = √ e 2 dx
−∞ 2π

Φ est la primitive de f qui tend vers 0 en −∞; cette primitive ne s’exprime pas à l’aide des fonctions
usuelles mais devient elle-même une fonction usuelle, importante, pour quiconque pratique le calcul
des probabilités ou les statistiques. Les valeurs de cette fonction peuvent donc se trouver sous la
forme d’une table ou directement dans des logiciels de calcul statistique.

Si X suit une loi normale centré réduite, on a


E(X) = 0 et V (X) = 1

La courbe de la densité de la loi normale N (1, 0) porte le nom de “courbe en cloche”. Elle tend
vers 0 en l’infini, est croissante sur R− , puis décroissante. Elle admet donc un maximum en 0. On
peut voir aussi qu’elle est symétrique, de centre de symétrie 0.

Remarque :

56
Chapter 3. Variable aléatoire continue

La loi normale N (0, 1) est une des plus importantes dans la théorie des probabilités, ainsi qu’elle est
tabulée. La table donne les valeurs des probabilités Φ(x) = P (X ≤ x) pour différentes valeurs de x,
avec x ≥ 0.

Propriétés de Φ:
Soit X une variable aléatoire continue qui suit une loi normale centrée réduite, alors on peut utiliser
les propriétés suivantes:

−x2
Ra 1
1. P (X ≤ a) = −∞
√ e 2 dx = Φ(a)

2. P (X ≥ a) = 1 − Φ(a)

3. Si a est positif : P (X ≤ −a) = P (X ≥ a) = 1 − P (X ≤ a) = 1 − Φ(a) (ceci résulte de la parité


de la fonction densité).

4. P (−a ≤ X ≤ a) = Φ(a) − Φ(−a) = 2Φ(a) − 1

3.4.3.2 Utilisation de la table de la loi normale centrée réduite

La loi N (0, 1) est tabulée et la table donne les valeurs de Φ(x) pour des valeurs de x positives.

57
Chapter 3. Variable aléatoire continue

Voici un extrait pour comprendre la méthode de lecture de cette table:

x 0.05 0.06 0.07


1.1 0,8749 0,8770 0,8790
1.2 0,8944 0,8962 0,8980
1.3 0,9115 0,9131 0,9147

Calcul de P (X ≤ 1, 36) :
Le nombre situé à l’intersection de la colonne 0,06 et de la ligne 1,3 est la valeur de la fonction de
répartition de X pour x = 1, 3 + 0, 06 = 1, 36.
Ainsi, P (X ≤ 1, 36) = Φ(1, 36) = 0, 9131.

Calcul de P (X ≥ 1, 25) :

P (X ≥ 1, 25) = 1 − Φ(1, 25) = 1 − 0, 8944 = 0, 1056.

Calcul de P (X ≤ −1, 17) :

P (X ≤ −1, 17) = 1 − Φ(1, 17) = 1 − 0, 8790 = 0, 121.

Calcul de P (1, 15 ≤ X ≤ 1, 37) :

P (1, 15 ≤ X ≤ 1, 37) = Φ(1, 37) − Φ(1, 15) = 0, 9147 − 0, 8749 = 0, 0398.

Remarque:

On peut également utiliser la table ≪ à l’envers ≫, pour déterminer a tel que P (X ≤ a) = p pour
p donné. Autrement dit, on cherche a tel que a = Φ−1 (p).

Lecture inverse dans la table de la loi Normale centrée réduite

Soit X est une variable aléatoire suivant la loi N (0 ,1).

• Trouver a pour que P (X ≤ a) = 0, 9664 :

58
Chapter 3. Variable aléatoire continue

On a 0,9664 est à l’intersection de la ligne 1,8 et de la colonne 0,03 donc a = 1, 83.

• Trouver a pour que P (X ≤ a) = 0, 77 :

On a 0,77 n’est pas dans la table, donc on doit chercher les valeurs les plus proches.

D’après la table on a 0, 7673 < 0, 77 < 0, 7704, donc la valeur t cherchée vérifie 0, 73 < t < 0, 74.

• Trouver a tel que P (X ≤ a) = 0, 1271 :

On a 0,1271 n’est pas dans la table et vérifie 0, 1271 < 0, 5, donc la valeur de a est négative.

Donc P (X ≤ a) = 1 − P (X ≤ −a) = 0, 1271, ce qui donne a=-1.14.

NB : Retenez que pour une loi normale centrée réduite, si Φ(a) < 0, 5, alors a < 0.

3.4.3.3 Lien avec la loi normale

Le résultat suivant montre comment passer d’une loi normale N (m, σ) à une loi normale centrée
réduite N (0, 1).

Proposition:
X −m
Soit X une v.a continue qui suit une loi normale N (m, σ), avec σ > 0 et m ∈ R. On pose Z = ,
σ
alors Z suit une loi normale centrée réduite N (0, 1). Réciproquement, si Y une v.a continue qui suit

une loi normale centrée réduite, alors Y = σY + m suit une loi normale N (m, σ).

Ce résultat est très important, puisqu’alors il nous suffit d’étudier la loi normale centrée réduite
puis de procéder à un changement de variable pour obtenir n’importe quelle valeur de la loi normale.

Exemple :
Soit X une variable aléatoire qui suit une loi normale de paramètre m = 12 et σ = 3.

59
Chapter 3. Variable aléatoire continue

X −m X − 12
On pose Y = = .
σ 3
Calcul de P (X ≤ 16) :
On a
4
X ≤ 16 ⇐⇒ Y ≤
3
Donc
P (X ≤ 16) = P (Y ≤ 1.33) = Φ(1.33)
D’après la table de la loi normale centrée réduite, on a :
P (X ≤ 16) = F (1.33) = 0.9082

Calcul de P (9 ≤ X ≤ 15) :

P (9 ≤ X ≤ 15) = P (−1 ≤ Y ≤ 1) = 2Φ(1) − 1 = (2 × 0, 8413) − 1 = 0, 6828

3.4.4 Loi Log-Normale

Une variable X suit la loi Log-Normale LN (m, σ) si ln(X) suit la loi normale N (m, σ).

Cette loi permet de modéliser par exemple le temps de survie des bactéries en présence de désinfectant,
le dosage de certains médicaments . . .

Sa fonction de densité est définie par


 (ln(x) − m)2
 1 −
2σ 2

f (x) = √ e si x > 0,

 σx 2π
 0 sinon

Si X ∼ LN (m, σ), on a
2 2 2 /2
E(X) = em+σ /2 et V (X) = (eσ − 1)em+σ

60
Chapter 3. Variable aléatoire continue

3.4.5 Loi de Weibull

La loi de Weibull est utilisée en démographie pour modéliser le veillissement et en épidémiologie pour
modéliser la distribution de probabilité de la durée d’incubation d’une maladie infectieuse.

Une variable aléatoire X suit la loi de Weibull W (a, b), aveca, b > 0 si sa fonction de densité est :

  a−1
 a x
 x 
exp −( )a si x > 0,
f (x) = b b b
 0 sinon
Sa fonction de répartition est définie par:  x 
F (x) = 1 − exp −( )a avec x > 0.
b

On constate que pour a = 1, on retrouve la loi exponentielle. La loi exponentielle est celle de la
mortalité des être vivants qui ne seraient pas soumis au vieillissement : à chaque moment ils ont la
même probabilité de mourir dans l’unité de temps qu’il leur reste, quelque soit leur âge. Plus a est
grand plus le vieillissement se fait pesant (la mortalité augmente avec l’âge). Le cas a < 1 correspond
à un monde dans lequel plus on vieillirait, moins forte serait la probabilité de mourir dans l’unité de
temps qui vient.

3.4.6 Loi Gamma

Une variable aléatoire X suit la loi Gamma de paramètres (a, b), noté Γ(a, b), si sa fonction de densité
est définie par

ba −bx a−1

 e x si x > 0,
f (x) = Γ(a)
0 sinon

avec Z +∞
Γ(a) = e−x xa−1 dx est la fonction Gamma d’Euler.
0

La loi Gamma généralise la loi exponentielle et on a Γ(1, λ) = E(λ).

61
Chapter 3. Variable aléatoire continue

Si X ∼ Γ(a, b), on a
a a
E(X) = et V (X) =
b b2

3.4.7 Loi de Pareto

Une variable aléatoire X suit la loi de Pareto de paramètres k et x0 ∈ R∗+ , si elle admet pour densité
de probabilité la fonction :
 kxk0

si x ≥ x0 ,
f (x) = xk+1
 0 sinon

et on note X ∼ Part(k, x0 ).

La fonction de répartition est donnée par


 x k
0
F (x) = 1 − avec x ≥ x0 > 0.
x

62
COUPLE DE VARIABLES ALÉATOIRES
4
4.1 Définitions

Définition

Un couple de variables aléatoires sur (Ω, F, P ) est un couple (X, Y ), où X et Y sont des variables
aléatoires réelles sur (Ω, F, P ).

Dans ce qui suit on désignera de façon générale par (X, Y ) un couple de variables aléatoires. On
ne considèrera que des couples où les deux variables sont de même nature, discrètes ou continues, et
on ne s’intéressera pas au cas mixte.

Exemple:

Exemple. 1. On lance deux dés à 6 faces (un jaune et un rouge). On considère les deux variables

63
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

aléatoires X et Y représentant respectivement le plus petit résultat et le plus grand résultat. Alors
(X, Y ) est un couple fini tel que X(Ω) = {1, . . . , 6} et Y (Ω) = {1, . . . , 6}

2. On choisit un étudiant de l’université de Tours au hasard. On considère les deux variables


aléatoires X et Y représentant respectivement sa taille et son poids. Alors (X, Y ) est un couple de
variables aléatoires continues. On considère que X(Ω) = Y (Ω) = R∗+ .

Remarque.

Pour tous réels x dans X(Ω) et y dans Y (Ω), on note {X = x, Y = y} ou {(X, Y ) = (x, y)}
l’événement {X = x} ∩ {Y = y}.

Attention, cet événement peut être vide. En effet, dans le premier exemple avec les dés, l’événement
{X = 4, Y = 3} est impossible, même si les événements {X = 4} et {Y = 3} peuvent chacun être
réalisés avec une probabilité non nulle.

Définition.

On appelle support ou univers image du couple (X, Y ), noté (X, Y )(Ω), l’ensemble des valeurs
prises par (X, Y ) tel que :

(X, Y )(Ω) := {(X(ω), Y (ω), ω ∈ Ω} .

Définition.

Soient X et Y deux variables aléatoires discrètes définies sur le même espace probabilisé (Ω, F, P ).
On notera X(Ω) = {xi , i ∈ I} et Y (Ω) = {yj , j ∈ J}, l’ensemble des valeurs, ordonnées, prises
respectivement par X et Y (où I = {1, . . . , k} et J = {1, . . . , p} sont des ensembles d’entiers). On
appelle couple (X, Y ) l’application

(X, Y ) : Ω → R2
ω → (X(ω), Y (ω))

Alors, l’ensemble (X, Y )(Ω) des valeurs prises par le couple (X, Y ) est inclus dans l’ensemble des
couples de réels suivants {(xi , yj ), (i, j) ∈ I × J}.

64
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

Le support d’un couple peut être difficile à déterminer. Cependant il est inclus dans X(Ω) × Y (Ω).
En effet on a :

(X, Y )(Ω) := {(X(ω), Y (ω), ω ∈ Ω} ⊂ {(X(ω), Y (ω ′ ), ω, ω ′ ∈ Ω} = (X × Y )(Ω) = X(Ω) × Y (Ω).

On se contentera donc de déterminer X(Ω) × Y (Ω) et de tenir compte des événements impossibles.

Exemple.

1. Minimum et maximum de deux dés. On a X(Ω) × Y (Ω) = {1, . . . , 6}2 . . Cependant l’ensemble
des événements qui peuvent se réaliser est
(X, Y )(Ω) = {(i, j) ∈ {1, . . . , 6}2 , i ≤ j}.

2.Taille et poids d’un étudiant. A priori il n’y a pas de restriction. Donc :


(X, Y )(Ω) = X(Ω) × Y (Ω) = (R∗+ )2

4.2 Couple de v.a. discrètes

4.2.1 Loi d’un couple de variables aléatoires discrètes ou loi conjointe

Définition.

On appelle loi conjointe ou loi du couple (X, Y ), l’ensemble des couples


{((xi , yj ), pi,j ), (i, j) ∈ I × J}
où
pi,j = P ((X = xi ) ∩ (Y = yj )) = P ((X, Y )−1 ({(xi , yj )})).

Proposition

{((xi , yj ), pi,j ), (i, j) ∈ I × J} est la loi d’un couple de variables discrètes si et seulement si pij ≥ 0
P
pour tout (i, j) ∈ I × J et (i,j)∈I×J pij = 1.

65
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

4.2.2 Lois marginales

Les variables X et Y sont appelées variables marginales du couple (X, Y ) et leurs lois, appelées loi
marginale de X et loi marginale de Y peuvent être obtenues de la façon suivante :

Supposons connue la loi du couple (X, Y ) : {((xi , yj ), pij ), (i, j) ∈ IJ}. On cherche maintenant à
connaı̂tre la loi de X i.e. l’ensemble des couples (xi , P (X = xi )), i ∈ I. Or la famille des événements
{(Y = yj ), j ∈ J} forme un système complet d’événements, donc d’après la formule des probabilités
totales appliquée à ce système complet d’événements, on obtient :

X X
pi. := P (X = xi ) = p(xi ) = P ((X = xi ) ∩ (Y = yj )) = pij .
j∈J j∈J

De même, la loi de Y s’obtient à l’aide de la formule des probabilités totales appliquée au système
complet d’événements {(X = xi ), i ∈ I}:

X X
p.j := P (Y = yj ) = P (yj ) = P ((X = xi ) ∩ (Y = yj )) = pij .
i∈I i∈I

On pourra représenter la loi conjointe ainsi que les lois marginales par un tableau à double entrée.

Exemple:

66
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

Dans une urne contenant 4 boules blanches, 6 boules noires et 10 boules rouges, on prélève au hasard
et avec remise 3 boules.

Soient la variable aléatoire X qui représente le nombre de boules blanches obtenues, et la variable
aléatoire Y qui représente le nombre de boules noires obtenues.

P(0 et 0) est la probabilité que les trois boules tirées soient rouges, les prélèvements sont indépendants
(tirage avec remise), on peut donc écrire :
10 10 10
p(0, 0) = = 0.125
20 20 20
P(0 et 1) est la probabilité que deux boules tirées soient rouges et une noire, il y a trois possibilités,
on peut donc écrire :
10 10 6
p(0, 0) = 3 = 0.225
20 20 20
P(0 et 2) est la probabilité que deux boules tirées soient noires et une rouge, il y a trois possibilités,
on peut donc écrire :
6 6 10
p(0, 2) = 3 = 0.135
20 20 20
P(1 et 0) est la probabilité que deux boules tirées soient rouges et une blanche, il y a trois possibilités,
on peut donc écrire :
10 10 4
p(1, 0) = 3 = 0.15
20 20 20
P(1 et 1) est la probabilité qu’une boule tirée soit blanche, et une noire et une rouge, il y a six
possibilités, on peut donc écrire :
4 10 6
p(1, 1) = 3 = 0, 18
20 20 20
P(1 et 2) est la probabilité que deux boules tirées soient noires et une blanche, il y a trois possibilités,
on peut donc écrire :
6 6 4
p(1, 2) = 3 = 0, 054
20 20 20
P(2 et 0) est la probabilité que deux boules tirées soient blanches et une rouge, il y a trois possibilités,
on peut donc écrire :
4 4 10
p(2; 0) = 3 = 0.06
20 20 20
P(2 et 1) est la probabilité qu’une boule tirée soit noire, et deux blanches, il y a trois possibilités, on
peut donc écrire :
6 4 4
p(2, 1) = 3 = 0, 036
20 20 20

67
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

P(2 et 2) est la probabilité que deux boules tirées soient noires et deux blanches, ce qui est impossible
car on tire que trois boules. On peut donc écrire :
P (2, 2) = 0
La loi de probabilités du couple de variables aléatoires (X,Y) est :

4.2.3 Lois conditionnelles

On définit les lois conditionnelles par

pij pij
P (X = xi /Y = yj ) = =
p(yj ) p.j

pij pij
P (Y = yj /X = xi ) = =
p(xi ) pi.

4.2.4 Fonction de répartition

Définition.

Soit (X, Y ) un couple de variables aléatoires. On appelle fonction de répartition conjointe de (X,
Y ) la fonction F : R2 → R définie par
F (x, y) = P (X ≤ x et Y ≤ y)

68
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

Dans le cas de deux variables discrètes, on a :


X
F (x, y) = pij
i/xi ≤x et j/yj ≤y

4.2.5 Indépendance

Définition.

Les v.a. X et Y sont indépendantes si pour tous i ∈ I, j ∈ J, les événements {X = xi } et {Y = yj }


sont indépendants, c’est-à-dire, pour tous i ∈ I, j ∈ J on a :

P (X = xi ∩ Y = yj ) = P (X = xi) × P (Y = yj )
ou encore
pij = pi. × p.j

Théorème

X et Y sont indépendantes si et seulement si pour tous x et y réels,


F (x, y) = FX (x) × FY (y)

Proposition

Les v.a. X et Y sont indépendantes si et seulement si toutes les lois conditionnelles sont identiques
aux lois marginales.

Exemple :

1. On lance deux dés à six faces (un rouge, et un bleu). On appelle X le numéro de la face du dé
bleu, et Y le numéro de la face du dé rouge. On appelle S la somme des faces obtenues.

ˆ Les variables X et Y sont indépendantes.


ˆ Les variables X et S ne sont pas indépendantes.
ˆ Les variables Y et S ne sont pas indépendantes

69
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

1
2. On donne deux variables aléatoires discrètes X vérifiant P (X = −1) = , P (X = 0) =
3
1 1 2
, P (X = 1) = et Y = X .
6 2
La loi de Y :

yi 0 1
P (Y = yi ) 1/6 5/6

Loi du couple (X,Y ) : on calcule la probabilité obtenue pour chaque couple

On a par exemple : P (−1, 0) = P ((X = −1) ∩ (Y = 0)) = 0. Or, P (X = −1) × P (Y = 0) =


1 1 1
× = ̸= 0. X et Y ne sont donc pas indépendantes. (ce résultat était prévisible puisque,
3 6 18
par construction, la variable Y est dépendante de la variable X).

4.2.6 Caractéristiques d’un couple de v.a discrètes

1. Espérance mathématique :
XX
E(X · Y ) = xi yj × p(xi , yj )
i∈I j∈J

70
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

2. Covariance d’un couple de variables aléatoires : la covariance d’un couple de variables aléatoires
est un paramètre permettant d’étudier le sens de la relation entre deux variables. C’est
l’espérance mathématique des produits des écarts par rapport aux espérances. Elle est définit
par :

cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] = E(X · Y ) − E(X)E(Y )

Si X et Y sont deux variables indépendantes, alors leur covariance est nulle. En effet, on a alors
:

E(X · Y ) = E(X) · E(Y ) = E(X)E(Y ),


La réciproque, cependant, n’est pas vraie. Il est en effet possible que X et Y ne soient pas
indépendantes, et que leur covariance soit nulle. Des variables aléatoires dont la covariance est
nulle sont dites non corrélées.
Propriétés :
Soient X et Y deux v.a :

ˆ V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )
ˆ V (X − Y ) = V (X) + V (Y ) − 2Cov(X, Y )
ˆ cov(X,X)=V(X)
ˆ Si X et Y sont indépendantes, alors Cov(X,Y)=0 et on :
– E(X · Y ) = E(X) × E(Y )
– V (X + Y ) = V (X − Y ) = V (X) + V (Y )

3. Coefficient de corrélation linéaire: le coefficient de corrélation linéaire, désigné par r, a pour


objet de mesurer le degré de la relation linéaire entre deux variables X et Y.
Cov(X, Y )
r(X, Y ) = p
V (X)V (Y )
Cette définition montre que le coefficient de corrélation linéaire possède le même signe que la
covariance et qu’il est toujours compris entre -1 et 1.
−1 ≤ r(X, Y ) ≤ 1

Propriétés :

71
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

ˆ Plus r(X, Y ) est proche de 1 plus la relation est forte positive.


ˆ Plus r(X, Y ) est proche de -1 plus la relation est forte négative.
ˆ Plus r(X, Y ) est proche de 0 plus la relation est faible.
ˆ Si X et Y sont indépendantes alors r(X, Y ) = 0. Le réciproque n’est pas toujours vrai.

Exemple:
Soit la distribution de probabilité à deux variables suivante :

72
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

Remarque:

73
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

• X et Y ne sont pas indépendantes car on a


P (X = 1 ∩ Y = 1) = 0 ̸= P (X = 1) × P (Y = 1)

• L’exemple si-dessus montre que le coefficient de corrélation linéaire peut être nul même si les
variables ne sont pas indépendantes.

• Le coefficient de corrélation indique uniquement une dépendance linéaire. D’autres phénomènes,


par exemple, peuvent être corrélés de manière exponentielle, ou sous forme de puissance (relation non
linéaire).

4.3 Couple de v.a. continues

4.3.1 Densité de probabilité

Soient X et Y deux variables aléatoires définies sur le même espace probabilisé (W, P). La loi de couple
sera définie à partir de sa fonction de répartition :
F (x, y) = P (X < x et Y < y)

Définition.

Soient X et Y deux variables aléatoires définies sur le même espace probabilisé (W, P). La loi du
couple (X, Y ) est dite absolument continue s’il existe une fonction positive f de R2 dans R, telle que
pour tous x et y réels, on a Z Z x y
F (x, y) = f (u, v)dudv.
−∞ −∞
La fonction f est dite densité de probabilité du couple (X, Y).

Propriétés :

RR
1. Pour tout A élément de F(Ω2 ), alors P ((X, Y ) ∈ A) = A
f (u, v)du dv.
RR
2. R
f (u, v)du dv = 1.
∂ 2 (F )
3. En tout point où f est continue, f (x0 , y0 ) = (x0 , y0 ).
∂x∂y

74
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

4.3.2 Lois marginales et lois conditionnelles

Si l’on s’intéresse à un événement sur X quelle que soit la valeur prise par Y , on obtient la loi de la
v.a. X qui, dans le contexte d’un couple de v.a., est appelée (comme auparavant) loi marginale.

Définition.

Soit (X, Y ) un couple de variables aléatoires réelles à densité sur (Ω, F, P ). On appelle fonctions
de densité marginales des variables X et Y , notées fX et fY , Zles fonctions de R dans R définies par :
Z +∞ +∞
fX (x) = fX,Y (x, y)dy et fY (y) = fX,Y (x, y)dx
−∞ −∞

Proposition.

Les fonctions de densité marginales du couple (X, Y ) sont exactement les fonctions de densité des
variables aléatoires X et Y .

Soit (X, Y ) un couple aléatoire absolument continu, de densité de probabilité f. Soit fX la densité
de probabilité de X et un réel x tel que fX (x) ̸= 0. La loi conditionnnelle de Y liée par la condition
f (x, y)
X = x est définie par sa densité de probabilité fx (y) = .
fX (x)

4.3.3 Indépendance

Définition. Les variables X et Y sont indépendantes si et seulement si la fonction de répartition du


couple est égale au produit des fonctions de répartitions des lois marginales :
F (x, y) = FX (x)FY (y)
pour tous x et y réels.

Proposition. Les variables X et Y sont indépendantes si et seulement si pour tous x et y réels,


f (x, y) = fX (x)fY (y). Dans ce cas, Cov(X, Y ) = 0.

75
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

4.3.4 Loi de la somme et de produit

4.3.4.1 Loi de la somme

On considère la variable aléatoire Z = X + Y . On peut calculer E(Z) et V(Z) :

• E(X + Y ) = E(X) + E(Y ) (vraie si X et Y sont indépendantes ou non)

• V (X + Y ) = V (X) + V (Y ) si X et Y indépendantes

• V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ) sinon

Si X et Y sont deux v.a discrètes :

Soient X et Y deux v.a discrètes. La loi de X+Y est définie par:


X X X
P (X+Y = s) = P (X = x, Y = s−x) = P (X = s−y, Y = y) = P (X = x, Y = y)
x∈X y∈Y x∈X(Ω),y∈Y (Ω)

Si X et Y sont indépendantes
X X X
P (X+Y = s) = P (X = x)P (Y = s−x) = P (X = s−y)P (Y = y) = P (X = x)P (Y = y)
x∈X y∈Y x∈X(Ω),y∈Y (Ω)

Exemple :
On considère deux roues A et B définies ainsi :

ˆ pour la roue A : on a 20 % de chance de tomber sur le nombre 10, 50 % de chance de tomber


sur le nombre 20 et 30% de chance de tomber sur le nombre 30.

ˆ pour la roue B : on a 40% de chance de tomber sur le nombre 10 et 60% de chance de tomber
sur le nombre 20. On lance successivement les deux roues, on note X la variable aléatoire égale
au nombre obtenu pour la roue A et Y la variable aléatoire égale au nombre obtenu pour la
roue B. nombres obtenus.

Les deux variables X et Y sont indépendantes l’une de l’autre.

La loi de X est donnée par :

76
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

xi 10 20 30
P (X = xi ) 0.2 0.5 0.3

La loi de Y est donnée par :

yi 10 20
P (Y = yi ) 0.4 0.6

La loi de S = X + Y est donnée par :

si 20 30 40 50
P (S = si ) 0.08 0.32 0.42 0.18

Si X et Y sont deux v.a à densité:

Calcul de la fonction densité de Z = X + Y .

On suppose que X et Y sont indépendantes et absolument continues, de densités respectives fX et


fY .

Alors la fonction de répartition F de


ZZ = X + Y est définie par
Z :+∞
+∞
F (z) = P (X + Y < z) = fX (x)FY (z − x)dx = fY (y)FX (z − y)dy
−∞ −∞
Par dérivation (théorème admis)
Z +∞par rapport à z, la densité
Z +∞de probabilité de Z est définie par
f (z) = fX (x)fY (z − x)dx = fY (y)fX (z − y)dy
−∞ −∞

avec f est le produit de convolution de fX et fY noté f = fX ∗ fY .

4.3.4.2 Loi de produit

L’espérance du produit de deux variables aléatoires est donné par la formule E(XY ) = E(X) E(Y )
+ Cov(X, Y ), avec Cov() est la covariance entre les variables. En particulier, lorsque X et Y sont
indépendantes, E(XY) = E(X) E(Y ).

77
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

Soient X et Y deux v.a discrètes. La loi de X × Y est définie par :


X
P (X × Y = z) = P (X = x, Y = y)
x×y=z/(x,y)∈(X×Y )(Ω)

Si X et Y sont indépendantes, alors on :


X
P (X × Y = z) = P (X = x)P (Y = y)
x×y=z/(x,y)∈(X×Y )(Ω)

Exemple :
Un sac contient 4 boules numérotées de 1 à 4. On tire successivement et avec remise deux boules, et
note X1 et X2 les nombres obtenus. Donc, X1 (Ω) = X2 (Ω) = {1, 2, 3, 4}.
La loi Z = X1 × X2 est donnée par :

zi 1 2 3 4 6 8 9 12 16
P (Z = zi ) 1/16 2/16 2/16 3/16 2/16 2/16 1/16 2/16 1/16

P (X1 × X2 = 4) = P (X1 = 1, X2 = 4) + P (X1 = 2, X2 = 2) + P (X1 = 4, X2 = 1)


1 1 1
= + +
16 16 16
3
=
16

4.3.5 Loi de Inf(X,Y) et Sup(X,Y)

Soit X et Y deux variables aléatoires indépendantes et de même loi, de fonction de répartition


FX (x), FY (x), respectivement.

On calcule la loi du sup (ou max) et de l’inf (ou min) en passant par la fonction de répartition, en
utilisant :
(min(X, Y ) > xk ) = (X > xk ) ∩ (Y > xk )
et
(max(X, Y ) < xk ) = (X < xk ) ∩ (Y < xk ).

Posons : I=Inf(X, Y) et S=Sup(X, Y). On a alors:

78
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

X(Ω) = Y (Ω) = S(Ω) = I(Ω).

Pour tout k ∈ X(Ω), on a

FS (xk ) = P (S ≤ xk ) = P ((X < xk ) ∩ (Y < xk ))


= P (X < xk ) × P (Y < xk ) = FX (xk ) × FY (xk )

et

P (I > xk ) = P ((X > xk ) ∩ (Y > xk ))


= P (X > xk ) × P (Y > xk )
= (1 − FX (xk )) × (1 − FY (xk )

donc,

FI (xk ) = P (I < xk )
= 1 − P (I > xk )

4.3.6 Fonction de variable aléatoire

Soit φ une fonction dérivable de R dans R. En posant Y = φ ◦ X, on obtient une nouvelle variable
aléatoire, notée φ(X), que l’on étudiera à l’aide de sa fonction de répartition.

Exemple : Soit X exprimant la consommation en litres aux 100 kilomètres d’une voiture. Aux
Etats-Unis, on s’intéresse plus à la notion de distance parcourue avec un plein, que l’on retranscrit
sous la forme Z est le nombre de miles parcourus avec un gallon d’essence (Plus précisément Z =

79
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

235
).
X

1. Cas où φ est monotone croissante:


Soit FX la fonction de répartition de X. La fonction de répartition FY de Y est définie, pour y
réel, par :
FY (y) = P (Y < y) = P (X < φ−1 (y)) = FX (φ−1 (y)),
soit encore
FX (x) = FY (φ(x)).

Si X est absolument continue, Y aussi et leurs densités de probabilité respectives, fX et fY sont


liées par :

fX (x) fX (φ−1 (y))


fY (y) = (φ−1 (y))′ fX (φ−1 (y)) = ′ = ′ −1
φ (x) φ (φ (y))
ou encore

fX (x) = fY (φ(x))φ (x).

Exemple :
1
•Y = eX a pour densité de probabilité fY (y) = fX (ln(y)) = fX (x)e−x .
y
•Y = log(X) a pour densité de probabilité fY (y) = ey fX (ey ).

2. Cas où φ est décroissante :


Alors X > x équivaut à Y < φ(x), donc
FY (y) = 1 − FX (φ−1 (y))
que l’on peut écrire
FX (x) = 1 − FY (φ(x)).

Dans le cas absolument continu,


−fX (x) −fX (φ−1 (y))
fY (y) = −(φ−1 (y))′ fX (φ−1 (y)) = ′ = .
φ (x) φ′ (φ−1 (y))
c
Exemple : Y = où c > 0 et X est à valeurs dans ]0, +∞[.
X
c c c
FY (y) = P ( < y) = P (X > ) = 1 − FX ( ) pour y > 0 et FY (y) = 0 pour y ≤ 0.
X y y

80
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

3. Cas où φ est quelconque : On résout alors au cas par cas l’inéquation Y < y afin de trouver la
fonction de répartition de Y .
Exemple : pour Y = X 2 , on a :

ˆ pour y < 0, Y < y est impossible ainsi FY (Y ) = 0.


√ √ √ √
ˆ pour y ≥ 0, Y < y correspondant à − y < X < y alors FY (y) = FX ( y) − FX (− y).
1 √ √
Dans le cas où X est absolument continu, fY (y) = √ (fX ( y) + fX (− y)) sur R+ .
2 y

Définition.

Soit X et Y = φ(X) deux variables aléatoires.

ˆ L’espérance mathématique de Y est :

X
E(Y ) = E(φ(X)) = φ(xi )p(xi ) si X est discrète
xi ∈X(Ω)
Z
E(Y ) = E(φ(X)) = φ(x)fX (x)dx si X est continue
R

ˆ La variance de Y est :
V (φ(X)) = E[(φ(X) − E(φ(X)))2 ] = E[(φ(X))2 ] − (E[φ(X)])2
avec :

4.4 Relations entre les principales lois


Pn
• Si les variables Xi suivent une loi B(p) et sont indépendantes, alors la variable Y = i=1 Xi suit
une loi B(n,p).
Pn
• Si les variables Xi suivent une loi P(λi ) et sont indépendantes, alors la variable Y = i=1 Xi
P
suit une loi P( λi ).

• Si X et Y sont deux variables aléatoires indépendantes de loi respectives B(n, p) et B(m, p), alors
X+Y suit la loi B(n + m, p).

81
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

X −m
• Si la variable X suit une loi N (m, σ), alors la variable Y = suit une loi N (0, 1).
σ
• Si X1 , . . . , Xn sont indépendantes et Xi ∼ N (0, 1) pour tout i ∈ {1, . . . , n}, alors Z = X12 + . . . +
Xn2 ∼ χ2n .

• Si X ∼ N (0, 1), Y suit une loi de χ2n à n degrés de liberté et X et Y sont indépendantes, alors
√ X
Z = n √ suit une loi de Student à n degrés de liberté.
Y
• Soit X une variable aléatoire de loi χ2n et Y une variable aléatoire de loi χ2m . Si X et Y sont
X/n mX
indépendantes, alors Z = = est de loi de Fisher-Snedecor à (n,m) degrés de liberté (de
Y /m nY
paramètres n et m). On note X ∼ F (n, m).

4.5 Convergence et approximations

4.5.1 Théorème Central Limite

Deux des résultats les plus importants de probabilités sont le théorème central-limite et la loi des
grands nombres. Ces résultats nécessitent d’utiliser la notion de convergence d’une suite de variables
aléatoires.

Une suite de variable aléatoires {Xn }n≥1 converge en loi vers la loi de probabilité de fonction
de répartition F si et seulement si limn→+∞ FXn (x) = F (x) en tout point x où F est continue. Cela
signifie que, quand n est grand, la loi de probabilité de Xn est approximativement la loi de fonction
de répartition F.

Théorème Central-Limite : Soit {Xn }n≥1 une suite de variables aléatoires réelles indépendantes
p
et de même loi (iid), d’espérance E(X) et d’écart-type σ(X) = V ar(X) fini. Pour tout n ≥ 1, on
pose : Pn
Xi − nE(X) X̄n − E(X)
Zn = i=1p =
nV ar(X) σ(X)

n
Alors la suite {Zn }n≥1 converge en loi vers la loi normale centrée réduite N (0, 1).

82
Chapter 4. COUPLE DE VARIABLES ALÉATOIRES

Concrètement, cela signifie que la loi de toute variable aléatoire égale à la somme d’un nom-
bre ”suffisamment grand” de variables aléatoires indépendantes et de même loi est approximative-
Pn
ment une loi normale. Plus précisément, pour n grand, i=1 Xi est approximativement
 de loi 
p 1 n
P σ(X)
N (nE(X), nV ar(X)), autrement dit, X̄ = i=1 Xi est approximativement de loi N E(X), √ .
n n

Ce qui est remarquable, c’est que ce résultat est vrai quelle que soit la loi des Xi .

4.5.2 Théorème de convergence

Loi forte des grands nombres : Soit {Xn }n≥1 une suite de variables aléatoires réelles indépendantes
1 Pn
et de même loi, d’espérance E(X). Soit X̄n = Xi . Alors la suite {X̄n }n≥1 converge presque
n i=1
sûrement vers E(X).

Concrètement, cela signifie que quand on fait un très grand nombre d’expériences identiques et
indépendantes, la moyenne des réalisations de la variable aléatoire à laquelle on s’intéresse tend vers
l’espérance de sa loi.

Ce résultat permet de justifier l’idée naturelle d’estimer une espérance par une moyenne empirique
et une probabilité par une proportion (fréquence).

4.5.3 Approximations

• Si n ≥ 30 et np < 5, on peut approcher une loi B(n,p) par une loi P(λ), avec λ = np.

• Si n ≥ 30, np ≥ 5 et n(1 − p) ≥ 5, alors on peut approcher une loi B(n,p) par une loi
p
N (np, np(1 − p)).

• Si N ≥ 10n, on peut approcher une loi H(N, n, p) par une loi B(n,p).

• Si λ est assez grand, on peut approcher une loi P(λ) par une loi N (λ, λ).

• Si n est assez grand, on peut approcher une loi χ2n par une loi N (n, 2n).

• Si n est assez grand, on peut approcher une loi Tn par une loi N (0, 1).

83

Vous aimerez peut-être aussi