Vous êtes sur la page 1sur 33

Cours de Probabilités

Deixème Année Génie Civil

Prof. Hamid Zouaki

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

1 Introduction

Toutes les conceptions de la statistique s'accordent à reconnaitre que


cette discipline a pour objet la collecte et l'interprétation de données. L'in-
grédient essentiel des problèmes qualiés de "statistiques" est de considérer
les données traitées comme imparfaites : elles sont entachées d'incertitudes.
Le calcul des probabilités est un outil mathématique de prise en compte de
ces incertitudes dans la réalisation de problèmes concrets.
La probabilité est un concept premier, indéni, tout comme le concept de
point en géométrie. Son emploi dans le traitement de données réelles néces-
site une interprétation empirique.

1.1 Expérience aléatoire


Dénition 1.1. Une expérience est dite aléatoire si on ne peut pas prévoir
par avance son résultat et si répétée dans des conditions identiques, elle peut
donner lieu à des résultats diérents.
Dénition 1.2. On appelle ensemble fondamental (ou espace des états) as-
socié à une expérience aléatoire l'ensemble Ω de tous les résultats possibles
de cette expérience aléatoire.
Dénition 1.3. On appelle événement associé à une expérience aléatoire,
toute partie de l'ensemble fondamental.
Ω tout entier est l'événement certain.
l'événement impossible est représenté par l'ensemble ∅.

Expérience Ω
Lancer d'une pièce {Pile, Face}
Interroger un électeur avant un référendum {Oui, Non}
Lancer d'un dé {1, 2, . . . , 6}
Compter les clients d'une le d'attente N
Observer une durée de fonctionnement R+
Appeler la fonction Random [0, 1]

Dénition 1.4. On appelle tribu sur Ω, toute partie T de l'ensemble des


parties de Ω, telle que
1. A ∈ T ⇒ Ac ∈ T
2. (An ∈ T )n∈N ⇒ An ∈ T
[

n
3. Ω ∈ T

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Remarque 1.1. Il est à noter que l'ensemble Ω n'est pas déduit de manière
unique de l'expérience mais dépend de l'usage qui doit être fait des résultats
(codage).
Remarque 1.2. Un événement est une proposition logique relative au résul-
tat de l'expérience. En fait, on identie un événement à la partie de Ω pour
laquelle cet événement est réalisé.
Cette notation est commode puisqu'elle permet de passer immédiatement des
opérations logiques à des opérations ensemblistes :

Vocabulaire ensembliste Vocabulaire probabiliste


ω∈A ωréalise l'événement A
A∪B A ou B est réalisé
A∩B A et B sont réalisés
Ac A complémentaire
A∩B =∅ A et B sont incompatibles
A⊂B A implique B

1.2 Dénition axiomatique


Pour décrire une expérience aléatoire et les événements associés, on a
construit un ensemble Ω et une algèbre d'événements.
Pour décrire les lois du hasard dans la réalisation des événements, on associe
à tout événement A un nombre qui représente "les chances de voir se
réaliser A". C'est la loi de probabilité.

Un moyen intuitif pour dénir une telle fonction est de répéter l'expé-
rience aléatoire, et d'associer à tout événement sa fréquence expérimentale.
Si n est le nombre d'expériences et nA le nombre de fois où l'événement A
nA
s'est produit, la fréquence expérimentale de A est le rapport .
n
L'inconvénient est que la fréquence expérimentale changera si on renou-
velle les n expériences.
Cependant, on sait d'après la loi "des grands nombres" que les fréquences
expérimentales sur un grand nombre de répétition varient peu.
Les propriétés que l'on attend d'une loi de probabilité sont celles
des fréquences expérimentales. On les considère comme des axiomes de
dénition.

Dénition 1.5. On appelle loi de probabilité sur (Ω, T ) une application P


de T dans R qui vérie :
1. Pour tout événement A 0 ≤ P (A) ≤ 1
2. La probabilité de l'événement certain est 1 : P (Ω) = 1

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

3. Pour toute suite d'événements incompatibles (disjoints deux à deux)


A1 , . . . , An . . ., on a
[ X
P ( Ai ) = P (Ai )
i i

Propriétés :
1. P (Ac ) = 1 − P (A); P (∅) = 0
2. Si A ⊂ B; P (A) ≤ P (B)
3. P (A ∪ B) + P (A ∩ B) = P (A) + P (B)
n
4.
X
P (∪ni=1 Ai ) ≤ P (Ai )
i=1

1.2.1 Probabilité sur un ensemble ni


Probabilité uniforme :
Soit Ω = {ω1 , . . . , ωn } un ensemble ni à n éléments, résultats d'une expé-
rience aléatoire.
Supposons que chaque résultat particulier ait les mêmes chances de se pro-
duire (hypothèse faite après examen des conditions générales de réalisation
de l'expérience et|ou observation du fait que les fréquences de réalisation de
chaque résultat tendent vers la même limite).
La probabilité ainsi dénie sur Ω vérie :
n
X
P (Ω) = P (ωi ) = 1
i=1
P (ωi ) = P (ωj ) ∀i, j

d'où
1
P (ωi ) =
n
Par suite l'équiprobabilité implique une règle de calcul simple :
X cardA cardA
P (A) = P (ωi ) = =
n carΩ
ωi ∈A

ce qui correspond à la règle empirique habituelle :


nbre de cas favorables
P (A) = .
nbre de cas possibles
Probabilité quelconque :
Exemple :
On jette un dé un grand nombre de fois et on remarque que les fréquences
fi d'apparition des faces se comportent comme suit :

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

1 1 1 1 2
f1 semble tendre vers , f2 vers , f3 vers , f4 vers , f5 vers et f6 vers
6 9 6 6 9
1
.
6
L'espace associé est {1, 2, 3, 4, 5, 6} et la probabilité rendant compte du phé-
nomène observé doit être :
1
P (1) = P (3) = P (4) = P (6) =
6
1 2
P (2) = , P (5) =
9 9

1.2.2 Probabilité sur un ensemble inni


Ω est dénombrable
Exemple :
On jette une pièce de monnaie jusqu'à ce que face apparaisse et on compte
le nombre de fois où on a jeté la pièce.
Ω = {1, 2, . . . , ∞}
La fonction dénie comme suit est bien une fonction de probabilité sur Ω :
1 1 1
P (1) = , P (2) = , . . . , P (n) = n , . . .
2 4 2
P vérie les trois axiomes d'une probabilité.

Ω est continu
L'ensemble des éventualités Ω est R. Les événements sont les intervalles et
tous les sous-ensembles de R obtenus en combinant les intervalles par inter-
section et réunion.

Dénition 1.6. On appelle densité de probabilité une fonction de R dans


R+ , continue par morceaux et d'intégrale 1 :
Z
f (x) ≥ 0, ∀x ∈ R et f (x)dx = 1.
R

Etant donnée une densité de probabilité, on dénit une loi de probabi-


lité sur R en associant à tout événement A l'intégrale de la densité sur cet
événement : Z
P (A) = f (x)dx
A
Exemple :
Pour l'expérience aléatoire consistant à tirer au hasard un réel dans [0,1]
(appel à la fonction Random), on considère la loi de probabilité continue, de
densité :
1, si x ∈ [0, 1] ;

f (x) =
0, sinon.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Elle donne à tout intervalle inclus dans [0,1] une probabilité égale à sa lon-
gueur.

Exemple :
La position d'une boule de billard sur le tapis peut être décrite par une
probabilité uniforme sur le rectangle :
surface de A
P (A) = .
surface du rectangle

2 Probabilités conditionnelles

La connaissance d'une information sur une expérience peut modier l'idée


qu'on se fait de la probabilité d'un événement.
Dénition 2.1. Soit B un événement de probabilité non nulle. On appelle
probabilité conditionnelle de A sachant B le rapport noté P (A|B) :
P (A ∩ B)
P (A|B) =
P (B)
On vérie qu'elle possède les propriétés d'une probabilité :
P (Ω ∩ B) P (B)
 P (Ω|B) = = =1
P (B) P (B)
 Si les Ai sont disjoints (incompatibles)

P ((∪i Ai ) ∩ B) P (∪i (Ai ∩ B)) X P (Ai ∩ B)


P (∪i Ai |B) = = =
P (B) P (B) P (B)
i
X
= P (Ai |B)
i

Interprétation :
Le fait de saoir que B est réalisé réduit l'ensemble des résultats possibles.
Seules les éventualités de A ∩ B ont une importance. La probabilité de A
sachant B doit donc être proportionnelle à P (A ∩ B).
Du point de vue fréquentiel, si on admet la loi des grands nombres, la pro-
babilité doit être vue comme une limite de fréquences expérimentales. Si nA
désigne la fréquence expérimentale de A, on a
nA∩B
P (A ∩ B) n nA∩B
P (A|B) = ≈ nB =
P (B) n nB

Il faut donc voir la probabilité conditionnelle P (A|B) comme la limite, quand


le nombre d'expériences tend vers l'inni, de la proportion de fois où A est
réalisée parmi les expériences où B l'est aussi.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Exemple :
On jette une paire de dés bien équilibrés. Calculer la probabilité
pour que l'un des dés ait donné un 2 sachant que la somme est égale
à 6.
Soit B = {la somme est égale à 6} et A = {au moins l'un des dés donne 2}.
On a Ω = {(1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)}
B = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)} et A ∩ B = {(2, 4), (4, 2)}.

card(A ∩ B) 2
P (A|B) = =
card(B) 5
Indépendance :
L'idée intuitive d'indépendance de deux événements est : le connaissance de
B ne change pas les chances de réalisation de A. Ou encore : sur un grand
nombre d'expériences, la proportion de fois où A s'est produit quand B était
réalisé est approximativement la même que quand B ne l'était pas.

Dénition 2.2. A est indépendant de B si P (A|B) = P (A)


En revenant à la dénition de la probabilité conditionnelle, on peut écrire

P (A|B) = P (A) ⇔ P (B|A) = P (B) ⇔ P (A ∩ B) = P (A)P (B)

La dénition d'indépendance se généralise de la manière suivante :

Dénition 2.3. Les événements A1 , . . . , An sont indépendants si pour tout


sous ensemble d'indices {i1 , . . . , ik }, la probabilité de l'intersection est le pro-
duit des probabilités :
k
\ k
Y
P( Aij ) = P (Aij )
j=1 j=1

Des expériences aléatoires E1 , . . . , Em sont indépendantes si pour tout n-uplet


d'événements A1 , . . . , An , où Ai est observable à l'issu de l'expérience Ei , les
événements A1 , . . . , An sont indépendants.
Exemple :
Un ouvrier surveille deux machines A et B . La machine A demande
1
son intervention avec la probabilité pendant une heure et la machine
7
1
B avec la probabilité dans le même temps. Quelle est la probabilité
5
pour qu'il ne soit pas dérangé en une heure.
On suppose que les deux machines sont indépendantes (ici l'indépendance
n'est pas à montrer, c'est une donnée du problème). Soient les événements :
A : la machine A tombe en panne et B : la machine B tombe en panne.
1 6
P (Ac ) = 1 − P (A), donc P {A ne tombe pas en panne} = 1 − =
7 7

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

1 4
P {B ne tombe pas en panne} = 1 − = .
5 5
Les deux événements étant indépendants, la probabilité pour que les deux
se produisent en même temps est le produit des probabilités de réalisation
de chacun d'entre eux :
6 4 24
P {A et B ne tombent pas en panne} = . = ' 0.69
7 5 35
Remarque 2.1. L'indépendance est une propriété qui dépend de la mesure
de probabilité sur T et non de T lui même (contrairement à la compatibilité) :
pour un jeu de cartes, A1 l'événement "obtenir un as" et A2 l'événement
"obtenir un carreau".
1. Dans le cas d'un jeu non truqué assurant l'équiprobabilité :
4 13
P (A1 ) = P (A2 ) =
52 52
1 4 13
P (A1 ∩ A2 ) = = . = P (A1 )P (A2 )
52 52 52
2. Dans le cas d'un jeu truqué où l'as de carreau est marqué pour per-
mettre de le faire apparaître deux fois plus que les autres cartes :
5 14
P (A1 ) = , P (A2 ) =
53 53
2
P (A1 ∩ A2 ) = 6 P (A1 )P (A2 )
=
53

Formule de Bayes
P (A ∩ B)
On a par dénition P (B|A) = et P (A∩B) = P (A|B)P (B)
P (A)
On en déduit
P(A|B).P(B)
P(B|A) =
P(A)
C'est la première formule de Bayes.
Soient maintenant B1 , . . . , Bn une partition de Ω :
Ω = B1 ∪ B2 . . . ∪ Bn avec Bi ∩ Bj = ∅ pour i 6= j .

P (A ∩ Bi ) = P (A|Bi )P (Bi )
X
P (A) = P (A ∩ Bi )
i
X
= P (A|Bi )P (Bi )
i

Donc et d'après la première formule de Bayes, on obtient


P(A|Bi ).P(Bi )
P(Bi |A) = Pn
k=1 P(A|Bk )P(Bk )

C'est la deuxième formule de Bayes.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Exemple d'application :
Dans une usine, trois machines M1 , M2 , M3 fabriquent des boulons de même
type.
M1 sort en moyenne 0.3% de boulons defectueux ; M2 0.8% et M3 1%.
On mélange 1000 boulons au hasard dans une caisse contenant 500 prove-
nant de M1 , 350 de M2 et 150 de M3 .
On tire un boulon au hasard dans la caisse, il est defectueux. Quelle est la
probabilité qu'il ait été fabriqué par M1 (M2 ou M3 ) ?

On note Mi : "le boulon tiré provient de la machine Mi ".


P (M1 ) = 0.5, P (M2 ) = 0.35 et P (M3 ) = 0.15 (probabilités à priori).
On sait que le boulon tiré est defectueux. Il faut donc calculer les probabili-
tés P (Mi |D) où D est l'événement " le boulon tiré est defecteux".
Ce que l'on connait :
P (D|M1 ) = 0.03, P (D|M2 ) = 0.008 et P (D|M3 ) = 0.01 (les vraisemblances).
L'utilisation de la deuxième formule de Bayes nous donne

P (D|M1 ).P (M1 )


P (M1 |D) =
P (D|M1 ).P (M1 ) + P (D|M2 ).P (M2 ) + P (D|M3 ).P (M3 )

Application numérique :
0, 003.0, 5
P (M1 |D) = ' 0, 26.
0, 003.0, 5 + 00, 008.0, 35 + 0, 01.0, 15

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

3 Variables aléatoires

3.1 Dénition
On appelle variable aléatoire "toute mesure d'une grandeur dont
les valeurs dépendent du hasard"
Exemple :
On considère le lancer de deux dés équilibrés. L'espace des états associé à
cette expérience est Ω = {(1, 1), (1, 2), . . . ; (6, 6)} muni de la loi de probabi-
1
lité P ({ω}) = .
36
On s'intéresse à la somme des résultats des 2 dés. On dénit ainsi une ap-
plication X :

Ω → E
(x, y) 7→ x + y

où E = {2, 3, . . . , 12}.
Pour avoir la probabilité d'obtention d'une certaine valeur de X , il sut de
dénombrer les éléments de Ω qui réalisent cette valeur :
P (X = 4)? on obtient 4 pour les éléments (1, 3), (2, 2), (3, 1).
3 1
Donc P (X = 4) = = .
36 12
Ecrivons ceci autrement :

P (X = 4) = P ({ω ∈ Ω : X(ω) = 4})


= P (X −1 {4})

On arrive à la dénition :

X est dite variable aléatoire réelle si c'est une application


de Ω dans R telle que l'image réciproque d'un événement est un
événement.
D'une manière équivalente, on a la dénition pratique :

Dénition 3.1. X:Ω→R est une variable aléatoire réelle si, et seulement
si,
{ω ∈ Ω : a ≤ X(ω) ≤ b} est un événement ∀a, b ∈ R

Dénition 3.2 (Loi image). On appelle loi image ou loi de probabilité de la


variable aléatoire X et note PX , la loi obtenue comme image par X de la loi
de probabilité P :
PX (B) = P (X −1 (B)) = P (X ∈ B)

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

En général, on est amené à répéter une même expérience pour en faire


une expérience globale, et donc à observer plusieurs variables aléatoires. La
notion d'indépendance joue alors un rôle très important :

Dénition 3.3. Les variables aléatoires X1 , . . . , Xn sont dites indépendantes


si pour tous n-uplet A1 , . . . , An de T les événements ”X1 ∈ A1 ”, . . . , ”Xn ∈
An ” sont indépendants.

L'indépendance est une propriétés des événements Xi ∈ Ai . Donc, si les


v.a. X et Y sont indépendantes, alors toute fonction de X est indépendante
de toute fonction de Y .

3.2 Fonction de répartition


C'est une manière commode de caractériser la loi de probabilité d'une
variable aléatoire.

Dénition 3.4. La fonction de répartition FX (t) est une application dénie


sur R à valeurs dans [0,1].
Pour tout t ∈] − ∞, +∞[, elle est dénie par :
FX (t) = PX (] − ∞, t]) = P ({ω ∈ Ω : X(ω) ≤ t})

On note FX (t) = P ([X ≤ t])


FX dénit complétement la loi PX .
On cite quelques propriétés importantes de la fonction de répartition :

1. FX est une fonction croissante :

s < t ⇒ FX (s) ≤ FX (t)

2. P (X ∈ ]a, b]) = PX (]a, b]) = FX (b) − FX (a)


cette propriété montre l'importance pratique de la fonction de répar-
tition, puisqu'elle permet le calcul de la probabilité de tout intervalle.
1
3. P (X = b) = PX {b} = FX (b) − FX (b− ) = FX (b) − lim FX (b − )
n→+∞ n
4. FX (t) est continue à droite :
lim FX (t) = FX (s)
t→s+
5. FX n'est pas forcèment continue à gauche.
6. lim FX (t) = 0 et lim FX (t) = 1
t→−∞ t→+∞

Exemple : pour l'exemple précédent, calculer FX (4) et FX (10).


Illustrer sur la coube de la fonction de répartition les propriétés précédentes.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

3.3 Variable aléatoire discrète


Une variable ne pouvant prendre qu'un nombre ni ou dénombrable de
valeurs.

• Si X(Ω) = {x1 , . . . , xn } est ni, on dit que X est une variable alétoire
discrète et nie. La loi de X est caractérisée par les couples (xi , pi )1≤i≤n où
pi = P (X = xi ).

pi ≥ 0
n
X
pi = 1
i=1

• Si X(Ω) est inniment dénombrable : X(Ω) = {x1 , . . . , xn , . . .} on dit


que X est une variable alétoire discrète et innie.

pi ≥ 0

X
pi = 1
i=1

Pour une v.a.r. discrète, PX est constituée de masses ponctuelles. Elle


peut être représentée par un diagramme en bâtons :
reprenons l'exemple du lancer des deux dés. La loi de PX est donnée par le
tableau :

xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pi
36 36 36 36 36 36 36 36 36 36 36
Représenter la loi ainsi que sa fonction de répartition.

Proposition 3.1. X est une variable aléatoire discrète si, et seulement si,
sa fonction de répartition est une fonction en escalier.

3.4 Variable aléatoire continue


"Pouvant prendre toutes les valeurs possibles entre des limites données".

La notion de v.a. continue se confond avec celle de variable admettant


une densité de probabilité.

Dénition 3.5. Soi X une variable aléatoire à valeurs dans R et f une


densité de probabilité sur R. On dit que X est une variable aléatoire continue

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

de densité f si pour tout intervalle I de R on a


Z
P (X ∈ I) = f (x)dx
I

Donc, pour déterminer la loi d'une variable aléatoire continue, il faut cal-
culer sa fonction densité ou d'une manière équivalente donner la probabilité
qu'elle appartienne à un intervalle.

La fonction de répartition d'une variable continue est dérivable et est


donnée par
F 0 (t) = f (t)
Si f est la densité de probabilité d'une v.a. X , l'aire totale comprise entre la
courbe et l'axe des x est égale à 1.
La probabilité pour que X soit comprise entre a et b est représentée par l'aire
hachurée sur le graphique.

Propriétés fondamentales :
fX (t) ≥ 0 ∀t
Z +∞
fX (t)dt = 1
−∞
Z t
FX (t) = P (X ≤ t) = f (x)dx
−∞
Z b
P (a < X ≤ b) = FX (b) − FX (a) = f (x)dx
a
Remarques :
1. Il est souvent plus commode d'utiliser f pour reconaître visuellement
la nature de la loi ( allure de f ).
Par contre, il est souvent plus commode d'utiliser F pour le calcul
eectif des probabilités d'événements.
2. Pour une variable aléatoire continue

P (X = x) = 0 ∀x

Exemples :
• Evaluer la constante c pour que la fonction
cx 0 < x < 3;
 2
f (x) =
0 ailleurs.
soit une fonction densité et calculer P (1 < X < 2).
Trouver la fonction de répartition pour la v.a.r. X .

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

+∞ 3
x3
Z Z
fX (t)dt = cx2 = [c ] = 9c = 1
−∞ 0 3
1
On en déduit que c = .
9
Z 2 Z 2
1 7
P (1 < X < 2) = f (x)dx = x2 dx = .
1 9 1 29
Z t
F (t) = f (x)dx donc
−∞
t<0 F (t) = 0
t
t3 t3
Z
0≤t<3 F (t) = c x2 dx = c =
Z t 0 Z 3 3 27 Z
t
t≥3 F (t) = f (x)dx = f (x)dx + 0dx = 1
0 0 3
donc

t < O;

 0
t3
F (t) = 27 0 ≤ t < 3;
t ≥ 3.

1
• Une personne jouant aux fléchettes trouve que la probabilité
de toucher la cible entre x et x + dx est
x
P (x ≤ X ≤ x + dx) = k[1 − ( )2 ]dx
a
X est la distance de l'impact au centre de la cible, k est une constante
et a est le rayon de la cible.
Evaluer la probabilité de faire mouche dans un rayon b autour de
la cible.

On fait l'hypothèse que la cible est toujours atteinte.


x
La densité de probabilité est k[1 − ( )2 ].
a
La cible étant toujours atteinte, on a
Z a
x
k [1 − ( )2 ]dx = 1
0 a
Z a
x x3 a 2a
(1 − ( )2 )dx = [x − 2 ]a0 = a − =
0 a 3a 3 3
3
Donc k =
2a
La probabilité de faire mouche s'exprime par :
Z b
3 x b(3a2 − b2 )
P (0 ≤ X ≤ b) = (1 − ( )2 )dx =
2a 0 a 2a3

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

4 Moments d'une variable aléatoire

Une loi de probabilité peut être caractérisée par certaines valeurs typiques
associées aux notions de valeur centrale, de dispersion et de forme de la
distribution.

4.1 L'espérance mathématique


Pour une variable discrète, on dénit l'espèrance E(X) par la formule
(lorsqu'elle a un sens) :
X
E(X) = xi P (X = xi )
i

E(X) n'est autre que la moyenne arithmétique des diérentes valeurs de X


pondérées par leurs probabilités.
Pour une variable continue admettant une densité de probabilité f , E(X)
est la valeur (si elle existe)
Z
E(X) = xf (x)dx

E(X) est aussi appelée moyenne de X . C'est un indicateur de valeur centrale


de la loi de X .
1
Dans le cas d'une v.a. nie de loi uniforme : P (X = xi ) = i = 1, . . . , n
n
x1 + x2 + . . . + xn
E(X) = c'est la moyenne arithmétique.
n
Exemples :
• Pour l'exemple du jet des 2 dés, X étant la somme des résultats des deux
dés
12
X
E(X) = pP (X = p)
p=2
1 2 3 4 5 6 5 4 3 2 1
=2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 + 10 + 11 + 12
36 36 36 36 36 36 36 36 36 36 36
= 7.

• X la variable aléatoire de densité f donnée par


 x2
9 0 < x < 3;
f (x) =
0 ailleurs.
3
x3 1 x4
Z Z
71
E(X) = xf (x)dx = dx = [ ]30 = .
R 0 9 9 4 36

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Remarque :
Il faut prendre garde au fait que l'espèrance mathématique n'existe pas
toujours. Ainsi, la loi de Cauchy dont la fonction densité est donnée par
Z +∞
1 x
f (x) = 2
n'a pas d'espèrance pusique l'intégale 2
dx
π(1 + x ) −∞ π(1 + x )
est divergente.

Propriétés :

1. L'espérance est une application linéaire :

E(aX + bY ) = aE(X) + bE(Y )

2. L'espérance d'une constante est une constante

E(a) = a

3. Si E(X) = 0, on dit que X est centrée.


Y = X − E(X) est la variable centrée associée à X :

E(Y ) = E(X) − E(E(X)) = E(X) − E(X) = 0

4. Fonction d'une variable :


Soit la v.a. X : Ω → R et soit h : R → R.
Considérons la v.a. Y = h ◦ X . Alors
 P
 i h(xi )P (X = xi ) si X est discrète ;
E(Y ) = E(h(X)) =
 R +∞ h(x)f (x)dx si X est continue.
−∞

Ceci permet de calculer l'espérance de Y sans avoir besoin de calculer


sa loi ( qui peut parfois être compliquée à calculer).
5. Espérance et fonction de répartition :
On a pour une variable aléatoire positive le résultat suivant :
Z ∞
E(X) = (1 − F (x))dx
0

En eet, sous réserve de convergence et en intégrant par parties


Z ∞ Z ∞
(1 − F (x))dx = [x(1 − F (x))]∞
0 + xf (x)dx
0 0

le crochet est nul si l'intégrale converge.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

4.2 La variance
On appelle variance de X , et on note V ar(X), l'espérance de la variable
aléatoire (X − E(X))2 , si elle existe.
L'existence de la variance entraîne celle de l'espérance. Par contre, une v.a.
peut très bien avoir une espérance mais pas
( de variance :
0 x < 1;
par exemple si X a pour densité f (x) = 2
x3
x ≥ 1.
Mais en général, nous avons

V ar(X) = E((X − E(X))2 )


= E(X 2 − 2XE(X) + E(X)2 )
= E(X 2 ) − 2E(X)E(X) + E(X)2
= E(X 2 ) − E(X)2 .

Proposition 4.1. La variance de X existe si, et seulement si, E(X 2 ) existe


et on a
V ar(X) = E(X 2 ) − E(X)2 .

• Si X est une v.a. discrète prenant les valeurs x1 , . . . , xn

V ar(X) = x21 P (X = x1 ) + x22 P (X = x2 ) + . . . + x2n P (X = xn ) − E(X)2


Xn
= x2i P (X = xi ) − E(X)2 .
i=1

• Si X est une v.a. continue, de densité f


Z
V ar(X) = (x − E(X))2 f (x)dx
Z
= x2 f (x)dx − E(X)2 .

La variance est une mesure de dispersion de X autour de sa moyenne.


Si X est une longueur exprimée en mètres, sa variance est exprimée en mètres
carrés. Pour corriger celà on introduit l'écart type noté σ(X) :
p
σ(X) = V ar(X)
Exemples :
Calcul de la variance pour les exemples précédants :

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

1.
1 2 3 4 5 6 5 4 3
V ar(X) = 4 + 9 + 16 + 25 + 36 + 49 + 64 + 81 + 100
36 36 36 36 36 36 36 36 36
2 1
+ 122 + 144 − 72
36 36
2005
= − 49 = 6.69.
36
2.
1 3 4
Z
71
V ar(X) = x dx − ( )2
9 0 36
1 x 5 71
= [ ]30 − ( )2
9 5 36
= 29.16 − 3.889 = 25.27.

Propriétés :

1. V ar(X) est positive


2. pour a ∈ R V ar(aX) = a2 V ar(X)
3. pour b ∈ R V ar(X + b) = V ar(X)
4. En général V ar(X + Y ) 6= V ar(X) + V ar(Y ) sauf si les variables sont
indépendantes :

V ar(X + Y ) = E((X + Y )2 ) − (E(X) + E(Y ))2


= E(X 2 + 2XY + Y 2 ) − (E(X)2 + E(Y )2 + 2E(X)E(Y ))
= V ar(X) + V ar(Y ) + 2(E(XY ) − E(X)E(Y ))

La quantité E(XY ) − E(X)E(Y ) est appelée la covariance de X et


Y et notée Cov(X, Y ).

Var(X + Y) = Var(X) + Var(Y) + 2Cov(X, Y).

• On rappelle que X et Y sont dites indépendantes si tout événement lié


à X est indépendant de tout événement lié à Y . Soit encore

P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B) ∀A, B.

qu'on peut traduire, en passant par la dénition de l'espérance, par

E(XY ) = E(X)E(Y )

Propriété :
X, Y indépendantes ⇒ Cov(X, Y ) = 0
⇒ V ar(X + Y ) = V ar(X) + V ar(Y ).

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

La réciproque est en génaral fausse.

X −m
• Soit X v.a. d'espérance m et d'écart type σ . On considère Y = .
σ
Y est la variable aléatoire centrée réduite associée à X :
1
E(Y ) = E(X − m) = 0.
σ
1 1
V ar(Y ) =
2
V ar(X − m) = 2 V ar(X) = 1.
σ σ
L'utilisation de Y permet de se débarasser de l'unité de mesure.

• L'espérance et la variance sont reliées par l'inégalité dite de Benyamé-


Tchebychev et qui traduit l'idée intuitive que les valeurs prises par X
s'écartent d'autant moins de E(X) que la variance V ar(X) est petite :

Proposition 4.2. Soit X une variable aléatoire admettant une variance,


alors
V ar(X)
∀a > 0 P (| X − E(X) | ≥ a) ≤ .
a2

Exemple d'application :
Combien de fois faut-il jeter une pièce de monnaie bien équilibrée,
pour que la fréquence d'apparition de pile soit comprise entre 0.4
et 0.6, avec une probabilité supérieure ou égale à 0.9.

Soit X : fréquence de nombre de piles apparus après n jets : le nbre


d'apparition
 de piles sur n
1 si le jet i donne pile ;
Soit Xi =
0 sinon.
1
P (Xi = 1) = P (Xi = 0) = et on a
2
X1 + . . . + Xn
X=
n

1
E(Xi ) = 1.P (Xi = 1) =
2
1 1 1
V ar(Xi ) = E(Xi2 ) − E(Xi )2 = 1. − ( )2 = .
2 2 4
n
1X 1
E(X) = E(Xi ) =
n 2
i=1
X1 , . . . , Xn étant indépendants, on a aussi

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

n
1 X 1 1 1
V ar(X) = 2
V ar(Xi ) = 2 (n. ) =
n n 4 4n
i=1
Question : trouver n tel que P (0.4 ≤ X ≤ 0.6) ≥ 0.9.
0.4 ≤ X ≤ 0.6 ⇔ 0.4 − E(X) ≤ X − E(X) ≤ 0.6 − E(X)
⇔ −0.1 ≤ X − E(X) ≤ 0.1
⇔| X − E(X) |≤ 0.1

P (0.4 ≤ X ≤ 0.6) ≥ 0.9 ⇔ P (| X − E(X) |≤ 0.1) ≥ 0.9


⇔ 1 − P (| X − E(X) |≥ 0.1) ≥ 0.9
⇔ P (| X − E(X) | ≥ 0.1) ≤ 0.1.
Or d'après l'inégalité de Tchebychev
V ar(X) 25
P (| X − E(X) |≥ 0.1) ≤ 2
=
(0.1) n
25
Il sut donc d'avoir ≤ 0.1 i.e. n ≥ 250.
n
• Complément : approximation de l'espérance de φ(X)
Un développement limié à l'ordre 2, au voisinage de l'espèrance m de X
donne :
(x − m)2
φ(x) − φ(m) ' (x − m)φ0 (m) + φ”(m)
2
En prenant l'espérance :
(X − m)2
E(φ(X)) − φ(m) ' E( )φ”(m)
2
D'où
1
E(φ(X)) ' φ(m) + V ar(X)φ”(m).
2

4.3 Coecient de corrélation


La relation entre deux v.a. peut être quantiée par la covariance comme
vue précédemment. Cependant, à l'image de la moyenne et de la variance,
la covariance possède une dimension ce qui la rend plus dicile à interpré-
ter. C'est pourquoi on utilise plus généralement le coecient de corrélation,
indicateur sans dimension, déni par
Cov(X, Y )
ρ(X, Y ) =
σX .σY
Le coecient de corrélation mesure la qualité de la relation linéaire entre
deux variables aléatoires X et Y (i.e. de la forme Y = aX + b).
On a les propriétés suivantes :

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

1. ∀X, Y ρ(X, Y ) ∈ [−1, 1]


2. Si X et Y sont indépendantes, alors ρ(X, Y ) = 0 (la réciproque n'est
pas vraie en général)
3. ρ(a1 X + b1 , a2 Y + b2 ) = sign(a1 .a2 )ρ(X, Y )
4. Si il existe une relation linéaire entre X et Y alors ρ(X, Y ) = ±1
On peut réecrire la relation sur la variance de la somme de deux variables
aléatoires en utilisant le coecient de corrélation :
V ar(X + Y ) = V ar(X) + V ar(Y ) + 2ρ(X, Y )σ(X)σ(Y )

4.4 Autres indicateurs


Il existe d'autres indicateurs permettant de caractériser une v.a.

4.4.1 Histogramme
L'histogramme est analogue à la courbe de densité. L'ordonnée associée
à chaque abscisse est égale à la fréquence d'apparition de la valeur dans
l'échantillon.
Dans le cas d'une v.a. discrète, la construction de l'histogramme est directe.
Par contre pour une v.a. continue, il est nécessaire de résumer les valeurs à
reporter sur la courbe en classes. Il n'existe pas de règles générales pour la
détermination du nombre de classes.

4.4.2 Médiane
C'est la valeur correspondant au milieu de la fonction de répartition.
Si la loi est symétrique, la médiane est égale à l'éespérance mathématique.
C'est un indicateur insensible aux valeurs extrèmes ce qui en fait un outil
intéréssant en statistique.
Si l'on part d'un échantillon de n réalisations triées par ordre croissant, la
médiane est donnée par x e = x n+1 si n est impair. Si n est pair, on prend
2
x n2 + x n2 +1
x
e= .
2
Exemple : la médiane de la série {1, 3, 2, 19, 6, 7, 0} est 3 : 3 est la qua-
trième valeur dans la série triée {0, 1, 2, 3, 6, 7, 19}. Alors que la moyenne est
5.43.

Lorsqu'on ne connait qu'une répartition en classes, on cherche la classe


médiane [ei−1 , ei ] telle que F (ei−1 ) < 0.5 et F (ei ) > 0.5. On détermine la
médiane x
e par interpolation linéaire :
0.5 − F (ei−1
e = ei−1 + (ei − ei−1 )
x
F (ei

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

5 Lois usuelles

Lois usuelles sont ici dans le sens où elles peuvent servir de modèle à de
nombreux problèmes réels. Comme les fonctions usuelles, ces types de lois
permettent des calculs mathématiques simples.

5.1 Lois de probabilités discrètes


5.1.1 Loi discrète uniforme
Intervient essentiellement lorsqu'on procède à un sondage en tirant un
échantillon dans une population.
Valeurs prises: {1, 2, . . . , n}
1
P (X = k) =
n
1 n+1
E(X) = (1 + 2 + . . . + n) =
n 2
1 (n + 1)(2n + 1)
E(X 2 ) = (1 + 4 + . . . + n2 ) =
n 6
(n + 1)(2n + 1) (n + 1)2 n2 − 1
V ar(X) = − =
6 4 12

5.1.2 Loi de Bernoulli


C'est la loi d'une variable X qui ne peut prendre que les valeurs 1 ou 0
avec les probabilités p et 1 − p : on tire suivant la loi uniforme une pièce dans
un bac contenant un pourcentage p de pièces déféctueuses.
P (X = 1) = p et P (X = 0) = q = 1 − p.
E(X) = p.
Comme X 2 = X, E(X 2 ) = p et donc V ar(X) = p(1 − p).

5.1.3 Loi binomiale


On suppose qu'on répète n fois,dans des conditions identiques, une expé-
rience aléatoire dont l'issue se traduit par l'apparition ou non d'un événement
A avec une probabilité p. Le résultat de chaque expérience est supposé indé-
pendant des résultats précédents.
Soit X le nombre d'apparitions de l'événement A parmi ces n expériences.
On dit que X suit une loi binomiale de paramètres n et p et notée B(n; p).
A chaque expérience i on peut associer une variable de Bernoulli Xi de pa-
Xn
ramètre p. On a alors X = Xi . D'où la deuxième dénition équivalente :
i=1
X suit une loi binomiale B(n; p) si c'est la somme de n variables de Bernoulli
indépendantes et de même paramètre p.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

De cette dénition, on déduit l'espérance et la variance de X :


n
X
E(X) = E(Xi ) = np
i=1
n
X
V ar(X) = V ar(Xi ) car les Xi sont indépendants ; donc
i=1

V ar(X) = np(1 − p).

La loi de X est donnée par

P (X = k) = Cnk pk (1 − p)n−k

Exemple :
Loi de probabilité du nombre de garçons dans une famille de quatre
enfants.
1 1 1
P (X = i) = C4i ( )i ( )4−i = C4i ( )4
2 2 2
1 4 6 4 1
P (X = 0) = , P (X = 1) = , P (X = 2) = , P (X = 3) = , P (X = 4) = .
16 16 16 16 16
La fonction de répartition d'une telle loi :
t
X
F (t) = P (X ≤ t) = Cnk pk (1 − p)n−k
k=0

F (3) = P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3).
Propriétés :
 Si X suit une loi binomiale B(n; p) alors n − X suit une loi binomiale
B(n; 1 − p)
 La somme de deux v.a. binomiales indépendantes de même paramètre
p est une loi binomiale :

X1 = B(n1 ; p) et X2 = B(n2 ; p) alors X1 + X2 = B(n1 + n2 ; p)

En eet, X1 + X2 est la somme de n1 + n2 variables de Bernoulli de


même paramètre p.
 On peut approcher la loi binomiale par la loi de Poisson ou la loi
normale.

5.1.4 Loi de Poisson


Dans de nombreuses situations, on s'intérésse au comptage d'objets pos-
sédant un caractère rare dans un grand ensemble : bactéries, virus, individus
porteurs de gènes particulier ... etc. On utilise souvent la loi de Poisson pour

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

modéliser ces situations.


On la rencontre aussi dans des phénomènes de le d'attente à arrivées indé-
pendantes, c'est la loi du nombre d'indiidus qui arrivent pendant un laps de
temps donné. C'est aussi la loi du nombre d'appels téléphoniques pendant
un intervalle de temps.

Une variable aléatoire suit une loi de Poisson de paramètre réel λ > 0 si
elle prend ses valeurs dans N et si pour tout k ∈ N

λk
P (X = k) = e−λ
k!

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki


X λk
E(X) = k e−λ
k!
k=1

X λk−1
= λe−λ
(k − 1)!
k=1

X λk
= λe−λ
k!
k=0

On montre de même que


V ar(X) = λ
Approximation :
Si p est petit (p < 0.01) et n grand (n > 50), on peut approximer la loi
binomiale B(n; p) par une loi de Poisson de paramètre λ = np.

5.2 Lois de probabilités continues


5.2.1 Loi uniforme
La loi uniforme sur un intervalle est la loi des "tirages au hasard" dans
cet intervalle.
Sur l'intervalle [a, b] la loi uniforme a pour densité

 1
, a ≤ t ≤ b;
fX (t) = b−a
 0 ailleurs.

a+b (b − a)2
E(X) = V ar(X) =
2 12

5.2.2 Loi exponentielle de paramètre λ


Si Y suit une loi de Poisson, et traduit le nombre d'apparitions d'un
certain phénomène aléatoire dans un intervalle de temps t, alors la variable
1
aléatoire représente l'intervalle de temps séparant deux apparitions d'un
Y
évènement donné. Cette nouvelle variable suit une loi exponentielle de para-
mètre λ où λ est le paramètre de la loi de Poisson.
C'est la loi dont la fonction densité est donnée par

fX (t) = λe−λt

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

On trouve par calcul direct


1 1
E(X) = V ar(X) =
λ λ2
Cette loi est très utilisée en abilité, pour représenter la durée de vie de
1
circuits électroniques. L'espérance est souvent appelée temps moyen entre
λ
deux pannes MTBF. λ est le taux de défaillance.

5.2.3 Loi de Gauss-Laplace ou loi normale


Cette loi joue un rôle fondamental en probabilités et statistique. De nom-
breux phénomènes réels peuvent être décrits par cette loi.
Son rôle principal provient en réalité de ce qu'elle apparaît comme loi limite
de certaines caractéristiques liées à un échantillon de grande taille. Ceci est
justié par le théorème central limite que nous étudierons un peu plus loin.
Sa fonction densité est dénie par

1 (t−m)2
fX (t) = √ e− 2σ2 m ∈ R, σ > 0
σ 2π
On a
E(X) = m V ar(X) = σ 2

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

La loi normale est souvent notée : N (m, σ 2 )


Propriétés :

X −m
1. X ∈ N (m, σ 2 ) ⇔ Y = ∈ N (0, 1)
σ
C'est cette loi (centrée réduite) qui est tabulée.
2. X1 ∈ N (m1 , σ12 ), X2 ∈ N (m2 , σ22 ) si X1 et X2 sont indépendantes
alors X1 + X2 ∈ N (m1 + m2 , σ12 + σ22 )
3. Pour la loi centrée réduite N (0, 1), la symétrie de la densité f implique
que
F (−t) = 1 − F (t)
Il sut alors que f soit tabulée pour les valeurs positives de t (voir
lecture de la table de la loi de Gauss).
Quelques intervalles d'acceptation :
P (m − σ ≤ X ≤ m + σ) = 0.684
P (m − 1.96σ ≤ X ≤ m + 1.96σ) = 0.95
P (m − 2.57σ ≤ X ≤ m + 2.57σ) = 0.99.

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

6 Théorèmes limites

6.1 Loi faible des grands nombres


Théorème 6.1. Soit X une v.a. admettant une variance. Soit (Xn )n∈N une
suite de v.a. indépendantes de même loi que X . Alors pour tout  > 0
X1 + . . . + Xn
lim P (| − E(X)| > ) = 0
n→∞ n
L'idée intuitive est que si on mesure une même quantité aléatoire au cours
d'une suite d'expériences indépendantes, alors la moyenne arithmétique des
valeurs observées va se stabiliser vers l'espérance.
En simulation, en physique ou en biologie, on ne donnera un résultat sans
indication sur sa précision. C'est le théorème central limite qui permet de
calculer cette précision.
Le théorème central limite est l'un des résultats les plus importants de la
théorie des probabilités. De façon informelle, ce théorème donne une esti-
mation très précise de l'erreur que l'on commet en approchant l'espérance
mathématique par la moyenne arithmétique.

Théorème 6.2 (Théorème central limite). Soit (Xn )n∈N∗ une suite de va-
riables aléatoires indépendantes de même loi, d'éspérance m et de variance
σ 2 . Posons
X1 + . . . + Xn √ Xn − m
Xn = et Zn = n
n σ
Alors la loi de Zn converge vers la loi normale N (0, 1), i.e.
Z b
1 −x2
lim P (a < Zn < b) = √ e 2 dx
n→∞ 2π a

Interprétation :
m est la valeur à estimer. Les n valeurs X1 , . . . , Xn est un échantillon de me-
X1 + . . . + Xn
sures aléatoires indépendantes d'espérance m. La quantité est
n
la moyenne empirique de l'échantillon, qui d'après la loi des grands nombres
doit converger vers m.
Le théorème central limite donne la précision de cette approximation :
si n est assez grand alors Zn est très probablement compris entre -3 et 3 (la
probabilité étant de 0.9973). Soit
3σ 3σ
X n − m ∈ [− √ , √ ]
n n

X n est égale à m à √ près.
n

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Si on réalise susament de simulations de Zn et si on trace un histogramme


1 −x2
des valeurs obtenues, celui ne sera pas très loin de la courbe √ e 2 densité

de la loi normale.

Figure 1  Simulation de la loi binomiale et son approximation par la loi


normale (courbe en rouge)

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

7 Simulation aléatoire

Très souvent en simulation, on est amené à utiliser des échantillons ctifs


de réalisations d'une v.a. de loi déterminée. Nous abordons ici un ensemble
de méthodes de construction de tels échantillons

7.1 Génération de nombres aléatoires


Dénition 7.1. Considérons un ensemble de nombres, par exemple E =
{1, . . . , N }. Soit P : n 7→ pn ≥ 0 une loi de probabilité dénie sur cet
ensemble. pn représente la probabilité pour que le nombre n soit tiré aléatoi-
N
rement de l'ensemble E . On a donc
X
pn = 1
n=1
Une suite innie {x1 , x2 , . . . xm , . . .} de nombres de E sera une suite de
nombres aléatoires suivant la loi de P si cette suite peut être considérée
comme le résultat de tirages indépendants des élémements de E . Chaque
nombre n ayant la probabilité pn d'être tiré.
Quand on ne précise pas la loi de probabilité, il est sous entendu qu'il
s'agit de la distribution de la loi uniforme.

L'outil de base utilisé dans toutes les simulations aléatoires est la géné-
ration d'une suite de nombres aléatoires compris entre 0 et 1 suivant une loi
uniforme.
Une deuxième remarque importante est qu'il n'est pas possible pratiquement
d'engendrer une suite innie. On travaille toujours sur une suite nie. Une
telle suite apparaît comme un échantillon et les nombres de la suite comme
des observations de la variable aléatoire associée à la distribution uniforme.

7.2 Génération de nombres pseudo aléatoires


Générer des nombres aléatoires à travers des tables est un procédé assez
lourd si on désire eectuer une simulation à l'aide d'un ordinateur. On préfére
engendrer directement par programme la suite de nombres. Un ordinateur
fonctionnant de manière déterministe, ne peut reproduire l'aléatoire : les
nombres de la suite sont engendrés par certaines règles bien précises et leur
valeur sont prévisibles.
En général, la valeur retournée par un générateur est une fonction de la
valeur précédante ou des valeurs obtenues précédemment.
Dans le premier cas la suite calculée est une suite récurrente. Une graine u0
étant choisie dans {0, . . . , M − 1}, les valeurs de la suite sont dénies par

un+1 = g(un )

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

g fonction de {0, . . . , M − 1} dans lui même, susamment simple pour être


calculé rapidement.
Les générateurs les plus simples et les plus utilisés sont les générateurs par
congruence. Ils sont de la forme :
g(u) = (Au + C) mod M
Les valeurs de A et M sont déterminées à partir de considérations arithmé-
tiques et de la valeur du plus grand entier représentable. Ainsi, pour 32 bits,
on peut prendre A = 231 − 1 = 2147483647 M = 1313 = 455470314.
Tous les langages de programmation disposent d'un générateur pseudo aléa-
toire. Les syntaxes varient : ran, rand, grand, Random ...

7.3 Génération d'une variable aléatoire


Soit X une variable aléatoire dont on connait la distribution de probabi-
lité. Sa fonction de répartition FX (x) = P [X ≤ x].
Soit Y une variable aléatoire dont la distribution de probabilité est la distri-
bution uniforme sur [0, 1].
−1
On pose Z = FX (Y ) (Z est bien dénie car Y prend ses valeurs dans [0, 1]).
On a le résultat suivant :
Théorème 7.1. Z est une variable aléatoire ayant même distribution de
probabilité que X .
Demonstration :
Il sut de montrer que Z a même fonction de répartition que X :
P (Z ≤ x) = P (FX−1 (Y ) ≤ x) = P (Y ≤ FX (x)) = FX (x).
Ceci monte que si y1 , y2 , . . . , yk est une suite de nombres aléatoires,
F −1 (y1 ), F −1 (y2 ), . . . , F −1 (yk ) sera une suite d'observations de la variable
X.
Cette méthode s'appelle méthode générale par transformation inverse.

Exemple :
On suppose que le long d'une route l'écoulement du trac, dans une direction,
se modélise suivant un processus de Poisson. L'intervalle de temps Z séparant
le passage de 2 véhicules successifs à un même endroit suivra donc une loi
exponentielle.
Z est une v.a. dont la fonction de répartition est :
F (t) = P (Z ≤ t) = 1 − e−λt λ paramètre du processus de Poisson
Notons que pour (0 ≤ y ≤ 1) :
1
F (t) = y ⇔ t = − log(1 − y)
λ

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

Si (y1 , y2 , . . . , yk ) est une suite de nombres aléatoires, alors


1 1 1
(− log(1 − y1 ), − log(1 − y2 ), . . . , − log(1 − yk )) est une suite d'observa-
λ λ λ
tions de la variable Z représentant l'intervalle de temps entre deux arrivées
successives.

7.3.1 Loi binomiale


P (X = k) = Cnk pk (1 − p)n−k p, n doivent être connus.
On pose k0 = 0 et on génère n nombres aléatoires y1 , . . . , yn uniformèment
distribués. Pour chaque yi on fait le test

yi ≤ p alors ki = ki−1 + 1
yi > p alors ki = ki−1

kn sera la valeur de la réalisation d'une variable aléatoire binomiale de pa-


ramètres n et p.

7.3.2 Loi de Poisson

λk
P (X = k) = e−λ
k!
On utilise le fait que les intervalles de temps séparant deux évènements suc-
cessifs suivant une loi de Poisson sont distribués exponentiellement.
On génère donc les intervalles t1 , . . . , tn distribués suivant une loi exponen-
tielle de moyenne 1.
La réalisation k de la variable aléatoire de Poisson de paramètre λ sera alors
déterminée par l'inégalité :
k
X k+1
X
ti < λ < ti
i=1 i=1

avec ti = − log(yi ). y1 , . . . , yn étant des nombres aléatoires.

7.3.3 Loi normale


On utilise le théorème central limite :
La distribution de la moyenne Y d'une variable aléatoire Y tend vers une loi
normale lorsque la taille n de l'échantillon est susamment grande, et ceci
quelle que soit la distribution de la v.a. Y .
On prend pour Y une distribution suivant une loi uniforme sur [0, 1].

1 1
E(Y ) = V ar(Y ) =
2 12

Année Universitaire 2021-2022


Probabilités Prof. Hamid Zouaki

P n
Yi −
La variable aléatoire dénie par pn 2
tend, pour n assez grand, vers
12
une loi normale centrée réduite.
Si y1 , . . . , yn sont des nombres aléatoires, alors
r n
12 X n
xi = µ − σ ( yi − )
n 2
i=1

est une réalisation d'une variable aléatoire suivant la loi normale de moyenne
µ et d'écart type σ .
En pratique, on utilise n ≈ 100.

Année Universitaire 2021-2022

Vous aimerez peut-être aussi