Académique Documents
Professionnel Documents
Culture Documents
1
Probabilités et variables aléatoires
4. On considère la succession des appels à un standard téléphonique non D ÉFINITION 3. — On appelle événement contraire de A, noté AC , le complé-
surchargé et l’on étudie la répartition des instants où le standard reçoit mentaire de A dans Ω :
un appel, à partir d’un instant choisi comme origine (on admet que deux
appels ne peuvent se produire rigoureusement au même instant et que le AC = {ω ∈ Ω : ω ∈
/ A}.
phénomène est limité dans le temps). Une réalisation de cet événement
est une suite croissante de nombres réels positifs ti où ti désigne l’instant L’événement contraire AC est réalisé si et seulement si A n’est pas réalisé.
d’enregistrement du i-ème appel : Ω = {0 < t1 < t2 < · · · < tn < Exemple : Si A est l’événement “la durée de vie du composant est supérieure
N
tn+1 < · · · }. L’univers Ω est donc une partie de (R+ ) . ou égale à 1000 heures” : A = [1000, +∞[, l’événement contraire est l’événe-
ment “la durée de vie du composant est strictement inférieure à 1000 heures” :
5. On considère l’expérience aléatoire “durée de vie d’un individu". L’en-
AC = [0, 1000[.
semble Ω est soit l’ensemble N, soit R+ selon le procédé discontinu ou
continu de cette mesure. D ÉFINITION 4. — Soient A et B deux événements d’un univers Ω.
Nous constatons que Ω peut être fini (exemples 1 et 2), dénombrable (exemples – L’événement “A et B" est celui qui est réalisé si A et B sont réalisés.
3 et 5) ou non dénombrable (exemples 4 et 5). Lorsque Ω est fini ou dénom- C’est l’intersection
brable, on parle d’univers discret. Sinon on parle d’univers continu.
A ∩ B = {ω ∈ Ω : ω ∈ A et ω ∈ B}.
D ÉFINITION 2. — Etant donnée une expérience aléatoire, un événement aléa- – L’événement “A ou B" est celui qui est réalisé si l’un des deux est réalisé
toire est une partie de l’ensemble des résultats possibles de l’expérience, c’est ou si les deux sont réalisés. C’est l’union
donc un sous-ensemble A de l’univers Ω. On dit que l’événement A est réalisé
si le résultat ω de l’expérience appartient à A. A ∪ B = {ω ∈ Ω : ω ∈ A ou ω ∈ B}.
On sait que l’événement A est réalisé seulement une fois l’expérience aléatoire – L’inclusion A ⊂ B signifie que l’événement A ne peut être réalisé sans
réalisée. que B le soit.
Exemples : D ÉFINITION 5. — Deux événements A et B sont dits incompatibles si la réa-
– Si l’on s’intéresse à l’événement suivant : “on a obtenu un chiffre pair lisation de l’un implique la non-réalisation de l’autre.
lors d’un lancer d’un dé à 6 faces”, on introduit A = {2, 4, 6}, qui est un
sous-ensemble de Ω = {1, 2, 3, 4, 5, 6}. Dans l’espace Ω, deux événements incompatibles sont représentés par deux
– Si l’on s’intéresse à l’événement suivant : “la durée de vie du composant parties disjointes. Si A ∩ B = ∅, alors A et B sont incompatibles. Il est clair,
est supérieure ou égale à 1000 heures”, A = [1000, +∞[ est un sous- par exemple que A et AC sont incompatibles.
ensemble de Ω = R+ .
L’ensemble ∅ est appelé l’événement impossible et Ω est appelé l’événement 2.3 Probabilité
certain.
Définition
2.2 Opérations sur les événements
D ÉFINITION 6. — Soit Ω un univers associé à une expérience aléatoire et soit
Les événements aléatoires étant des ensembles, introduisons les opérations A l’ensemble des parties de Ω. Une probabilité P sur l’espace (Ω, A) est une
ensemblistes classiques de la théorie des ensembles. application de A dans [0, 1] telle que
2
Probabilités et variables aléatoires
1. P(Ω) = 1. Dans le cas du lancer de dé à 6 faces, pour tout ω ∈ {1, 2, . . . , 6}, P({ω}) =
2. Si (An )n≥1 est une famille d’événements de A 2 à 2 incompatibles, 1/6.
Si on note l’événement “on a obtenu un chiffre pair” par A = {2, 4, 6}, alors
∞
+∞
P(A) = 3/6 = 1/2.
X
P ∪ An = P(An ).
n=1
n=1
Remarques : Pour un problème donné, il y a souvent plusieurs modélisations
Le triplet (Ω, A, P) est appelé espace de probabilité. possibles, c’est-à-dire que le choix de l’espace de probabilité n’est pas unique.
Remarque : Choisir un élément au hasard signifie que les divers choix pos-
On peut déduire de la définition précédente un certain nombre de propriétés. sibles sont équiprobables, donc que l’ensemble Ω est muni de la probabilité
uniforme. Dans ce cas, tous les calculs sont simples et se ramènent souvent à
P ROPOSITION 7. — Soient A et B deux événements aléatoires. des calculs d’analyse combinatoire.
1. P(∅) = 0.
2.4 Probabilités conditionnelles
N N
P
2. P ∪ An ≤ P(An ). Dans le chapitre précédent, on a parlé de la probabilité d’un événement
n=1 n=1
sans tenir compte de la réalisation d’autres événements. En pratique, on peut
3. Si A1 , . . . , AN sont deux-à-deux incompatibles, considérer plusieurs événements, certains pouvant avoir une influence sur la
N réalisation d’autres événements.
N X
P ∪ An = P(An ).
n=1 Exemple : On lance deux dés. Soient les événements A = { la somme est ≥
n=1
11} et B = { le lancer du 1er dé donne 6}. Il est clair que la réalisation de B
4. P(AC ) = 1 − P(A). influe sur la réalisation de A.
5. Si A ⊂ B, P(A) ≤ P(B).
Supposons que l’on s’intéresse à la réalisation d’un événement A , tout
6. P(A ∪ B) = P(A) + P(B) − P(A ∩ B). en sachant qu’un événement B est réalisé. Si A et B sont incompatibles, alors
7. Si Ω est fini ou dénombrable, alors pour tout événement A, la question est réglée : A ne se réalise pas. Mais si A ∩ B 6= ∅, il est possible
X que A se réalise. Cependant, l’espace des événements possibles n’est plus Ω
P(A) = P({ω}). tout entier, mais il est restreint à B. En fait, seule nous intéresse la réalisation
ω∈A de A à l’intérieur de B, c’est-à-dire A ∩ B par rapport à B. Ceci justifie la
définition suivante.
Exemple : Probabilité uniforme
D ÉFINITION 8. — Soit (Ω, A, P) un espace de probabilité. Soient A et B deux
Soit Ω un ensemble fini : Ω = {ω1 , . . . , ωN }. Pour tout i ∈ {1, 2, . . . , N }, on événements aléatoires tels que P(B) 6= 0. On appelle probabilité condition-
pose P({ωi }) = N1 . Alors, pour toute partie A de Ω, on a nelle de A sachant B la quantité
X Card(A) Card(A) P(A ∩ B)
P(A) = P({ω}) = = . P(A|B) = .
N Card(Ω) P(B)
ω∈A
3
Probabilités et variables aléatoires
P(Ai |A) = P
P(A|Ai )P(Ai )
.
3 Notion de variable aléatoire
i∈I P(A|Ai )P(Ai )
3.1 Introduction
La formule de Bayes (publiée après sa mort en 1763) présente un grand intérêt Dans de nombreuses expériences aléatoires, on n’est pas intéressé direc-
car elle permet de modifier notre connaissance des probabilités en fonction tement par le résultat de l’expérience, mais par une certaine fonction de ce
d’informations nouvelles. Cette formule joue donc un rôle très important dans résultat. Considérons par exemple l’expérience qui consiste à observer, pour
la statistique bayésienne. chacune des n pièces produites par une machine, si la pièce est défectueuse
2.5 Indépendance ou non. Nous attribuerons la valeur 1 à une pièce défectueuse et la valeur 0 à
une pièce en bon état. L’univers associé à cette expérience est Ω = {0, 1}n .
D ÉFINITION 11. — Soit (Ω, A, P) un espace de probabilité, et soient A et B Ce qui intéresse le fabricant est la proportion de pièces défectueuses pro-
deux événements aléatoires. On dit que A et B sont indépendants si duites par la machine. Introduisons donc une fonction de Ω dans R qui à tout
ω = (ω1 , ω2 , . . . , ωn ) de Ω associe le nombre
P(A ∩ B) = P(A)P(B).
n
X ωi
Remarque : A et B sont indépendants si et seulement si P(A|B) = P(A). X(ω) = ,
i=1
n
Cette condition signifie que la probabilité de réalisation de l’événement A n’est
pas modifiée par une information concernant la réalisation de l’événement B. qui correspond à la proportion de pièces défectueuses associée à l’observation
de ω. Une telle fonction X définie sur Ω et à valeurs dans R s’appelle une
P ROPOSITION 12. — Si A et B sont deux événements indépendants alors : variable aléatoire réelle.
4
Probabilités et variables aléatoires
D ÉFINITION 15. — Soit Ω un univers muni d’une probabilité P, et soit X une Remarques :
v.a.r. On appelle loi de probabilité de X, notée PX , l’application qui à toute – x1/2 est appelé médiane de X. La médiane vérifie les deux égalités
partie A de R associe
P (X ≤ x1/2 ) = 1/2 = P (X > x1/2 ).
PX (A) = P ({ω ∈ Ω : X(ω) ∈ A}) .
– Dans le cas où FX n’est pas strictement croissante mais simplement crois-
Remarque : Dans la suite du cours, on utilisera la notation abrégée : sante, on définit le quantile d’ordre α par
P ({ω ∈ Ω : X(ω) ∈ A}) = P(X ∈ A). De même, on notera P(X = x)
xα = inf{x ∈ R : FX (x) ≥ α}.
la probabilité P({ω ∈ Ω : X(ω) = x}).
3.3 Variables aléatoires réelles discrètes
P ROPOSITION 16. — L’application PX définit une probabilité sur R.
Définition
Fonction de répartition
D ÉFINITION 20. — Une v.a.r. X à valeurs dans un ensemble X fini ou dé-
D ÉFINITION 17. — La fonction de répartition de la v.a.r. X est définie par nombrable est appelée v.a.r. discrète. Dans ce cas, la loi de X est déterminée
par l’ensemble des probabilités :
FX (x) = P(X ≤ x), x ∈ R.
PX (x) = P(X = x), x ∈ X.
Propriétés de la fonction de répartition :
1. 0 ≤ FX ≤ 1. Ainsi, pour toute partie A de X , on a alors :
2. FX tend vers 0 en −∞ et vers 1 en +∞.
X X
PX (A) = P(X ∈ A) = P(X = x) et PX (X ) = P(X = x) = 1.
3. FX est croissante. x∈A x∈X
4. FX est continue à droite. Exemple : Supposons que l’on observe la durée de vie T d’une ampoule élec-
trique et que cette durée de vie T , exprimée en heures, satisfait pour tout
P ROPOSITION 18. — On a l’identité 0 < a < b,
P(a < X ≤ b) = FX (b) − FX (a), ∀a < b. P(a < T ≤ b) = exp(−a/100) − exp(−b/100).
5
Probabilités et variables aléatoires
On note X le nombre de périodes complètes de 100 heures que dure l’am- Loi binomiale
poule. Les valeurs possibles de X etant entières, la v.a.r. X est donc discrète.
Calculons la fonction de répartition de X. Comme X est positive, on a On dit qu’une v.a.r. X à valeurs dans {0, 1, . . . , n} suit une loi binomiale de
paramètres (n, p), notée B(n, p), si
FX (x) = P(X ≤ x) = 0, ∀x < 0.
P(X = k) = Cnk pk (1 − p)n−k , 0 ≤ k ≤ n.
De plus, pour tout n ∈ N,
Cette loi intervient par exemple pour modéliser le nombre de pièces défec-
P(X = n) = P(100n ≤ T < 100(n + 1)) = exp(−n) − exp (−(n + 1)) . tueuses dans un lot de n pièces, qui ont chacune une probabilité p d’être dé-
fectueuse, indépendamment les unes des autres.
Ainsi, on a donc pour tout x ≥ 0 :
Loi géométrique
[x]
X
P(X ≤ x) = P(X = n) On dit qu’une v.a.r. X à valeurs dans N∗ suit une loi géométrique de para-
n=0 mètre p ∈]0, 1[, notée G(p), si
= 1 − exp (−([x] + 1)) .
P(X = k) = p(1 − p)k−1 , k ∈ N∗ .
On notera que la fonction FX est une fonction en escalier.
Cette loi permet de modéliser le nombre de réalisations indépendantes d’une
Exemples de variables discrètes
expérience à 2 issues (succès-échec), jusqu’à l’obtention du premier succès, si
Soit X une v.a.r. discrète prenant ses valeurs dans un ensemble à chaque réalisation la probabilité de succès est p.
{x1 , x2 , . . . , xn }, éventuellement infini. Alors la loi de X est caractérisée par
Loi de Poisson
l’ensemble des probabilités P(X = xi ), c’est-à-dire les nombres réels positifs
pi tels que On dit qu’une v.a.r. X à valeurs dans N suit une loi de Poisson de paramètre
n λ > 0, notée P(λ), si
X
P(X = xi ) = pi avec 0 ≤ pi ≤ 1 et pi = 1.
λk
i=1 P(X = k) = e−λ k ∈ N.
k!
Loi de Bernoulli
Cette loi intervient comme comportement limite de la loi binomiale lorsque
On dit qu’une v.a.r. X à valeurs dans {0, 1} suit une loi de Bernoulli de n → +∞ et np → λ.
paramètre p ∈]0, 1[, notée B(p), si Elle intervient également pour modéliser des “événements rares”. Soit N la
variable aléatoire comptant le nombre d’occurrences d’un événement pendant
P(X = 1) = 1 − P(X = 0) = p.
une période donnée T . On suppose qu’un seul événement arrive à la fois, que
Par exemple, cette loi intervient lorsque l’on modélise l’état de fonctionnement le nombre d’événement se produisant pendant T ne dépend que de la durée de
d’un système. La probabilité que le système fonctionne vaut p et la probabilité cette période et que les événements sont indépendants.
que le système ne fonctionne pas vaut 1 − p. Cette loi s’applique aussi aux jeux Si le nombre moyen d’événements (i.e. accidents) par unité de temps (i.e.
de hasard de type binaire comme pile ou face . . . semaine) est c, alors on démontre que la probabilité d’obtenir n événements
6
Probabilités et variables aléatoires
pendant un temps T est : Une densité de probabilité est donc une fonction positive ou nulle, d’intégrale
n 1, et qui caractérise la loi d’une v.a.r. continue. De plus, en tout point x0 ∈ R
(cT ) 0
P(N = n) = exp(−cT ) . où FX est dérivable, on a fX (x0 ) = FX (x0 ).
n!
Exemple : Dans l’exemple de la durée de vie T d’une ampoule électrique, T
3.4 Variables aléatoires réelles continues a pour densité de probabilité
Définition
exp(−x/100)/100 pour tout x ≥ 0
f (x) =
D ÉFINITION 21. — Soit X une v.a.r. qui prend un nombre infini non dénom- 0 pour tout x < 0.
brable de valeurs. Si FX est une fonction continue, on dit que X est une v.a.r.
continue. Dans ce cas, la loi de X est déterminée par l’ensemble des probabi- Enfin, établir que deux v.a.r. (discrètes ou continues) X et Y ont même loi,
lités P(a < X < b), pour tout a < b. c’est démontrer que l’on a l’égalité suivante :
Remarque : Notons que l’on peut mettre < ou ≤ dans ce qui précède car la P(a < X ≤ b) = P(a < Y ≤ b), a, b ∈ R.
variable étant continue, on a P(X = x) = 0 pour tout x ∈ R. Exemple : Soit
λ > 0. Une v.a.r. X de fonction de répartition Ainsi, en faisant tendre a vers −∞, on obtient le résultat suivant :
1 − exp(−λx) si x ≥ 0 T HÉORÈME 23. — Deux v.a.r. à valeurs dans le même ensemble d’arrivée ont
FX (x) =
0 si x < 0 la même loi si et seulement si leurs fonctions de répartition sont égales.
est continue.
Exemples de variables continues
D ÉFINITION 22. — Si l’on peut écrire la fonction de répartition d’une va-
riable continue sous la forme Soit X une v.a.r. continue. Alors la loi de X est caractérisée par l’ensemble
Z t des probabilités
Z b
FX (t) = fX (x)dx, P(a < X < b) = fX (x)dx,
−∞ a
où fX est une fonction de R dans R, alors on dit que fX est la densité de où f est la densité de probabilité de X et a et b sont deux nombres réels,
X
probabilité de la v.a.r. X. éventuellement infinis. Comme nous l’avons vu plus haut, il suffit de connaître
cette densité pour connaître la loi de X.
Ceci implique que l’on a pour tout a < b :
Z b Loi uniforme
P(a < X < b) = FX (b) − FX (a) = fX (x)dx.
a La loi uniforme sur un intervalle est la loi des "tirages au hasard" dans cet
intervalle. Si a < b sont deux réels, la loi uniforme sur l’intervalle [a, b] est
Cee intégrale étant positive pour tout a < b, il en résulte que fX ≥ 0. De plus,
notée U(a, b). Elle a pour densité :
puisque limt→+∞ FX (t) = 1, on a
Z +∞ 1
fX (x)dx = 1. 1[a,b] (x) .
−∞
b−a
7
Probabilités et variables aléatoires
Loi exponentielle
On dit que X suit une loi exponentielle de paramètre λ > 0, notée E(λ), si
0.3
la loi de X a pour densité
dgamma(x, 2)
λ exp(−λx) si x ≥ 0,
0.2
fX (x) =
0 si x < 0.
0.1
La loi exponentielle est utilisée en fiabilité. Le paramètre λ représente le taux
0.0
moyen de défaillance alors que son inverse θ = 1/λ est “le temps moyen
0 2 4 6
de bon fonctionnement". La loi exponentielle s’applique bien aux matériels x
8
Probabilités et variables aléatoires
la quantité X
E(h(X)) = h(x)P(X = x),
x∈X
0.3
Density
pourvu que cette série converge (dans le cas où X est infini).
- Si X est continue et admettant une densité fX , l’espérance de h(X) est la
0.2
quantité
+∞
0.1
Z
E(h(X)) = h(x)fX (x)dx,
−∞
0.0
9
Probabilités et variables aléatoires
10
Probabilités et variables aléatoires
L
On note la convergence en loi Yn → Y.
5 Théorèmes limites
La convergence en loi est réalisée aux points de continuité de FY . C’est la
5.1 Introduction convergence simple de la suite de fonctions de répartition FYn .
Deux théorèmes mathématiques ont une place particulière en théorie des
probabilités et en statistiques : la loi des grands nombres et le théorème central Propriété d’additivité de la loi normale : si X1 , . . . , Xn sont des v.a.r. indé-
limite. Ils interviennent dans l’étude de phénomènes aléatoires comportant un pendantes et de même loi N (µ, σ 2 ), alors la v.a.r. X1 + . . . +
PX n suit la loi
n
grand nombre de v.a.r. indépendantes de même loi. Par exemple, pour le pre- N (nµ, nσ 2 ). Ce résultat implique que la v.a.r. centrée réduite i=1 Xσi√−µ n
suit
mier cité, il apparaît lorsque l’on étudie la proportion de “pile" dans un jeu de la loi normale N (0, 1). Que se passe-t-il dans le cas général où les v.a.r. Xi ne
pile ou face, ou encore la moyenne de lancers de dé successifs. Quant au se- sont pas nécessairement normales ? Le résultat ci-dessus se transforme alors
cond, il nous donne de façon informelle une estimation précise de l’erreur que en un résultat de convergence en loi.
l’on commet en approchant l’espérance mathématique par la moyenne arith-
métique. T HÉORÈME 32. — (TCL) Soient X1 , . . . , Xn des v.a.r. indépendantes, de
même loi, et admettant une variance. On note µ = E(X1 ) et σ 2 = Var(X1 ).
5.2 Loi (faible) des grands nombres Alors
T HÉORÈME 30. — (LGN) Soient X1 , . . . , Xn des v.a.r. indépendantes, de X1 + . . . + Xn − nµ L
√ −→ N (0, 1) lorsque n → +∞.
même loi, et admettant une variance. On note µ = E(X1 ). Alors, pour tout σ n
11
Probabilités et variables aléatoires
0.12
1 si la i-ème pièce contrôlée est défectueuse, et 0 sinon. On note Y = X1 +
0.10
. . . Xn le nombre total de pièces défectueuses dans le lot. Alors la v.a.r. Y suit
0.08
Densité
une loi binomiale de paramètres (n, p) où p est la probabilité qu’une pièce soit
0.06
défectueuse.
0.04
0.02
Approximation par une loi normale
0.00
Puisque les v.a.r. Xi sont indépendantes, de même loi, et de variance finie : 0 5 10 15 20
λk
p
On peut donc approcher la loi de la v.a.r. (Y − np)/ np(1 − p) par une loi lim P (Yn = k) = exp(−λ) .
normale N (0, 1). Ceci revient à approcher la loi de Y par une loi N (np, np(1− n→+∞ k!
p)). En pratique, on utilise cette approximation si
12
Probabilités et variables aléatoires
0.15 * *
* *
*
0.10
Densité
*
*
0.05
* *
* * *
0.00
*
0 2 4 6 8 10 12
F IGURE 4 – Approximation d’une loi B(50, 0.1) (bleue) par une loi de Pois-
son(5) (rouge) et une loi N (5, 4.5) (verte).
n=1 n=4
Density
Density
0.4
0.0 0.6
0.0
x x
n=8 n=12
0.0 0.2 0.4
Density
Density
0.3
0.0
1 2 3 4 5 6 7 3 4 5 6 7 8 9
x x
13