Académique Documents
Professionnel Documents
Culture Documents
1 Introduction
Expérience Ω
Lancer d'une pièce {Pile, Face}
Interroger un électeur avant un référendum {Oui, Non}
Lancer d'un dé {1, 2, . . . , 6}
Compter les clients d'une le d'attente N
Observer une durée de fonctionnement R+
Appeler la fonction Random [0, 1]
n
3. Ω ∈ T
Remarque 1.1. Il est à noter que l'ensemble Ω n'est pas déduit de manière
unique de l'expérience mais dépend de l'usage qui doit être fait des résultats
(codage).
Remarque 1.2. Un événement est une proposition logique relative au résul-
tat de l'expérience. En fait, on identie un événement à la partie de Ω pour
laquelle cet événement est réalisé.
Cette notation est commode puisqu'elle permet de passer immédiatement des
opérations logiques à des opérations ensemblistes :
Un moyen intuitif pour dénir une telle fonction est de répéter l'expé-
rience aléatoire, et d'associer à tout événement sa fréquence expérimentale.
Si n est le nombre d'expériences et nA le nombre de fois où l'événement A
nA
s'est produit, la fréquence expérimentale de A est le rapport .
n
L'inconvénient est que la fréquence expérimentale changera si on renou-
velle les n expériences.
Cependant, on sait d'après la loi "des grands nombres" que les fréquences
expérimentales sur un grand nombre de répétition varient peu.
Les propriétés que l'on attend d'une loi de probabilité sont celles
des fréquences expérimentales. On les considère comme des axiomes de
dénition.
Propriétés :
1. P (Ac ) = 1 − P (A); P (∅) = 0
2. Si A ⊂ B; P (A) ≤ P (B)
3. P (A ∪ B) + P (A ∩ B) = P (A) + P (B)
n
4.
X
P (∪ni=1 Ai ) ≤ P (Ai )
i=1
d'où
1
P (ωi ) =
n
Par suite l'équiprobabilité implique une règle de calcul simple :
X cardA cardA
P (A) = P (ωi ) = =
n carΩ
ωi ∈A
1 1 1 1 2
f1 semble tendre vers , f2 vers , f3 vers , f4 vers , f5 vers et f6 vers
6 9 6 6 9
1
.
6
L'espace associé est {1, 2, 3, 4, 5, 6} et la probabilité rendant compte du phé-
nomène observé doit être :
1
P (1) = P (3) = P (4) = P (6) =
6
1 2
P (2) = , P (5) =
9 9
Ω est continu
L'ensemble des éventualités Ω est R. Les événements sont les intervalles et
tous les sous-ensembles de R obtenus en combinant les intervalles par inter-
section et réunion.
Elle donne à tout intervalle inclus dans [0,1] une probabilité égale à sa lon-
gueur.
Exemple :
La position d'une boule de billard sur le tapis peut être décrite par une
probabilité uniforme sur le rectangle :
surface de A
P (A) = .
surface du rectangle
2 Probabilités conditionnelles
Interprétation :
Le fait de saoir que B est réalisé réduit l'ensemble des résultats possibles.
Seules les éventualités de A ∩ B ont une importance. La probabilité de A
sachant B doit donc être proportionnelle à P (A ∩ B).
Du point de vue fréquentiel, si on admet la loi des grands nombres, la pro-
babilité doit être vue comme une limite de fréquences expérimentales. Si nA
désigne la fréquence expérimentale de A, on a
nA∩B
P (A ∩ B) n nA∩B
P (A|B) = ≈ nB =
P (B) n nB
Exemple :
On jette une paire de dés bien équilibrés. Calculer la probabilité
pour que l'un des dés ait donné un 2 sachant que la somme est égale
à 6.
Soit B = {la somme est égale à 6} et A = {au moins l'un des dés donne 2}.
On a Ω = {(1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)}
B = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)} et A ∩ B = {(2, 4), (4, 2)}.
card(A ∩ B) 2
P (A|B) = =
card(B) 5
Indépendance :
L'idée intuitive d'indépendance de deux événements est : le connaissance de
B ne change pas les chances de réalisation de A. Ou encore : sur un grand
nombre d'expériences, la proportion de fois où A s'est produit quand B était
réalisé est approximativement la même que quand B ne l'était pas.
1 4
P {B ne tombe pas en panne} = 1 − = .
5 5
Les deux événements étant indépendants, la probabilité pour que les deux
se produisent en même temps est le produit des probabilités de réalisation
de chacun d'entre eux :
6 4 24
P {A et B ne tombent pas en panne} = . = ' 0.69
7 5 35
Remarque 2.1. L'indépendance est une propriété qui dépend de la mesure
de probabilité sur T et non de T lui même (contrairement à la compatibilité) :
pour un jeu de cartes, A1 l'événement "obtenir un as" et A2 l'événement
"obtenir un carreau".
1. Dans le cas d'un jeu non truqué assurant l'équiprobabilité :
4 13
P (A1 ) = P (A2 ) =
52 52
1 4 13
P (A1 ∩ A2 ) = = . = P (A1 )P (A2 )
52 52 52
2. Dans le cas d'un jeu truqué où l'as de carreau est marqué pour per-
mettre de le faire apparaître deux fois plus que les autres cartes :
5 14
P (A1 ) = , P (A2 ) =
53 53
2
P (A1 ∩ A2 ) = 6 P (A1 )P (A2 )
=
53
Formule de Bayes
P (A ∩ B)
On a par dénition P (B|A) = et P (A∩B) = P (A|B)P (B)
P (A)
On en déduit
P(A|B).P(B)
P(B|A) =
P(A)
C'est la première formule de Bayes.
Soient maintenant B1 , . . . , Bn une partition de Ω :
Ω = B1 ∪ B2 . . . ∪ Bn avec Bi ∩ Bj = ∅ pour i 6= j .
P (A ∩ Bi ) = P (A|Bi )P (Bi )
X
P (A) = P (A ∩ Bi )
i
X
= P (A|Bi )P (Bi )
i
Exemple d'application :
Dans une usine, trois machines M1 , M2 , M3 fabriquent des boulons de même
type.
M1 sort en moyenne 0.3% de boulons defectueux ; M2 0.8% et M3 1%.
On mélange 1000 boulons au hasard dans une caisse contenant 500 prove-
nant de M1 , 350 de M2 et 150 de M3 .
On tire un boulon au hasard dans la caisse, il est defectueux. Quelle est la
probabilité qu'il ait été fabriqué par M1 (M2 ou M3 ) ?
Application numérique :
0, 003.0, 5
P (M1 |D) = ' 0, 26.
0, 003.0, 5 + 00, 008.0, 35 + 0, 01.0, 15
3 Variables aléatoires
3.1 Dénition
On appelle variable aléatoire "toute mesure d'une grandeur dont
les valeurs dépendent du hasard"
Exemple :
On considère le lancer de deux dés équilibrés. L'espace des états associé à
cette expérience est Ω = {(1, 1), (1, 2), . . . ; (6, 6)} muni de la loi de probabi-
1
lité P ({ω}) = .
36
On s'intéresse à la somme des résultats des 2 dés. On dénit ainsi une ap-
plication X :
Ω → E
(x, y) 7→ x + y
où E = {2, 3, . . . , 12}.
Pour avoir la probabilité d'obtention d'une certaine valeur de X , il sut de
dénombrer les éléments de Ω qui réalisent cette valeur :
P (X = 4)? on obtient 4 pour les éléments (1, 3), (2, 2), (3, 1).
3 1
Donc P (X = 4) = = .
36 12
Ecrivons ceci autrement :
On arrive à la dénition :
Dénition 3.1. X:Ω→R est une variable aléatoire réelle si, et seulement
si,
{ω ∈ Ω : a ≤ X(ω) ≤ b} est un événement ∀a, b ∈ R
• Si X(Ω) = {x1 , . . . , xn } est ni, on dit que X est une variable alétoire
discrète et nie. La loi de X est caractérisée par les couples (xi , pi )1≤i≤n où
pi = P (X = xi ).
pi ≥ 0
n
X
pi = 1
i=1
pi ≥ 0
∞
X
pi = 1
i=1
xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pi
36 36 36 36 36 36 36 36 36 36 36
Représenter la loi ainsi que sa fonction de répartition.
Proposition 3.1. X est une variable aléatoire discrète si, et seulement si,
sa fonction de répartition est une fonction en escalier.
Donc, pour déterminer la loi d'une variable aléatoire continue, il faut cal-
culer sa fonction densité ou d'une manière équivalente donner la probabilité
qu'elle appartienne à un intervalle.
Propriétés fondamentales :
fX (t) ≥ 0 ∀t
Z +∞
fX (t)dt = 1
−∞
Z t
FX (t) = P (X ≤ t) = f (x)dx
−∞
Z b
P (a < X ≤ b) = FX (b) − FX (a) = f (x)dx
a
Remarques :
1. Il est souvent plus commode d'utiliser f pour reconaître visuellement
la nature de la loi ( allure de f ).
Par contre, il est souvent plus commode d'utiliser F pour le calcul
eectif des probabilités d'événements.
2. Pour une variable aléatoire continue
P (X = x) = 0 ∀x
Exemples :
• Evaluer la constante c pour que la fonction
cx 0 < x < 3;
2
f (x) =
0 ailleurs.
soit une fonction densité et calculer P (1 < X < 2).
Trouver la fonction de répartition pour la v.a.r. X .
+∞ 3
x3
Z Z
fX (t)dt = cx2 = [c ] = 9c = 1
−∞ 0 3
1
On en déduit que c = .
9
Z 2 Z 2
1 7
P (1 < X < 2) = f (x)dx = x2 dx = .
1 9 1 29
Z t
F (t) = f (x)dx donc
−∞
t<0 F (t) = 0
t
t3 t3
Z
0≤t<3 F (t) = c x2 dx = c =
Z t 0 Z 3 3 27 Z
t
t≥3 F (t) = f (x)dx = f (x)dx + 0dx = 1
0 0 3
donc
t < O;
0
t3
F (t) = 27 0 ≤ t < 3;
t ≥ 3.
1
• Une personne jouant aux fléchettes trouve que la probabilité
de toucher la cible entre x et x + dx est
x
P (x ≤ X ≤ x + dx) = k[1 − ( )2 ]dx
a
X est la distance de l'impact au centre de la cible, k est une constante
et a est le rayon de la cible.
Evaluer la probabilité de faire mouche dans un rayon b autour de
la cible.
Une loi de probabilité peut être caractérisée par certaines valeurs typiques
associées aux notions de valeur centrale, de dispersion et de forme de la
distribution.
Remarque :
Il faut prendre garde au fait que l'espèrance mathématique n'existe pas
toujours. Ainsi, la loi de Cauchy dont la fonction densité est donnée par
Z +∞
1 x
f (x) = 2
n'a pas d'espèrance pusique l'intégale 2
dx
π(1 + x ) −∞ π(1 + x )
est divergente.
Propriétés :
E(a) = a
4.2 La variance
On appelle variance de X , et on note V ar(X), l'espérance de la variable
aléatoire (X − E(X))2 , si elle existe.
L'existence de la variance entraîne celle de l'espérance. Par contre, une v.a.
peut très bien avoir une espérance mais pas
( de variance :
0 x < 1;
par exemple si X a pour densité f (x) = 2
x3
x ≥ 1.
Mais en général, nous avons
1.
1 2 3 4 5 6 5 4 3
V ar(X) = 4 + 9 + 16 + 25 + 36 + 49 + 64 + 81 + 100
36 36 36 36 36 36 36 36 36
2 1
+ 122 + 144 − 72
36 36
2005
= − 49 = 6.69.
36
2.
1 3 4
Z
71
V ar(X) = x dx − ( )2
9 0 36
1 x 5 71
= [ ]30 − ( )2
9 5 36
= 29.16 − 3.889 = 25.27.
Propriétés :
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B) ∀A, B.
E(XY ) = E(X)E(Y )
Propriété :
X, Y indépendantes ⇒ Cov(X, Y ) = 0
⇒ V ar(X + Y ) = V ar(X) + V ar(Y ).
X −m
• Soit X v.a. d'espérance m et d'écart type σ . On considère Y = .
σ
Y est la variable aléatoire centrée réduite associée à X :
1
E(Y ) = E(X − m) = 0.
σ
1 1
V ar(Y ) =
2
V ar(X − m) = 2 V ar(X) = 1.
σ σ
L'utilisation de Y permet de se débarasser de l'unité de mesure.
Exemple d'application :
Combien de fois faut-il jeter une pièce de monnaie bien équilibrée,
pour que la fréquence d'apparition de pile soit comprise entre 0.4
et 0.6, avec une probabilité supérieure ou égale à 0.9.
1
E(Xi ) = 1.P (Xi = 1) =
2
1 1 1
V ar(Xi ) = E(Xi2 ) − E(Xi )2 = 1. − ( )2 = .
2 2 4
n
1X 1
E(X) = E(Xi ) =
n 2
i=1
X1 , . . . , Xn étant indépendants, on a aussi
n
1 X 1 1 1
V ar(X) = 2
V ar(Xi ) = 2 (n. ) =
n n 4 4n
i=1
Question : trouver n tel que P (0.4 ≤ X ≤ 0.6) ≥ 0.9.
0.4 ≤ X ≤ 0.6 ⇔ 0.4 − E(X) ≤ X − E(X) ≤ 0.6 − E(X)
⇔ −0.1 ≤ X − E(X) ≤ 0.1
⇔| X − E(X) |≤ 0.1
4.4.1 Histogramme
L'histogramme est analogue à la courbe de densité. L'ordonnée associée
à chaque abscisse est égale à la fréquence d'apparition de la valeur dans
l'échantillon.
Dans le cas d'une v.a. discrète, la construction de l'histogramme est directe.
Par contre pour une v.a. continue, il est nécessaire de résumer les valeurs à
reporter sur la courbe en classes. Il n'existe pas de règles générales pour la
détermination du nombre de classes.
4.4.2 Médiane
C'est la valeur correspondant au milieu de la fonction de répartition.
Si la loi est symétrique, la médiane est égale à l'éespérance mathématique.
C'est un indicateur insensible aux valeurs extrèmes ce qui en fait un outil
intéréssant en statistique.
Si l'on part d'un échantillon de n réalisations triées par ordre croissant, la
médiane est donnée par x e = x n+1 si n est impair. Si n est pair, on prend
2
x n2 + x n2 +1
x
e= .
2
Exemple : la médiane de la série {1, 3, 2, 19, 6, 7, 0} est 3 : 3 est la qua-
trième valeur dans la série triée {0, 1, 2, 3, 6, 7, 19}. Alors que la moyenne est
5.43.
5 Lois usuelles
Lois usuelles sont ici dans le sens où elles peuvent servir de modèle à de
nombreux problèmes réels. Comme les fonctions usuelles, ces types de lois
permettent des calculs mathématiques simples.
P (X = k) = Cnk pk (1 − p)n−k
Exemple :
Loi de probabilité du nombre de garçons dans une famille de quatre
enfants.
1 1 1
P (X = i) = C4i ( )i ( )4−i = C4i ( )4
2 2 2
1 4 6 4 1
P (X = 0) = , P (X = 1) = , P (X = 2) = , P (X = 3) = , P (X = 4) = .
16 16 16 16 16
La fonction de répartition d'une telle loi :
t
X
F (t) = P (X ≤ t) = Cnk pk (1 − p)n−k
k=0
F (3) = P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3).
Propriétés :
Si X suit une loi binomiale B(n; p) alors n − X suit une loi binomiale
B(n; 1 − p)
La somme de deux v.a. binomiales indépendantes de même paramètre
p est une loi binomiale :
Une variable aléatoire suit une loi de Poisson de paramètre réel λ > 0 si
elle prend ses valeurs dans N et si pour tout k ∈ N
λk
P (X = k) = e−λ
k!
∞
X λk
E(X) = k e−λ
k!
k=1
∞
X λk−1
= λe−λ
(k − 1)!
k=1
∞
X λk
= λe−λ
k!
k=0
=λ
a+b (b − a)2
E(X) = V ar(X) =
2 12
fX (t) = λe−λt
1 (t−m)2
fX (t) = √ e− 2σ2 m ∈ R, σ > 0
σ 2π
On a
E(X) = m V ar(X) = σ 2
X −m
1. X ∈ N (m, σ 2 ) ⇔ Y = ∈ N (0, 1)
σ
C'est cette loi (centrée réduite) qui est tabulée.
2. X1 ∈ N (m1 , σ12 ), X2 ∈ N (m2 , σ22 ) si X1 et X2 sont indépendantes
alors X1 + X2 ∈ N (m1 + m2 , σ12 + σ22 )
3. Pour la loi centrée réduite N (0, 1), la symétrie de la densité f implique
que
F (−t) = 1 − F (t)
Il sut alors que f soit tabulée pour les valeurs positives de t (voir
lecture de la table de la loi de Gauss).
Quelques intervalles d'acceptation :
P (m − σ ≤ X ≤ m + σ) = 0.684
P (m − 1.96σ ≤ X ≤ m + 1.96σ) = 0.95
P (m − 2.57σ ≤ X ≤ m + 2.57σ) = 0.99.
6 Théorèmes limites
Théorème 6.2 (Théorème central limite). Soit (Xn )n∈N∗ une suite de va-
riables aléatoires indépendantes de même loi, d'éspérance m et de variance
σ 2 . Posons
X1 + . . . + Xn √ Xn − m
Xn = et Zn = n
n σ
Alors la loi de Zn converge vers la loi normale N (0, 1), i.e.
Z b
1 −x2
lim P (a < Zn < b) = √ e 2 dx
n→∞ 2π a
Interprétation :
m est la valeur à estimer. Les n valeurs X1 , . . . , Xn est un échantillon de me-
X1 + . . . + Xn
sures aléatoires indépendantes d'espérance m. La quantité est
n
la moyenne empirique de l'échantillon, qui d'après la loi des grands nombres
doit converger vers m.
Le théorème central limite donne la précision de cette approximation :
si n est assez grand alors Zn est très probablement compris entre -3 et 3 (la
probabilité étant de 0.9973). Soit
3σ 3σ
X n − m ∈ [− √ , √ ]
n n
3σ
X n est égale à m à √ près.
n
7 Simulation aléatoire
L'outil de base utilisé dans toutes les simulations aléatoires est la géné-
ration d'une suite de nombres aléatoires compris entre 0 et 1 suivant une loi
uniforme.
Une deuxième remarque importante est qu'il n'est pas possible pratiquement
d'engendrer une suite innie. On travaille toujours sur une suite nie. Une
telle suite apparaît comme un échantillon et les nombres de la suite comme
des observations de la variable aléatoire associée à la distribution uniforme.
un+1 = g(un )
Exemple :
On suppose que le long d'une route l'écoulement du trac, dans une direction,
se modélise suivant un processus de Poisson. L'intervalle de temps Z séparant
le passage de 2 véhicules successifs à un même endroit suivra donc une loi
exponentielle.
Z est une v.a. dont la fonction de répartition est :
F (t) = P (Z ≤ t) = 1 − e−λt λ paramètre du processus de Poisson
Notons que pour (0 ≤ y ≤ 1) :
1
F (t) = y ⇔ t = − log(1 − y)
λ
yi ≤ p alors ki = ki−1 + 1
yi > p alors ki = ki−1
λk
P (X = k) = e−λ
k!
On utilise le fait que les intervalles de temps séparant deux évènements suc-
cessifs suivant une loi de Poisson sont distribués exponentiellement.
On génère donc les intervalles t1 , . . . , tn distribués suivant une loi exponen-
tielle de moyenne 1.
La réalisation k de la variable aléatoire de Poisson de paramètre λ sera alors
déterminée par l'inégalité :
k
X k+1
X
ti < λ < ti
i=1 i=1
1 1
E(Y ) = V ar(Y ) =
2 12
P n
Yi −
La variable aléatoire dénie par pn 2
tend, pour n assez grand, vers
12
une loi normale centrée réduite.
Si y1 , . . . , yn sont des nombres aléatoires, alors
r n
12 X n
xi = µ − σ ( yi − )
n 2
i=1
est une réalisation d'une variable aléatoire suivant la loi normale de moyenne
µ et d'écart type σ .
En pratique, on utilise n ≈ 100.