Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
2017-2018
Table des matières
1 Variables Aléatoires 1
1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.3 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Loi exponentielle :Loi de durée de vie sans vieillissement . . . . . . . . . . 9
1.6 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Espérance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.3 Loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . 12
1.6.4 Loi normale et approximation de la binomiale . . . . . . . . . . . . 15
1.6.5 Somme de lois normales indépendantes . . . . . . . . . . . . . . . . 16
1.6.6 Loi du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.7 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.8 Loi de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . 20
i
Chapitre 1: Variables Aléatoires
1.1.1 Modèle
On considère une expérience aléatoire E ayant deux issues possibles, l’une (celle qui
nous intéresse) de probabilité p, l’autre de probabilité 1 − p.
Exemple : E = lancer une pièce.
On note X la variable aléatoire qui vaut 1 quand l’issue qui nous intéresse arrive et 0
sinon. La variable aléatoire X est une variable de loi de Bernoulli . On note X ∼ B(p).
L’ensemble des valeurs possibles pour X est {0, 1} et la loi de X est donnée par
P(X = 1) = p et P(X = 0) = 1 − p.
On écrit aussi
P(X = x) = px (1 − p)x , pour x ∈ {0, 1}.
L’espérance d’une variable aléatoire est une valeur théorique qui donne la valeur prise en
moyenne par cette variable. L’écart-type mesure l’écart moyen entre les valeurs prises par
la variable aléatoire et son espérance.
1
L’espérance et la variance de la loi de Bernoulli sont données par
1.2.1 Modèle
2
Figure 1.2.1 – Densite de la loi Binomiale
3
1.2.3 Espérance et variance
1.2.4 Exemple
4
1.3 Loi de Poisson
1.3.1 Modèle
k
−m m
P(X = k) = e , ∀k ∈ N.
k!
E(X) = m, Var(X) = m.
1.3.3 Utilisation
5
Figure 1.3.1 – Densité de la loi de Poisson
6
Figure 1.3.2 – Comparaison entre la loi de Poisson et la loi Binomiale
mk
P(X = k) = Cnk pk (1 − p)n−k ' e−m avec m = np.
k!
Exemple : On a 350 entreprises classées seveso. La probabilité que l’une de ces entreprises
ait un accident grave au cours de 10 années est de 1%. Notons X le nombre d’accidents
graves, X ∼ B(350; 0, 01). Le calcul de P(X ≤ 4) est long avec la loi binomiale. On utilise
l’approximation B(350; 0, 01) ' P(3, 5) :
P(X ≤ 4) = e−3,5 (1 + 3, 5 + (3, 5)2 /2 + (3, 5)3 /6 + (3, 5)4 /24) = 0, 7254.
7
1.4 Loi géométrique
Définition 1.4.1. Soit p un nombre réel compris entre 0 et 1. Une variable aléatoire suit
une loi géométrique de paramètre p et sera notée G(p) si elle prend les valeurs entières
1, 2, . . . et si sa loi de probabilité est donnée par
Cette variable modélise le temps d’attente entier pour avoir un premier succès.
Par exemple on considère une épreuve à deux issues : succès et échec de probabilités p et
1 − p. On répète l’expérience dans les mêmes conditions autant de fois qu’il est nécessaire
jusqu’à obtention d’un succès pour la première fois. Comme les expériences sont réalisées
dans les mêmes conditions, les résultats de deux épreuves consécutives sont indépendants.
Donc on a
P[X = k] = p(1 − p)k , k ∈ N∗ .
• Espérance et Variance
(a) L’espérance de la loi géométrique est E(X) = p1 .
1−p
(b) La variance de la loi exponentielle est V(X) = p2
.
Exercice : Dans un lot important de pièces on sait que 2% sont de mauvaise qualité.
On contrôle ces pièces les unes après les autres.
1) Quelle est la probabilité pour la première pièce défectueuse soit découverte au bout
de n essais ?
2) Quelle est le nombre moyen de contrôles qu’il faut prévoir pour découvrir une
première pièce défectueuse ?
3) Combien de contrôles faut il prévoir pour découvrir la première pièce défectueuse
avec 99% de chances ?
Solution
1) Soit X le nombre d’essais nécessaires pour avoir une première pièce défectueuse. On
a
P[X = n] = 0, 98n−1 ∗ 0, 02.
8
1
2) E(X) = 0,02
= 50.
3) on cherche n pour que P[X ≤ n] ≥ 0, 99.
On a
n
X 1 − 0, 98n
P[X ≤ n] = 0, 98n−1 ∗ 0, 02 = 0, 02 = 1 − 0, 98n
k=1
1 − 0, 98
Donc
0, 01
P[X ≤ n] ≥ 0, 99 ⇔ 1−0, 98n ≥ 0, 99 ⇔ 0, 01 ≥ 0, 98n ⇔ ln(0, 01) ≥ n ln(0, 098) ⇔ n ≥ = 227
ln(0, 98)
Définition 1.5.1. Soit λ un réel strictement positif . On appelle loi de durée de vie sans
vieillissement, ou loi exponentielle de paramètre λ la loi de probabilité dont la densité fλ
est la fonction définie par
Cette loi modélise par exemple la durée de vie d’un noyau radioactif ou d’un composant
électronique.
• Fonction de répartition la fonction de répartition de la loi exponentielle est
Z t
0 si t < 0
Fλ (t) = fλ (x)dx = −λt
−∞ 1−e si t ≥ 0
9
(b) La probabilité P[X ≥ t] = e−λt représente la probabilité de vivre au moins jusqu’à
l’instant t.
• Espérance et Variance
(a) L’espérance de la loi exponentielle est E(X) = λ1 .
1
(b) La variance de la loi exponentielle est V(X) = λ2
.
• Propriété 2 Pour tout réels positifs t et s alors la probabilité de vivre au moins
une durée t de plus sachant qu’on a vécu au moins une durée s est
En effet
R∞
P[(X > s + t) ∩ (X > s)] t+s
fλ (x)dx e−λ(t+s)
P[X > s+t/X > s] = = = = e−λt = P[X > t]
P[X > s] e−λs e−λs
f (t) = 0, 0002e−0,0002t
1. Déterminer la probabilité que lun de ces composants ait une durée de vie supérieure
à 2 000 jours.
2. Déterminer la durée de vie moyenne et l’écart type de T.
3. déterminer la valeur de t0 pour laquelle P(T < t0 ) = 0, 5.
Solution
10
1. On a F (t) = 1−e−0,0002t . Donc la probabilité pour que la durée de vie soit supérieure
à 2000 est
e−0,0002∗2000 = e−0,4 = 0, 6703
1
2) E(X) = 0,0002
= 5000 jours.
3)
ln(0, 5
P(T < t0 ) = 0, 5 ⇔ 1 − e−0,0002t = 0, 5 ⇔ e−0,0002t = 0, 5 ⇔ t = = 1515, 15.
−0, 0002
1.6.1 Modèle
Les lois que nous allons voir dans ce paragraphe et dans les suivants sont des lois
continues, c’est-à-dire que l’ensemble des valeurs qu’elles peuvent prendre forme un en-
semble continu, à la différence des lois discrètes vues précédemment (Bernoulli, Binomiale
et Poisson). Pour les lois continues, on ne s’intéresse plus à la probabilité P(X = k) (qui
vaut zéro, quelle que soit la valeur k) mais à la quantité P(z1 ≤ X ≤ z2 ). les calculs ne se
font plus en utilisant des sommes discrètes mais en utilisant des intégrales.
Exemple : Soit X le poids d’un sachet de bicarbonate. Une machine remplit les sachets
pour arriver à un poids de 100g. On s’est rendu compte que les sachets font rarement
exactement ce poids. Il y a des variations autour de m=100g avec un écart type de σ = 5.
L’histogramme des mesures a l’allure d’une cloche autour de la valeur m=100.
11
Figure 1.6.1 – Courbe de Gauss
Depuis Gauss et Pascal, on sait démontrer que pour les grandes populations, les histo-
grammes représentant les mesures de pesées, de tailles, etc ... sont des courbes de Gauss
définies par la fonction densité :
1 (x−m)2
fm,σ (x) = √ e− 2σ2 .
2πσ
Définition 1. Une variable aléatoire continue suit une loi normale de moyenne m et décart
type σ si pour tous z1 , z2 réels on a
Z z2
P(z1 ≤ X ≤ z2 ) = fm,σ (x)dx,
z1
c’est-à-dire que P(z1 ≤ X ≤ z2 ) est l’aire sous la courbe de Gauss (y = fm,σ (x)) délimitée
par z1 et z2 .
Notation : X ∼ N (m, σ)
E(X) = m, σ(X) = σ.
La plus ”simple” des lois normales est la loi normale centrée réduite qui correspond à
m = 0 et σ = 1. Elle est aussi appelée loi gaussienne standard. En fait, toute loi gaussienne
peut s’écrire en fonction d’une loi gaussienne standard.
12
Changement de variable
X−m
Résultat : Si la variable X est normale de loi N (m, σ) alors la variable Z = σ
est
normale de loi N (0, 1).
On définit la fonction
Z z
def
Φ(z) = f (x)dx = P(0 ≤ Z ≤ z), où Z ∼ N (0; 1).
0
Pour z > 0 la table donne une valeur approchée de Φ(z) à 10−5 près.
Pour les valeurs de z > 0 qui ne sont pas dans la table, on fera des interpolations linéaires :
Φ(zk+1 ) − Φ(zk )
Si zk < z < zk+1 , Φ(z) = Φ(zk ) + (z − zk ).
zk+1 − zk
13
Lecture inverse de la table
14
Exemples
15
Calculs : P(Z > z) = 0, 05, où z = (a − 50)/6, 455. On a déjà vu au paragraphe précédent
qu’alors z = 1, 645. On en déduit que a = 1, 645 ∗ 6, 455 + 50 = 60, 6. Il faut donc 61
lignes.
Remarque. Si np ou n(1 − p) est proche de 5 et si 30 < n < 50, il est préférable de
faire une correction de continuité pour améliorer l’approximation : il faut alors remplacer
P(k1 ≤ X ≤ k2 ) par P(k1 − 0, 5 ≤ X ≤ k2 + 0, 5).
Exemple : X ∼ B(40; 0, 4). Calculons P(16 ≤ X ≤ 20)
. Avec la binomiale : P(16 ≤ X ≤ 20) = 0, 4853.
. Avec la loi normale, sans la correction : X ' N (16; 3, 0984). P(0 ≤ Z ≤ 1, 29) =
0, 4015.
. Avec la loi normale, avec la correction : P(15, 5 ≤ X ≤ 20, 5) ≈ P(−0, 16 ≤ z ≤
1, 45) = Φ(1, 45) + Φ(0, 16) = 0, 4265 + 0, 0636 = 0, 4901.
0,5
Remarque : En fait, il faut calculer √ et faire la correction si c’est supérieur à 0,1.
np(1−p)
. Cas particulier : Si toutes les variables ont même moyenne m et même écart-type
σ alors :
√
X1 + ... + Xn = N (m ∗ n; σ n).
16
Exemple : Vous êtes responsable de la sécurité de votre entreprise. Vous avez commandé
un ascenseur sur lequel est inscrit : CHARGE MAX=800KG. En relevant le poids de
votre personnel, vous avez constaté que le poids moyen est de 70kg avec un écart type de
6kg. Quel est le nombre maximal de personnes autorisées à monter ensemble pour que le
risque de surcharge soint inférieur à 2% ?
Réponse : On modélise la masse d’une personne par la loi X ∼ N (70; 6). Celui de n
√
personnes suit la loi Sn ∼ N (70 ∗ n; 6 n). Il y a surcharge si Sn > 800. On cherche donc
n tel que P(Sn > 800) ≤ 0, 02.
Calcul : P(Z > 800−70n
√ ) ≤ 0, 02. On cherche donc z tel que Φ(z) = 0, 48. On lit z = 2, 054.
6 n √ √
Il faut donc trouver n tel que 800 − 70n = 6 ∗ 2, 054 n. On pose u = n. Il s’agit de
résoudre l’équation
√ du second degré 70u2 + 12, 324u − 800 = 0. On trouve ∆ = 224151,
en particulier ∆ = 473, 447 et donc
−12, 324 + 473, 447
u= = 3, 29 n = 10, 85.
2 ∗ 70
Il faut donc choisir au maximum n = 10 personnes autorisées à monter ensemble dans
l’ascenseur.
1.6.6 Loi du χ2
Le nombre de degrés de liberté d’une action (au sens large) est le nombre de paramètres
nécessaires à sa description. Par exemple, pour un problème à deux inconnues x, y telles
que x + y = 3, on a besoin seulement de trouver l’une des deux. On dit qu’il y a un degré
de liberté. Pour 3 variables telles que x + y + z = 2, il faut connaı̂tre deux des variables
pour en déduire la troisième. On dit qu’il y a deux degrés de liberté (ddl). Mais si on
a une autre équation reliant x, y, z alors il suffit maintenant de connaı̂tre une seule des
variables pour connaı̂tre les trois : on a donc 1 seule ddl. Le nombre de degrés de liberté
est donc égal au nombre d’inconnues moins le nombre de relations entre elles.
Définition 2. Une loi du χ2 à n ddl est la somme de n carrés de loi normales centrées
réduites indépendantes.
17
Figure 1.6.2 – Densité de la loi de Chi2
18
Lecture de la table du χ2 :
On fixe une probabilité p, un nombre de ddl `. La table donne x tel que P(χ2 (`) ≤ x) =
p. Notation x = χ2p .
On aura souvent le problème suivant : déterminer x1 , x2 (de façon symétrique) tels que :
P(x1 ≤ χ2 ≤ x2 ) = α.
On peut par exemple choisir x1 = χ21−α et x2 = χ21−α +α = χ21+α . Ces quantiles sont par
2 2 2
exemple utilsés pour estimer une variance et donner une fourchette.
Exemple d’utilisation du χ2
T1 T2 T3 T4 total
nobs
i 26 22 12 10 70
suit une loi du χ2 à n-1=3 ddl. Si ce nombre est très grand, cela veut dire qu’il y a une
différence significative entre ce qui est observé et les nth
i = 17, 5 accidents par trimestre
en moyenne. On doit fixer un risque d’erreur de 5% et on regarde P(χ2 (3) ≥ x) = 0, 05.
La valeur seuil est χ20,95 = 7, 815. On calcule la valeur observée du χ2 :
(26 − 17, 5)2 + (22 − 17, 5)2 + (12 − 17, 5)2 + (10 − 17, 5)2
χ2 = = 10, 23 > 7, 81.
17, 5
19
Espérance et variance
Soit X ∼ χ2 (`) une loi de χ2 à ` ddl. Son espérance et sa variance sont respectivement
Soit U une variable aléatoire de loi normale N (0, 1) et X une variable du Chi-deux à
` degrés de liberté, les variables U et X étant indépendantes. Soit T la variable aléatoire
U
T =p .
X /`
Soit X1 une variable aléatoire une variable de loi χ2 (n) et X2 une variable de loi χ2 (p),
les variables X1 et X2 étant indépendantes. Soit F la variable aléatoire
X1 /n
F= .
X2 /p
20
Figure 1.6.3 – Densité de la loi de Student
21