Vous êtes sur la page 1sur 25

Cours de Mathématiques Appliquées

Master QESIS-CAC - Première année

2017-2018
Table des matières

1 Variables Aléatoires 1
1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.3 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Loi exponentielle :Loi de durée de vie sans vieillissement . . . . . . . . . . 9
1.6 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Espérance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.3 Loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . 12
1.6.4 Loi normale et approximation de la binomiale . . . . . . . . . . . . 15
1.6.5 Somme de lois normales indépendantes . . . . . . . . . . . . . . . . 16
1.6.6 Loi du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.7 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.8 Loi de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . 20

i
Chapitre 1: Variables Aléatoires

1.1 Loi de Bernoulli

1.1.1 Modèle

On considère une expérience aléatoire E ayant deux issues possibles, l’une (celle qui
nous intéresse) de probabilité p, l’autre de probabilité 1 − p.
Exemple : E = lancer une pièce.

1.1.2 Loi de probabilité

On note X la variable aléatoire qui vaut 1 quand l’issue qui nous intéresse arrive et 0
sinon. La variable aléatoire X est une variable de loi de Bernoulli . On note X ∼ B(p).
L’ensemble des valeurs possibles pour X est {0, 1} et la loi de X est donnée par

P(X = 1) = p et P(X = 0) = 1 − p.

On écrit aussi
P(X = x) = px (1 − p)x , pour x ∈ {0, 1}.

1.1.3 Espérance et variance

Soit X une variable aléatoire prenant les valeurs x1 , x2 , . . . , xk , . . .. L’espérance, la va-


riance et l’écart-type de X sont respectivement définis par :
X X 2 p
E(X) = xk P(X = k) , Var(X) = xk − E(X) P(X = k) , σ(X) = Var(X).
k k

L’espérance d’une variable aléatoire est une valeur théorique qui donne la valeur prise en
moyenne par cette variable. L’écart-type mesure l’écart moyen entre les valeurs prises par
la variable aléatoire et son espérance.

1
L’espérance et la variance de la loi de Bernoulli sont données par

E(X) = p et Var(X) = p(1 − p).

1.2 Loi Binomiale

1.2.1 Modèle

Soit E une expérience aléatoire et A un événement fixé de probabilité p.


Exemples :
. E = lancer une pièce, A = la pièce tombe sur pile , p = 1/2.
. E = tirer une boule dans une urne contenant des boules de différentes couleurs, A =
la boule tirée est blanche, p = proportion de boules blanches.

On répète n fois l’expérience E dans les mêmes conditions. On compte le nombre X de


fois où A s’est réalisé. La variable X suit une loi binomiale de paramètres n et p.

Notation : X ∼ B(n, p).

1.2.2 Loi de probabilité

P(X = k) = Cnk pk (1 − p)n−k ,


où Cnk est le nombre de combinaisons de k éléments dans un ensemble à n éléments :
n!
Cnk = .
k!(n − k)!
Remarque. La somme des probabilités vaut 1 : nk=1 P(X = k) = 1.
P

Remarque. La variable X est la somme de n variables aléatoires indépendantes et iden-


tiquement distribuées U1 , · · · , Un de loi de Bernoulli B(p). Autrement dit,
n
X
X= Ui .
i=1

2
Figure 1.2.1 – Densite de la loi Binomiale

3
1.2.3 Espérance et variance

Pour la loi binomiale de paramètres n et p, on a E(X) = np et Var(X) = np(1 − p).

1.2.4 Exemple

La probabilité de panne dans l’année d’une machine est de 10%. On a un parc de 25


machines.
1. Quelle est la probabilité pour qu’aucune des machines ne tombe en panne dans
l’année ?
2. L’entreprise souhaite que les 25 machines tournent en permanence sans interruption
pendant une année. Elle doit prévoir des machines de remplacement en cas de panne.
Combien de machines doit-elle prévoir pour que le risque d’interruption soit inférieur
à 0,05 ?
Correction : On commence par modéliser le problème. On note
. E = faire tourner une machine pendant une année.
. A = panne de la machine. La probabilité de l’événement A est 0, 1 = 10%.
On fait 25 fois cette expérience simultanément.
1. Soit X la variable aléatoire comptant le nombre de fois où A s’est réalisé, c’est-à-dire
le nombre de machines qui tombent en panne au cours d’une année. La loi de X
est modélisée par la loi binomiale X ∼ B(25; 0, 1). On a donc
k
P(X = k) = C25 0, 1k 0, 9n−k .

En particulier, on a P(X = 0) = 0, 0718.


2. Soit a le nombre de machines de remplacement. On ne veut pas que l’événement
{X > a} ne se produise trop souvent. Il faut donc chercher a le plus petit possible
tel que P(X > a) ≤ 0, 05.

P(X > 0) = 1 − P(X = 0) = 0, 928; P(X > 1) = 1 − P(X = 0) − P(X = 1) = 0, 73;


P(X > 2) = 0, 46; P(X > 3) = 0, 23; P(X > 4) = 0, 09; P(X > 5) = 0, 03.

Il faut donc prévoir 5 machines.

4
1.3 Loi de Poisson

1.3.1 Modèle

Soit X la variable aléatoire comptant le nombre d’accidents chimiques dans un pays


au cours d’une année. Les propriétés suivantes doivent être vérifiées pour modéliser une
variable par une la loi de Poisson :
. Non simultanéité des accidents : la probabilité que deux accidents se pro-
duisent au même moment est négligeable.
. Processus sans mémoire : Si on se fixe un instant t0 , le nombre d’accidents après
t0 ne dépend pas du nombre d’accidents qui se sont produits avant t0 .
. Proportionnalité : La probabilité pour qu’un événement se produise pendant une
durée courte est proportionnelle à cette durée.
Sous ces conditions, si on connaı̂t le nombre moyen m d’accidents annuels alors on dit
que X suit une loi de Poisson de paramètre m.
Notation : X ∼ P(m).

1.3.2 Loi de probabilité

k
−m m
P(X = k) = e , ∀k ∈ N.
k!
E(X) = m, Var(X) = m.

1.3.3 Utilisation

Le modèle de Poisson s’applique dans de nombreuses situations de comptage par unité


de temps ou par unité de surface : nombre de sinistres par an pour un assuré, problèmes
de file d’attente (nombre d’arrivées à un guichet, nombre de personnes servies), nombre
de particules émises par une source radioactive, nombre de couples d’une espèce d’oiseaux
nichant par quadrat d’une forêt...
Remarque. La loi de Poisson sert aussi comme approximation de la loi binomiale B(n, p)
quand n est grand et p petit :

5
Figure 1.3.1 – Densité de la loi de Poisson

6
Figure 1.3.2 – Comparaison entre la loi de Poisson et la loi Binomiale

Résultat : Si n > 30, p < 0, 1, np < 5 :

mk
P(X = k) = Cnk pk (1 − p)n−k ' e−m avec m = np.
k!

Exemple : On a 350 entreprises classées seveso. La probabilité que l’une de ces entreprises
ait un accident grave au cours de 10 années est de 1%. Notons X le nombre d’accidents
graves, X ∼ B(350; 0, 01). Le calcul de P(X ≤ 4) est long avec la loi binomiale. On utilise
l’approximation B(350; 0, 01) ' P(3, 5) :

P(X ≤ 4) = e−3,5 (1 + 3, 5 + (3, 5)2 /2 + (3, 5)3 /6 + (3, 5)4 /24) = 0, 7254.

7
1.4 Loi géométrique

Définition 1.4.1. Soit p un nombre réel compris entre 0 et 1. Une variable aléatoire suit
une loi géométrique de paramètre p et sera notée G(p) si elle prend les valeurs entières
1, 2, . . . et si sa loi de probabilité est donnée par

P[X = k] = p(1 − p)k .

Cette variable modélise le temps d’attente entier pour avoir un premier succès.
Par exemple on considère une épreuve à deux issues : succès et échec de probabilités p et
1 − p. On répète l’expérience dans les mêmes conditions autant de fois qu’il est nécessaire
jusqu’à obtention d’un succès pour la première fois. Comme les expériences sont réalisées
dans les mêmes conditions, les résultats de deux épreuves consécutives sont indépendants.
Donc on a
P[X = k] = p(1 − p)k , k ∈ N∗ .

• Espérance et Variance
(a) L’espérance de la loi géométrique est E(X) = p1 .
1−p
(b) La variance de la loi exponentielle est V(X) = p2
.
Exercice : Dans un lot important de pièces on sait que 2% sont de mauvaise qualité.
On contrôle ces pièces les unes après les autres.
1) Quelle est la probabilité pour la première pièce défectueuse soit découverte au bout
de n essais ?
2) Quelle est le nombre moyen de contrôles qu’il faut prévoir pour découvrir une
première pièce défectueuse ?
3) Combien de contrôles faut il prévoir pour découvrir la première pièce défectueuse
avec 99% de chances ?
Solution
1) Soit X le nombre d’essais nécessaires pour avoir une première pièce défectueuse. On
a
P[X = n] = 0, 98n−1 ∗ 0, 02.

8
1
2) E(X) = 0,02
= 50.
3) on cherche n pour que P[X ≤ n] ≥ 0, 99.
On a
n
X 1 − 0, 98n
P[X ≤ n] = 0, 98n−1 ∗ 0, 02 = 0, 02 = 1 − 0, 98n
k=1
1 − 0, 98
Donc
0, 01
P[X ≤ n] ≥ 0, 99 ⇔ 1−0, 98n ≥ 0, 99 ⇔ 0, 01 ≥ 0, 98n ⇔ ln(0, 01) ≥ n ln(0, 098) ⇔ n ≥ = 227
ln(0, 98)

Donc il faut prévoir 228 contrôles.

1.5 Loi exponentielle :Loi de durée de vie sans vieillissement

Définition 1.5.1. Soit λ un réel strictement positif . On appelle loi de durée de vie sans
vieillissement, ou loi exponentielle de paramètre λ la loi de probabilité dont la densité fλ
est la fonction définie par

fλ (x) = λe−λx , x ∈ [0, +∞[, fλ (x) = 0, si x<0

Cette loi modélise par exemple la durée de vie d’un noyau radioactif ou d’un composant
électronique.
• Fonction de répartition la fonction de répartition de la loi exponentielle est

Z t 
0 si t < 0
Fλ (t) = fλ (x)dx = −λt
−∞ 1−e si t ≥ 0

• Propriété 1 Pour tout réels positifs a ≤ b on a

P[a ≤ X ≤ b] = e−λa − e−λb

• Remarques (a) La fonction Fλ (t) = 1 − e−λt représente la probabilité d’avoir une


durée inférieure à t pour t positif.

9
(b) La probabilité P[X ≥ t] = e−λt représente la probabilité de vivre au moins jusqu’à
l’instant t.
• Espérance et Variance
(a) L’espérance de la loi exponentielle est E(X) = λ1 .
1
(b) La variance de la loi exponentielle est V(X) = λ2
.
• Propriété 2 Pour tout réels positifs t et s alors la probabilité de vivre au moins
une durée t de plus sachant qu’on a vécu au moins une durée s est

P[X > s + t/X > s] = P[X > t]

En effet
R∞
P[(X > s + t) ∩ (X > s)] t+s
fλ (x)dx e−λ(t+s)
P[X > s+t/X > s] = = = = e−λt = P[X > t]
P[X > s] e−λs e−λs

Signification : si par exemple X désigne la durée de vie, exprimée en années, dun


composant électronique, la probabilité quil fonctionne encore tannées sachant quil a déjà
fonctionné pendant s années est la même que la probabilité quil fonctionne pendant au
moins t années après sa mise en service. Le composant n’a pas vieilli au bout de s années.
La fonction de répartition s’appelle aussi dans ce cas là la fonction de défaillance.
( cela correspond à la probabilité que le matériel tombe en panne avant t )
Exercice 1 : Fiabilité dun type de composant On considère des composants d’un certain
type. On admet que la variable aléatoire T qui associe à tout composant tiré au hasard
sa durée de vie exprimée en jours suit la loi exponentielle définie par sa densité

f (t) = 0, 0002e−0,0002t

1. Déterminer la probabilité que lun de ces composants ait une durée de vie supérieure
à 2 000 jours.
2. Déterminer la durée de vie moyenne et l’écart type de T.
3. déterminer la valeur de t0 pour laquelle P(T < t0 ) = 0, 5.
Solution

10
1. On a F (t) = 1−e−0,0002t . Donc la probabilité pour que la durée de vie soit supérieure
à 2000 est
e−0,0002∗2000 = e−0,4 = 0, 6703

1
2) E(X) = 0,0002
= 5000 jours.
3)

ln(0, 5
P(T < t0 ) = 0, 5 ⇔ 1 − e−0,0002t = 0, 5 ⇔ e−0,0002t = 0, 5 ⇔ t = = 1515, 15.
−0, 0002

Exercice 2 : Déterminer le paramètre d’une loi exponentielle.


Une variable aléatoire T suit une loi exponentielle.
1. Déterminer le paramètre de cette loi sachant que P(T ≤ 70) = 0, 05.
2. Les valeurs prises par T étant des heures, déterminer la moyenne (MTBF : Moyenne
du temps de bon fonctionnement) et l’écart type de T.
3. Calculer P(T > 30).

1.6 Loi normale

1.6.1 Modèle

Les lois que nous allons voir dans ce paragraphe et dans les suivants sont des lois
continues, c’est-à-dire que l’ensemble des valeurs qu’elles peuvent prendre forme un en-
semble continu, à la différence des lois discrètes vues précédemment (Bernoulli, Binomiale
et Poisson). Pour les lois continues, on ne s’intéresse plus à la probabilité P(X = k) (qui
vaut zéro, quelle que soit la valeur k) mais à la quantité P(z1 ≤ X ≤ z2 ). les calculs ne se
font plus en utilisant des sommes discrètes mais en utilisant des intégrales.
Exemple : Soit X le poids d’un sachet de bicarbonate. Une machine remplit les sachets
pour arriver à un poids de 100g. On s’est rendu compte que les sachets font rarement
exactement ce poids. Il y a des variations autour de m=100g avec un écart type de σ = 5.
L’histogramme des mesures a l’allure d’une cloche autour de la valeur m=100.

11
Figure 1.6.1 – Courbe de Gauss

Depuis Gauss et Pascal, on sait démontrer que pour les grandes populations, les histo-
grammes représentant les mesures de pesées, de tailles, etc ... sont des courbes de Gauss
définies par la fonction densité :
1 (x−m)2
fm,σ (x) = √ e− 2σ2 .
2πσ
Définition 1. Une variable aléatoire continue suit une loi normale de moyenne m et décart
type σ si pour tous z1 , z2 réels on a
Z z2
P(z1 ≤ X ≤ z2 ) = fm,σ (x)dx,
z1

c’est-à-dire que P(z1 ≤ X ≤ z2 ) est l’aire sous la courbe de Gauss (y = fm,σ (x)) délimitée
par z1 et z2 .

Notation : X ∼ N (m, σ)

1.6.2 Espérance et écart-type

E(X) = m, σ(X) = σ.

1.6.3 Loi normale centrée réduite

La plus ”simple” des lois normales est la loi normale centrée réduite qui correspond à
m = 0 et σ = 1. Elle est aussi appelée loi gaussienne standard. En fait, toute loi gaussienne
peut s’écrire en fonction d’une loi gaussienne standard.

12
Changement de variable
X−m
Résultat : Si la variable X est normale de loi N (m, σ) alors la variable Z = σ
est
normale de loi N (0, 1).

Calcul de la probabilité de l’événement {z1 ≤ X ≤ z2 } pour X ∼ N (m, σ) par


changement de variable :
On écrit z − m
1 z2 − m 
P(z1 ≤ X ≤ z2 ) = P ≤Z≤ .
σ σ
Ainsi, pour calculer cette probabilité, on se ramène à l’utilisation de la loi normale centrée
réduite.

Lecture directe de la table

On définit la fonction
Z z
def
Φ(z) = f (x)dx = P(0 ≤ Z ≤ z), où Z ∼ N (0; 1).
0

Pour z > 0 la table donne une valeur approchée de Φ(z) à 10−5 près.

Pour les valeurs de z > 0 qui ne sont pas dans la table, on fera des interpolations linéaires :
Φ(zk+1 ) − Φ(zk )
Si zk < z < zk+1 , Φ(z) = Φ(zk ) + (z − zk ).
zk+1 − zk

Pour les différents calculs de probabilité, on utilise les propriétés suivantes :


. P(0 ≤ Z) = 0, 5.
. P(z < Z < 0) = Φ(−z), si z < 0.
. Si z1 < z2 alors
— P(z1 ≤ Z ≤ z2 ) = Φ(z2 ) − Φ(z1 ), si 0 < z1 < z2 .
— P(z1 ≤ Z ≤ z2 ) = Φ(|z1 |) − Φ(|z2 |), si z1 < z2 < 0.
— P(z1 ≤ Z ≤ z2 ) = Φ(|z1 |) + Φ(z2 ), si z1 < 0 < z2 .
. P(Z ≥ z1 ) = 0, 5 − Φ(z1 ), si z1 > 0
. P(Z ≥ z1 ) = 0, 5 + Φ(|z1 |), si z1 < 0
. P(Z ≤ z1 ) = 0, 5 + Φ(z1 ), si z1 > 0
. P(Z ≤ z1 ) = 0, 5 − Φ(|z1 |) si z1 < 0.

13
Lecture inverse de la table

Connaissant Φ(z), il s’agit de calculer z.


On distingue deux cas : soit la valeur de Φ(z) figure dans la table, soit il faut faire une
interpolation linéaire. Pour cela, on cherche les valeurs zk et zk+1 dans la table de la loi
normale standard tels que Φ(zk ) < Φ(z) < Φ(zk+1 ). Alors on détermine
zk+1 − zk
z = zk + (Φ(z) − Φ(zk )).
Φ(zk+1 ) − Φ(zk )

On tombera souvent sur les problèmes suivants :


1. Calculer z tel que P(Z > z) = p où p est une probabilité donnée. En faisant un
dessin, on se rend compte que deux cas se présentent selon les valeurs de p :
a) Si p ≤ 0, 5, alors z > 0 et Φ(z) = 0, 5 − p.
b) Si p ≥ 0, 5, alors z < 0 et Φ(|z|) = p − 0, 5.
2. Calculer z tel que P(Z < z) = p où p est une probabilité donnée. Faire un dessin.
a) Si p ≥ 0, 5 alors z > 0 et Φ(z) = p − 0, 5.
b) Si p ≤ 0, 5 alors z < 0 et Φ(|z|) = 0, 5 − p.

14
Exemples

On considère une variable aléatoire gaussienne de loi X ∼ N (100, 5).


1. Calculer P(X ≤ 105) :
 
105 − 100
P(X ≤ 105) = P Z ≤ = P(Z ≤ 1) = 0, 5+Φ(1) = 0, 5+3, 413 = 0, 8413.
5

2. Trouver a tel que P(X ≤ a) = 0, 05.


 
a − 100
P(X ≤ a) = P Z ≤ .
5
Posons z = (a − 100)/5. On a P(X ≤ a) = P(Z ≤ z). On cherche donc z tel que
P(Z ≤ z) = 0, 05. z est forcément négatif et Φ(|z|) = 0, 5 − 0, 05 = 0, 45. La valeur
0,45 n’est pas dans la table, il faut faire une interpolation linéaire :
On a Φ(1, 64) = 0, 4495 < Φ(|z|) < Φ(1, 65) = 0, 4505. Ainsi, on trouve zk = 1, 64
et zk+1 = 1, 65. On obtient donc
zk+1 − zk
|z| = zk + (Φ(z) − Φ(zk )) = 1, 645.
Φ(zk+1 ) − Φ(zk )
Finalement, on trouve z = −1, 645.

1.6.4 Loi normale et approximation de la binomiale


p
Résultat : Si X ∼ B(n; p) avec n > 30, np > 5, n(1−p) > 5, alors X ' N (np, np(1 − p)).
Exemple : Dans une entreprise, chaque personne téléphone en moyenne 10 minutes par
heure à l’extérieur. Il y a 300 employés et un standard qui filtre les appels vers l’extérieur.
L’entreprise souhaite s’abonner à un nombre limité de lignes extérieures. Quel est le
nombre minimal de lignes qu’elle doit prévoir pour que le risque d’encombrement soit
inférieur à 5% ?
Soit X le nombre d’appels à un moment donné et soit a le nombre de lignes vers l’extérieur.
La probabilité pour qu’un individu soit au téléphone à un moment donné est : p = 10/60.
X suit donc une loi binomiale B(300; 1/6). On approxime X par N (50; 6, 455). Il y a
encombrement si X ≥ a. Donc on cherche a tel que P(X ≥ a) = 0, 05.

15
Calculs : P(Z > z) = 0, 05, où z = (a − 50)/6, 455. On a déjà vu au paragraphe précédent
qu’alors z = 1, 645. On en déduit que a = 1, 645 ∗ 6, 455 + 50 = 60, 6. Il faut donc 61
lignes.
Remarque. Si np ou n(1 − p) est proche de 5 et si 30 < n < 50, il est préférable de
faire une correction de continuité pour améliorer l’approximation : il faut alors remplacer
P(k1 ≤ X ≤ k2 ) par P(k1 − 0, 5 ≤ X ≤ k2 + 0, 5).
Exemple : X ∼ B(40; 0, 4). Calculons P(16 ≤ X ≤ 20)
. Avec la binomiale : P(16 ≤ X ≤ 20) = 0, 4853.
. Avec la loi normale, sans la correction : X ' N (16; 3, 0984). P(0 ≤ Z ≤ 1, 29) =
0, 4015.
. Avec la loi normale, avec la correction : P(15, 5 ≤ X ≤ 20, 5) ≈ P(−0, 16 ≤ z ≤
1, 45) = Φ(1, 45) + Φ(0, 16) = 0, 4265 + 0, 0636 = 0, 4901.
0,5
Remarque : En fait, il faut calculer √ et faire la correction si c’est supérieur à 0,1.
np(1−p)

1.6.5 Somme de lois normales indépendantes

. Si X1 ∼ N (m1 ; σ1 ) et X2 ∼ N (m2 ; σ2 ), et si de plus X1 et X2 sont indépendantes,


alors : q
X1 ± X2 = N (m1 ± m2 ; σ12 + σ22 ).
Attention : On verra quand on fera les corrélations que

Var(X1 ± X2 ) = Var(X1 ) + Var(X2 ) ± 2cov(X1 , X2 ).

De plus, si X1 et X2 sont indépendantes alors cov(X1 , X2 ) = 0.


. Somme de plusieurs lois indépendantes : si Xi ∼ N (mi ; σi ) et si les variables
X1 , . . . Xn sont indépendantes alors on a
 q 
X1 + ... + Xn = N m1 + ... + mn ; σ12 + ... + σn2 .

. Cas particulier : Si toutes les variables ont même moyenne m et même écart-type
σ alors :

X1 + ... + Xn = N (m ∗ n; σ n).

16
Exemple : Vous êtes responsable de la sécurité de votre entreprise. Vous avez commandé
un ascenseur sur lequel est inscrit : CHARGE MAX=800KG. En relevant le poids de
votre personnel, vous avez constaté que le poids moyen est de 70kg avec un écart type de
6kg. Quel est le nombre maximal de personnes autorisées à monter ensemble pour que le
risque de surcharge soint inférieur à 2% ?

Réponse : On modélise la masse d’une personne par la loi X ∼ N (70; 6). Celui de n

personnes suit la loi Sn ∼ N (70 ∗ n; 6 n). Il y a surcharge si Sn > 800. On cherche donc
n tel que P(Sn > 800) ≤ 0, 02.
Calcul : P(Z > 800−70n
√ ) ≤ 0, 02. On cherche donc z tel que Φ(z) = 0, 48. On lit z = 2, 054.
6 n √ √
Il faut donc trouver n tel que 800 − 70n = 6 ∗ 2, 054 n. On pose u = n. Il s’agit de
résoudre l’équation
√ du second degré 70u2 + 12, 324u − 800 = 0. On trouve ∆ = 224151,
en particulier ∆ = 473, 447 et donc
−12, 324 + 473, 447
u= = 3, 29 n = 10, 85.
2 ∗ 70
Il faut donc choisir au maximum n = 10 personnes autorisées à monter ensemble dans
l’ascenseur.

1.6.6 Loi du χ2

Notion de degrés de liberté :

Le nombre de degrés de liberté d’une action (au sens large) est le nombre de paramètres
nécessaires à sa description. Par exemple, pour un problème à deux inconnues x, y telles
que x + y = 3, on a besoin seulement de trouver l’une des deux. On dit qu’il y a un degré
de liberté. Pour 3 variables telles que x + y + z = 2, il faut connaı̂tre deux des variables
pour en déduire la troisième. On dit qu’il y a deux degrés de liberté (ddl). Mais si on
a une autre équation reliant x, y, z alors il suffit maintenant de connaı̂tre une seule des
variables pour connaı̂tre les trois : on a donc 1 seule ddl. Le nombre de degrés de liberté
est donc égal au nombre d’inconnues moins le nombre de relations entre elles.
Définition 2. Une loi du χ2 à n ddl est la somme de n carrés de loi normales centrées
réduites indépendantes.

17
Figure 1.6.2 – Densité de la loi de Chi2

18
Lecture de la table du χ2 :

On fixe une probabilité p, un nombre de ddl `. La table donne x tel que P(χ2 (`) ≤ x) =
p. Notation x = χ2p .

On aura souvent le problème suivant : déterminer x1 , x2 (de façon symétrique) tels que :

P(x1 ≤ χ2 ≤ x2 ) = α.

On peut par exemple choisir x1 = χ21−α et x2 = χ21−α +α = χ21+α . Ces quantiles sont par
2 2 2
exemple utilsés pour estimer une variance et donner une fourchette.

Exemple d’utilisation du χ2

On relève sur 4 trimestres le nombre d’accidents de travail :

T1 T2 T3 T4 total
nobs
i 26 22 12 10 70

Est-ce que le nombre d’accidents est fonction de la saison ?

Réponse : Si le nombre d’accidents ne dépendait pas de la saison, on aurait 70/4 = 17, 5


accidents en moyenne par trimestre. On verra plus tard que :
4
X (nobs − nth )2
i i
X=
i=1
nth
i

suit une loi du χ2 à n-1=3 ddl. Si ce nombre est très grand, cela veut dire qu’il y a une
différence significative entre ce qui est observé et les nth
i = 17, 5 accidents par trimestre
en moyenne. On doit fixer un risque d’erreur de 5% et on regarde P(χ2 (3) ≥ x) = 0, 05.
La valeur seuil est χ20,95 = 7, 815. On calcule la valeur observée du χ2 :

(26 − 17, 5)2 + (22 − 17, 5)2 + (12 − 17, 5)2 + (10 − 17, 5)2
χ2 = = 10, 23 > 7, 81.
17, 5

On en déduit que la saison a une influence.

19
Espérance et variance

Soit X ∼ χ2 (`) une loi de χ2 à ` ddl. Son espérance et sa variance sont respectivement

E(X) = ` et Var(X) = 2`.

1.6.7 Loi de Student

Soit U une variable aléatoire de loi normale N (0, 1) et X une variable du Chi-deux à
` degrés de liberté, les variables U et X étant indépendantes. Soit T la variable aléatoire
U
T =p .
X /`

Alors T est une variable aléatoire de loi de Student à ` degrés de liberté.


Notation : On note T ∼ St(`).
Cette loi nous permettra de déterminer une fourchette pour une moyenne.

1.6.8 Loi de Fisher-Snedecor

Soit X1 une variable aléatoire une variable de loi χ2 (n) et X2 une variable de loi χ2 (p),
les variables X1 et X2 étant indépendantes. Soit F la variable aléatoire

X1 /n
F= .
X2 /p

Alors F est une variable aléatoire de loi de Fisher de paramètres n et p.


Notation : On note F ∼ F(n, p).
Grâce à cette loi, on pourra faire des tests de comparaison de moyennes.

20
Figure 1.6.3 – Densité de la loi de Student

21

Vous aimerez peut-être aussi