Académique Documents
Professionnel Documents
Culture Documents
1 Dénombrement et probabilités 7
1.1 Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 p-listes, arrangements et combinaisons . . . . . . . . . . . . 8
1.2 Introduction aux probabilités . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Opérations logiques sur les ensembles . . . . . . . . . . . . . 13
1.2.2 Notion d’événement . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Opérations sur les événements . . . . . . . . . . . . . . . . . 14
1.2.4 Probabilité sur un univers fini . . . . . . . . . . . . . . . . . 15
1.2.5 Probabilités conditionnelles-Théorème de Bayes . . . . . . . 16
1.2.6 Formule des probabilités totales . . . . . . . . . . . . . . . . 17
1.2.7 Théorème ou formule de Bayes . . . . . . . . . . . . . . . . 19
1.2.8 Indépendance, produit de deux espaces probabilisés . . . . . 19
3
2.4.1 Variable aléatoire normée . . . . . . . . . . . . . . . . . . . 31
2.4.2 Covariance et coefficient de corrélation . . . . . . . . . . . . 32
2.5 Lois de probabilités discrètes finies et infinies . . . . . . . . . . . . . 35
2.5.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.3 Loi binômiale . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6 Approximation de la loi binomiale par la loi de Poisson . . . . . . . 38
4 Statistiques descriptives 53
4.1 Séries à une variable . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.1 Le double but de la statistique . . . . . . . . . . . . . . . . . 53
4.1.2 Effectif et fréquence . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.3 Fonction cummulative . . . . . . . . . . . . . . . . . . . . . 55
4.1.4 Graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.5 Paramètres de position . . . . . . . . . . . . . . . . . . . . . 57
4.1.6 Caractéristiques de dispersion . . . . . . . . . . . . . . . . . 58
4
4.2 Statistiques doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.1 Tableaux de calcul . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.2 Ajustement-Méthode des moindres carrés . . . . . . . . . . . 67
4.2.3 Exemple d’application . . . . . . . . . . . . . . . . . . . . . 69
5
6
Chapitre 1
Dénombrement et probabilités
1.1 Dénombrement
Définition 1.1 – On appelle cardinal d’un ensemble fini E le nombre d’éléments
de E. On le note |E| ou card(E), et les éléments de E peuvent être notés
e1 , e2 , ...en où les ek sont deux à deux distincts.
– card(∅) = 0.
– Dénombrer un ensemble fini non vide E, c’est déterminer le cardinal de E,
c’est à dire le nombre de ses éléments.
– On dit que l’ensemble E est infini dénombrable s’il existe une bijection de N
dans E. Les éléments de E peuvent être notés e0 , e1 , ... où les ek sont deux à
deux distincts.
Proposition 1.3 Soit E un ensemble fini. Si F est un ensemble tel qu’il existe
une bijection de E dans F , alors F est un ensemble fini et card(E) = card(F ).
Proposition 1.4 Soit E un ensemble fini. Toute partie A de E est fini et card(A) ≤
card(E). Si A est une partie de E, A = E ⇔ card(A) = card(E)
7
Proposition 1.5 Soient E et F deux ensembles finis. Alors
– Si E ⊂ F , on a card(E) ≤ card(F ), avec égalité si et seulement si E = F .
– card(E × F ) = card(E) × card(F ).
– card(E ∪ F ) = card(E) + card(F ) − card(E ∩ F ).
– Le cardinal des applications de E dans F vaut card(E)card(F ).
– card(P(E)) = 2card(E) .
Exemple 1.8 Soit E = {1, 2, 3, 4}, alors (1, 2, 2), (2, 4, 3) sont deux 3-listes d’éléments
de E, de plus (1, 2, 4) et (4, 1, 2) sont deux 3-listes différentes (non identiques).
8
d’ou le nombre de numéros possibles est 1 × 5 × 103 = 5000.
Exemple 1.11
– (a, n, a, n, a, s) est une 6−liste de E = {a, b, c, ...z}
– Tirage avec remise : une urne U contient n boules numérotés de 1 à n.
On tire successivement p boules de U en remettant chaque fois dans l’urne
la boule qu’on vient de tirer. On note (x1 , x2 ., .., xp ) la suite des numéros
obtenus. (x1 , x2 , ..., xp ) est une p-liste. Le nombre de tirages possibles est
donc np .
n!
Apn = = n(n − 1) × ... × (n − p + 1)
(n − p)!
Exemple 1.14 17 chevaux sont au départ d’un grand prix. Combien y a-t-il de
tiercés possibles
9
1◦ ) au total ?
2◦ ) dans lesquels les 3 chevaux de tête sont dans l’ordre ?
3◦ ) dans lesquels les 3 chevaux de tête sont dans l’ordre ou dans le désordre ?
4◦ ) dans le désordre ?
Solution : 1◦ ) Tout nombre formé avec 3 chiffres différents pris parmi {1, 2, 3, 4, 5, 6, 7, 8, 9}
est un arrangement de ces neuf chiffres pris trois à trois : deux nombres distincts
différent l’un de l’autre soit par la nature soit par l’ordre des 3 chiffres. On peut
donc former A39 = 9 × 8 × 7 = 504 nombres différents.
2◦ ) Avec les 10 chiffres {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} on peut former A310 = 10×9×8 =
720 nombres. Cependant parmi ceux-ci figurent les nombres commençant par 0 qui
sont des nombres de deux chiffres distincts. Or il existe A29 = 9 × 8 = 72 nombres
différents débutant par 0. Donc finalement 720−72 = 648 nombres de trois chiffres
différents pris parmi l’ensemble {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}.
Exemple 1.16 – Tirage sans remise : une urne U contient n boules numérotés
de 1 à n. On tire successivement p boules de U sans les remettres dans l’urne,
et on note (x1 , ..., xp ) un résultat de cette expérience (x1 , x2 , ..., xp ) est un ar-
rangement de p éléments parmi n. Il y’a Apn tirage différents possibles.
10
– (a, n, a, n, a, s) n’est pas un arrangement de lettres de l’alphabet : il y a
répétition.
Exemple 1.19 – Tirage par poignées : Une urne contient n boules numérotées
de 1 à n. On tire simultanément p boules de E. Le nombre de tirage possibles
vaut le nombre de combinaisons de p éléments parmi n.
11
– A partir des 3 lettres a, b,c, on ne peut former qu’une seule combinaison
{a, b, c}, mais 6 = 3! arrangements : abc, acb,bca,bac,cab,cba.
– A partir des 3 lettres a,b,d, on peut également former une seule combinaison
mais 6 arrangements.
– De même avec les 3 lettres a,c,d, et les 3 lettres b,c,d.
Ainsi, on a 4 combinaisons, mais 6 × 4 = 24 arrangements.
Une épreuve est une expérience dont l’issue est incertaine. Les résultats éventuels
d’une épreuve font généralement appel au hasard. L’ensemble des résultats éventuels
(les résultats possibles, les éventualités) s’appelle ensemble fondamental (référentiel,
ensemble de référence, population mère).
Exemple 1.22 Une pièce de monnaie possède deux figures (éventualités) : pile
et face. Si la pièce n’est pas trafiquée et lancé loyalement, pile a autant de chances
d’apparaı̂tre que face. On dit alors que les deux éventualités sont équiprobables.
12
1.2.1 Opérations logiques sur les ensembles
La complémentarité
Ensembles disjoints
Deux ensembles A et B sont dits disjoints s’ils n’ont pas d’éléments en commun.
On termes d’événements, on dit que A et B sont incompatibles.
13
– CΩA = A, c’est la non-réalisation de l’événement A, c.à.d. si A est réalisé, A
ne l’est pas.
Exemple 1.24 Si nous lançons un dé à 6 faces, les résultats possibles sont
{1, 2, 3, 4, 5, 6}.
– Considérons les événements suivants A = ”obtenir la face 1” et B =” ob-
tenir un nombre pair”, donc A = {1} et B = {2, 4, 6}. A et B sont donc
incompatibles car A ∩ B = ∅.
– Considérons les événements A =”obtenir un nombre inférieur à 3” et B =”obtenir
un nombre impaire”. Alors A = {1, 2, 3} et B = {1, 3, 5}. De plus A ∩ B =
{3} =
6 ∅.
14
1.2.4 Probabilité sur un univers fini
Soit Ω un univers fini. On note P(Ω) l’ensemble des événements de Ω.
1
Si tous les événements élémentaires sont équiprobables , c.à.d. si P (Ak ) = n
m card(A)
P (A) = =
n card(Ω)
15
On dit que P est la loi uniforme sur Ω.
Lorsque l’espace fondamental Ω est fini ou dénombrable, définir la proba-
bilité P sur les événements Ω équivaut à se donner la famille {pω }ω∈Ω des
probabilités individuelles, i.e. pω = P ({ω}), ω ∈ Ω.
Soit A ⊂ Ω, alors
X
P (A) = pω
ω∈A
16
déterminer le lien entre les deux applications probabilités. Soit Ω = {1, 2, 3, 4, 5, 6}.
Soit P l’application probabilité correspondant au jet d’un dé (sans condition). Soit
Q l’application probabilité correspondant au jet d’un dé avec le renseignement
supplémentaire (le résultat obtenu est un nombre impair). Si B = {1, 3, 5} pour
P (A∩B)
tout événement A on a Q(A) = P (B)
.
P (A ∩ B)
P (A/B) = .
P (B)
Théorème 1.30 (Formule des probabilités totales) Soit {An }n≥1 un système
complet d’événements. Alors, quelque soit l’événement B, on a
X
P (B) = P (An )P (B/An )
n≥1
17
Exemple 1.31 Soit A un événement, B et B deux événements complémentaires.
En appliquant la formule des probabilités totales, on obtient
Exemple 1.32 Une usine d’ampoules dispose de 3 machines qui fabriquent res-
pectivement 20, 30 et 50% de la production. Sachant que la probabilité qu’une am-
poule défectueuse ait été fabriqué par A, B, C est P (D/A) = 0.05, P (D/B) =
0.04, P (D/C) = 0.01 Calculer
1◦ ) La probabilité qu’une ampoule soit défectueuse.
2◦ ) La probabilité pour qu’une ampoule défectueuse provienne de A.
3◦ ) La probabilité pour qu’une ampoule non défectueuse provienne de C.
3◦ )
P (C ∩ D) P (C)P (D/C)
P (C/D) = =
P (D) P (D)
18
Or P (D/C) = 1 − P (D/C) = 0.99 et P (D) = 1 − P (D) = 0.973, d’ou
P (C/D) = 0.51
(resp. 41 , 12
1
). La probabilité d’arriver en retard en empruntant A (resp. B, C) est
1 1 1
20
(resp. , ).
10 5
En empruntant D, il n’est jamais en retard.
1◦ ) Quelle est la probabilité que l’étudiant choisisse l’itinéraire D ?
P (C)P (R/C) 2
P (C/R) = = .
P (A)P (R/A) + P (B)P (R/B) + P (C)P (R/C) + P (D)P (R/D) 7
19
indépendants. Traduisons de façon mathématique l’idée d’indépendance de deux
événements.
P (A/B) = P (A)
ce qui réalise que la probabilité que A se réalise est indépendante du fait que B
soit réalisé ou non.
Dans l’exemple du jet d’une pièce de monnaie deux fois, soit A =” le deuxième
1 1
coup donne face” et B =”le premier coup donne face”. P (A/B) = 2
or P (A) = 2
P (A ∩ B) = P (A)P (B)
Conséquences
– Si A et B sont indépendants, il en est de même de A et B, de A et B, de A
et B.
– Tout événement A est indépendant de l’événement certain Ω et de l’événement
impossible ∅.
– En général, on a P (A/B) 6= P (A), ce qui signifie que ”A dépend de B”.
Définition 1.36 Soit une suite (finie ou non) d’événements (An )n∈N
Ces événements sont globalement indépendants si pour toute famille finie {Ai }i∈I
extraite de la suite An on a
Y
P (∩i∈I Ai ) = P (Ai )
i∈I
20
– B =” la deuxième pièce donne pile”
– C =” les deux pièces donnent le même résultat”
1◦ ) Les événements A, B, C sont-ils indépendants deux à deux ?
2◦ ) L’événement C est-il indépendant de A ∩ B ?
3◦ ) Les événements A, B et C sont-ils globalement indépendants ?
21
22
Chapitre 2
Lois de probabilités discrètes
2.1 Introduction
Supposons que l’on considère l’épreuve ”lancer deux fois une pièce de monnaie”.
L’univers sera alors Ω = {P P, F P, P F, F F }. Intéressons-nous au nombre de fois
où ”Face est apparu” au cours de ces deux lancers.
Ω PP PF FP FF
R 0 1 1 2
23
Définition 2.2 On appelle loi de probabilité de la variable aléatoire X la fonction
définie par : x 7→ P (X = x)
Supposons que l’on s’intéresse au nombre de garçons dans ces familles de 3 enfants.
On peut représenter la loi de probabilité de la variable aléatoire X par le tableau
suivant :
xi 0 1 2 3
1 3 3 1
pi 8 8 8 8
24
Définition 2.4 On appelle fonction de répartition de la variable aléatoire X la
fonction FX : R −→ [0, 1], x 7→ P (X ≤ x)
Propriétés
– FX est croissante et
– Si a < b, alors
P (a < X < b) = FX (b) − FX (a)
x −∞ 0 1 2 3 +∞
1 1 4 4 7 7
FX (x) 0 8 8 8 8 8 8
1 1
Solution :
– Pour x = − 21 , on a F (− 12 ) = P (X ≤ − 21 ) = 0.
1
– Pour x = 0, on a F (0) = P (X ≤ 0) = P (X = 0) = 8
Exemple 2.6 1◦ ) Une urne contient une boule noire et une boule blanche. On tire
avec remise deux boules de cette urne, et on note X le nombre de boules blanches ob-
tenues. X est une variable aléatoire définie sur Ω = {(b, b), (b, n), (n, b), (n, n)}, X(Ω) =
{0, 1, 2}.
2◦ ) On lance un dé cubique jusqu’à ce que l’on obtienne un 6. Soit X le nombre
de lancer effectués. X est une variable aléatoire discrète infinie car X(Ω) = N∗ .
(La probabilité de ne jamais obtenir un 6 est nulle, mais cet événement n’est pas
impossible.)
25
Figure 2.1: Fonction de répartition
P (X = xk ) = f (xk ), k = 1, 2, 3, ...
26
– Soit X une v.a qui prend des valeurs entière positives. On peut utiliser les
techniques suivantes pour résoudre des exercices de calcul des probabilités :
P (X = k) = P (X ≥ k) − P (X ≥ k + 1) = P (X > k − 1) − P (X > k)
= P (X ≤ k) − P (X ≤ k − 1) = P (X < k + 1) − P (X < k)
k
X +∞
X
P (X ≤ k) = P (X = i), P (X ≥ k) = P (X = i)
i=0 i=k
Définition 2.8 Soit (X, Y ) un vecteur aléatoire réel. On appelle loi conjointe de
(X, Y ) la probabilité définie sur R2 par
P(X,Y ) (I × J) = P (X ∈ I et Y ∈ J)
27
avec s
X
p1. = p1j = P (X = x1 )
j=1
Il est toujours possible à l’aide de loi conjointe, de retrouver les lois marginales :
Si X(Ω) = {x1 , x2 , ....xp } et Y (Ω) = {y1 , y2 , ....yq }, on a :
q
X
P (X = xi ) = P (X = xi , Y = yj ), (ligne)
j=1
p
X
P (Y = yj ) = P (X = xi , Y = yj ), (colonne)
i=1
Sur le tableau, cela correspond aux sommations par ligne ou par colonne.
P (X = xi , Y = yj ) = P (X = xi )P (Y = yj )
P (X = xi , Y = yj ) = P (X = xi )P (Y = yj /X = xi )
Exemple 2.9 Soit une urne contenant 6 boules blanches et 4 boules noires. On
effectue deux tirages successifs sans remise. On définit la v.a.d. X par
28
Y = 1 si la deuxième boule tirée est blanche (B2 )
4 3 12
P (X = 0, Y = 0) = P (X = 0)P (Y = 0/X = 0) = × =
10 9 90
4 6 24
P (X = 0, Y = 1) = P (X = 0)P (Y = 1/X = 0) = × =
10 9 90
6 4 24
P (X = 1, Y = 0) = P (X = 1)P (Y = 0/X = 1) = × =
10 9 90
6 5 30
P (X = 1, Y = 1) = × =
10 9 90
En général, on représente ces résultats dans un tableau à double entrée :
2◦ ) Lois marginales de X et de Y :
36 2 54 3
P (X = 0) = = , P (X = 1) = =
90 5 90 5
36 54 3
P (Y = 0) = , P (Y = 1) = =
90 90 5
3◦ ) Puisqu’il n’y a pas de remise dans l’urne de la première boule tirée, les événements
(les deux tirages) sont dépendants. En effet, (technique de vérification)
24 36 54
P (X = 0, Y = 1) 6= P (X = 0)P (Y = 1), car 6= ×
90 90 90
29
2.4 Espérance mathématique ou moyenne, mo-
ments centrés, variance et écart type
Définition 2.10 On appelle espérance mathématique (ou moyenne) d’une v.a.d.
finie prenant les valeurs xi , 1 ≤ i ≤ n, le nombre noté X ou E(X) définie par
n
X
E(X) = xi p i
i=1
1 3 3 1 3
E(X) = 0 × +1× +2× +3× =
8 8 8 8 2
Définition 2.13 On appelle moment centré d’ordre k due v.a.d.f X prenant les
valeurs xi , 1 ≤ i ≤ n , le nombre
n
X
µk (X) = (xi − E(X))k pi
i=1
Propriétés de l’espérance
30
– Si X et Y deux v.a.d. et (λ, µ) ∈ R2
en particulier
E(X + µ) = E(X) + µ
E(XY ) = E(X)E(Y )
Propriétés de la variance
Si X et Y sont deux v.a.d.f. et (λ, µ) ∈ R2
–
V (λX + µ) = λ2 V (X)
V (X + Y ) = V (X) + V (Y )
Définition 2.16 On dit q’une v.a. Z est normée si sa moyenne est nulle et si son
X−X
écart type est égal à 1. La v.a. Z = σ
est une v.a. normée. En effet
1
E(Z) = E(X − X) = 0
σ
1 1
V (Z) = 2
V (X − X) = 2 V (X) = 1
σ σ
31
2.4.2 Covariance et coefficient de corrélation
Définition 2.17 La covariance de deux v.a. X et Y est le réel
On a aussi
cov(X, Y ) = V (X + Y ) − V (X) − V (Y )
De la dernière relation on déduit une condition nécessaire pour que deux v.a. soient
indépendentes :
cov(X, Y ) = 0
Remarque 7 On généralise les notions vues précédemment au cas où les v.a.d.
infinies. Toutes les sommes rencontrées précédemment sont remplacées pas des
sommes de séries numériques, dans le cas où ces séries sont convergentes.
Exemple 2.19 Un atelier fonctionne avec deux équipes d’ouvriers, une du matin
et une du soir. Chaque jour on enregistre le nombre d’ouvriers absents et on note
X le nombre d’abscence dans l’équipe de jour et par Y le nombre d’absences dans
l’équipe du soir. La loi de probabilité du couple (X, Y ) est donnée dans le tableau
suivant :
H
HH Y
H
HH 0 1 2 3
X H
H
H
0 0.25 0.25 0.05 0
1 0.20 0.10 0.05 0.05
2 0.05 0.02 0.02 0.01
32
1◦ ) Donner la loi de probabilité de X, celle de Y .
2◦ ) Calculer l’espérence et la variance de X et de Y .
3◦ ) Calculer le coefficient de corrélation linéaire entre X et Y
4◦ ) Donner la loi de probabilité de Y sachant que X ≥ 1
5◦ ) Une abscence coûte 100 F à l’usine. Quelle est la perte journalière moyenne
due aux absences ?
Solution
1◦ ) En utilisant le tableau de la loi conjointe du couple (X, Y ), et en faisant la
somme des lignes (on trouve la loi de X) et la somme des colonnes (on trouve la
loi de Y ) :
H
HH Y
H
HH 0 1 2 3 marg X
X H
HH
0 0.25 0.25 0.05 0 0; 50
1 0.20 0.10 0.05 0.05 0.40
2 0.05 0.02 0.02 0.01 0.10
marg Y 0.50 0.32 0.12 0.06 1
33
E(XY ) = 0.35 + 0.18 = 0.53
cov(X, Y ) 0.086
ρ(X, Y ) = =√ = 0.14565
σ(X)σ(Y ) 0.44 × 0.7924
4◦ ) Loi de probabilité de Y sachant X ≥ 1
P (Y = yj ; X = 1) P (Y = yj ; X = 2)
P (Y = yj /X ≥ 1) = +
0.50 0.50
donc
Y = yj 0 1 2 3
P (Y = yj /X ≥ 1) 0.50 0.24 0.14 0.12
5◦ ) Perte journalière moyenne due aux absences
Exemple 2.20 Une urne contient 3 boules blanches et 4 boules rouges. On tire
successivement 2 boules de cette urne, dans un premier avec remise, dans le second
cas, sans remise.
Soit X la v.a. prenant la valeur 1 si la première boule tirée est blanche, 0 sinon.
Soit Y la v.a. prenant la valeur 1 si la deuxième boule tirée est blanche, 0 sinon.
1◦ ) Donner, sous forme de tableau, la loi du couple (X, Y )
2◦ ) Calculer les lois marginales.
3◦ ) Conclure.
Solution
1◦ ) Les lois du couple (X, Y ) sont données par (Avec remise à gauche et sans
remise à droite)
H H
HH Y HH Y
H
HH 0 1 marg X H
HH 0 1 marg X
X H
H
X H
H
H H
16 12 28 4 2 2 4
0 49 49 49
= 7
0 7 7 7
12 9 21 3 2 1 3
1 49 49 49
= 7
1 7 7 7
4 3 4 3
marg Y 7 7
1 marg Y 7 7
1
34
Dans le cas avec remise, on a
4 3
P (X = 0) = ; P (X = 1) =
7 7
4 3
P (Y = 0) = ; P (Y = 1) =
7 7
les événements sont indépendennts.
Dans le cas sans remise, on constate que les lois marginales sont les mêmes
dans les deux cas, alors que les lois conjointes sont différentes. On conclut que la
donnée des lois marginales est insuffisante pour reconstituer la loi conjointe. Les
événements sont dépendants.
1
∀i ∈ {1, 2, ..., n}, P (X = xi ) =
n
On note X ,→ B(p)
Exemple 2.23 Une urne contient 2 boules rouges et 3 boules vertes. On tire une
boule de l’urne. On considère la v.a. X =”nombre de boules rouges tirées”.
X est une v.a. de Bernoulli
2 3
X(Ω) = {0, 1} et P (X = 1) = 5
= p; P (X = 0) = 5
=q
35
Remarque 8 Plus généralement, on utilisera une v.a. de Bernoulli lorsqu’on
effectue une épreuve qui n’a que deux issues : le succès ou l’échec. Une telle
expérience est alors appelée épreuve de Bernoulli. On affecte alors 1 à la variable
en cas de succès et 0 en cas d’échec :
P (X = k) = pk q 1−k , ∀k ∈ {0, 1}
Exemple 2.24 La loi binomiale B(n, p) est suivi par la v.a. X dans les exemples
suivants :
– 1) X est égale au nombre de ”piles” obtenus au cours de n lancers indépendants
d’une pièce équilibrée, ici p = 12 .
– 2) X est égale au nombre de boules rouges extraites au cours de n tirages
successifs indépendants, avec remise, d’une boule dans une urne contenant
des boules rouges et blanches dans les proportions p et q = 1 − p.
X suit une loi binomiale notée B(n, p)
– X(Ω) = {0, 1, 2, ..., n}
– ∀k ∈ X(Ω), P (X = k) = Cnk pk q n−k
– E(X) = np
– V (X) = npq
36
Exemple 2.25 On lance un dé à 6 faces non pipé. On s’intéresse au fait suivant :
”obtenir 6”. On considère ce fait comme succèes, avec la probabilité 16 , l’échec étant
1
”obtenir ”1, 2, 3, 4, 5”, donc q = 1 − 6
= 56 .
On lance 10 fois ce dé. Soit X la v.a. correspondant au nombre de succès.
1◦ ) Calculer P (X = 5)
2◦ ) Calculer la probabilité d’obtenir au moins une fois le 6, au cours des 10
lancers.
Solution
L’expérience aléatoire permet de dire que X ,→ B(10, 16 )
1◦ ) P (X = 5) = C10
5 1 5 5 5
(6) (6)
2◦ )P (X = 0) = C10
0 1 0 5 10
( 6 ) ( 6 ) = ( 65 )10 .
L’événement {X = 0} est le contraire de {X ≥ 1}. On a donc
5
P (X ≥ 1) = 1 − ( )10 ' 0.84
6
Remarque 9 – Cette loi porte le nom de binômiale car elle fait intervenir
les Cnk coefficients du développement du binôme (a + b)n
– Les valeurs P (X = k) sont tabulées, pour certaines valeurs de n, (k ≤ n).
Définition 2.26 Soit X une v.a. à valeurs dans N (X(Ω) = N). X suit une loi
de Poisson de paramètre λ(λ > 0) et on note X ,→ P(λ) ssi
λk
P (X = k) = e−λ , k∈N
k!
Conséquences
P+∞ P+∞ −λ λk
– k=0 P (X = k) = 1 donc k=0 e k!
=1
√
– E(X) = λ, σ(X) = λ
Pp
– La fonction de répartition est F (p) = P (X ≤ p) = k=0 P (X = k)
37
Le domaine d’application de la loi de Poisson a été longtemps limité à celui des
événements rares comme les suicides d’enfants, les arrivées de bateaux dans un
port ou les accidents dus aux coups de pied de cheval dans les armés. C’est la loi
des petites probabilités et sans mémoire, dans un intervalle de temps donné. De-
puis quelques décennies, son champ d’application s’est considérablement élargie.
Actuellement, on l’utilise beaucoup dans les télécommunications (pour compter le
nombre de communications dans un intervalle de temps donné, le contrôle de qua-
lité statistique, la biologie, la météorologie, la finance pour modéliser la probabilité
de défaut d’un crédit
Autres exemples
– le nombre de chèque émis sans provision
– le nombre de fautes d’impression dans les pages d’un livre
– le nombre de personnes atteintes d’une maladie
– le nombre d’accidents sur une portion de route
– le nombre d’accidents annuels provoqués par un automobiliste assuré
– le nombre de déchets dans une fabrication
– le nombre d’atomes désintégrés par unité de temps.
Les variables aléatoires de Poisson peuvent être utilisées pour approcher des
variables aléatoires binomiales de paramètre (n, p) pour autant que n soit grand
et p assez petit pour que np soit d’ordre de grandeur moyen (environ 5).
Pour s’en convaincre, admettons que X soit une v.a. binomiale de paramètre
38
(n, p) et posons λ = np.
n! λ λ
P (X = k) = Cnk pk (1 − p)n−k = ( )k (1 − )n−k
k!(n − k)! n n
n(n − 1)...(n − k + 1) λk (1 − nλ )n
=
nk k! (1 − nλ )k
Maintenant, pour n grand et λ modéré, on a :
n(n − 1)...(n − k + 1) λ n −λ λ k
≈ 1, (1 − ) ≈ e , (1 − ) ≈1
nk n n
Donc, pour n grand et λ modéré :
λk
P (X = k) ≈ e−λ
k!
Exemple 2.27 Un certain vaccin provoque chez un individu sur 800 environ une
réaction dangereuse. Quelle probabilité y-a-t-il, en vaccinant 3000 personnes, qu’il
y ait
1◦ ) 3 réactions dangereuses ?
2◦ ) plus de 2 réactions dangereuses ?
P (X > 2) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)]
3.750 e−3.75 3.751 e−3.75 3.752 e−3.75
≈1−[ + + ] = 0.7229
0! 1! 2!
39
Remarque 11 – Cette approximation peut être appliquée pour n ≥ 0 et np ≤
1
5 ou n ≥ 20 et p < 30
. Elle est d’autant meilleure que n est grand et p et
proche de 0.
– On peut utiliser cette approximation pour p voisin de 1 car q ' 0, on
considère λ0 = nq.
Exemple 2.28 Pour une femme ayant eu entre 50 et 52 ans en l’an 2000, le
nombre d’enfants, noté X, suit une loi de poisson de paramètre inconnu λ. Un
échantillon de 1000 de ces femmes donne 135 sans enfants.
1◦ ) Donner une estimation de λ
2◦ ) Estimer la proportion de ces femmes ayant plus de 3 enfants.
3◦ ) Conclure
Solution Soit X la v.a. ” nombre de fois où on tire la boule blanche au cours de
n tirages”, donc X ,→ B(n, p = 0.01)
P (X ≥ 1) = 1 − P (X = 0) = 1 − (0.99)n
Si on veut que P (X ≥ 1) ≥ 0.95, il faut que (0.99)n ≤ 0.05, ce qui veut dire que
ln(0.05)
n≥ 0.99
, c.à.d. n ≥ 298.1, or n est entier, alors n ≥ 299. Il faut donc effectuer
299 tirages au moins pour être sûr à 95% d’avoir au moins une boule blanche.
40
Remarque 12 (Utilisation d’approximation par la loi de Poisson) On a n est
grand et p faible, on approche pour cela X par la loi de Poisson de paramètre
n 1
np = 1+99
= 100
(100 est le nombre de boules dans l’urne). Donc,
n
P (X ≥ 1) = 1 − P (X = 0) = 1 − e 100
n
Pour avoir P (X ≥ 1) ≥ 0.95, il faut que e− 100 ≤ 0.05, c.à.d. n ≥ −100 ln(0.05) '
299.6. Par conséquenc n ≥ 300.
41
42
Chapitre 3
Lois de probabilités de variables aléatoires
continues
3.1 Définitions
Définition 3.1 Soit f une fonction réelle. On dit que f est une densité de pro-
babilité ssi
– f est continue sur R privé éventuellement d’un nombre fini de points.
– ∀x ∈ R, f (x) ≥ 0
R +∞
– −∞ f (x) = 1
43
cos(x) si x ∈ 0, π ,
2
f (x) =
0 sinon.
1◦ ) f est continue sur R au point 0
2◦ ) f (x) ≥ 0
R +∞
3◦ ) −∞ f (x)dx = 1
Définition 3.3 On dit que X est une v.a. continue s’il existe une fonction densité
de probabilité f telle que la fonction de répartition de X soit définie pour tout x
réel par Z x
P (X ≤ x) = F (x) = f (t)dt.
−∞
La fonction F est appelée fonction de répartition de la v.a. X.
Solution 1◦ ) Pour que F soit une fonction de répartition, il faut vérifier les 3
conditions suivantes :
– 1) F est croissante au sens large
– 2) Valeurs de F aux limites
F (+∞) = limx→+∞ F (x) = 1,
F (−∞) = lim ex
=0 x→−∞ 2
44
2◦ ) La fonction f telle que
ex
0
2
si x ≤ 0,
f (x) = F (x) =
0 si x > 0,
R +∞ 1
n’est pas une densité de probabilité car −∞
f (x)dx = 2
6= 1
3.2 Propriétés
– 1)
P (a < X ≤ b) = F (b) − F (a)
Z b Z a Z b
= f (x)dx − f (x)dx = f (t)dt
−∞ −∞ a
donc
∀b ∈ R, P (X = b) = 0
45
R +∞
Définition 3.5 – 1) L’espérance de X est E(X) = −∞
xf (x)dx
– 2) La variance de X est V (X) = E(X 2 ) − E(X) = E((X − E(X))2 ) = 2
R +∞
−∞
(x − E(X))2 f (x)dx
p
– 3) L’écart-type de X est σ(X) = V (X)
π
Z +∞ Z
2 π
E(X) = xf (x)dx = x cos(x)dx = − 1.
−∞ 0 2
Définition 3.7 Soient a et b deux nombres réels avec a < b. On appelle v.a.
continue uniforme sur [a, b] une v.a. qui admet une densité de probabilité f définie
par
0 si x < a,
f (x) = 1
b−a
si a ≤ x ≤ b,
0 si x > b.
46
3.4.2 Loi exponentielle
Définition 3.9 Soit λ un réel strictement positif. On appelle v.a. exponentielle,
de paramètre λ une v.a. continue qui admet une densité de probabilité f définie par
0 si x < 0,
f (x) =
λe−λx si x ≥ 0.
– 2) E(X) = λ1 , V (X) = 1
λ2
, σ(X) = λ1 .
47
3.4.4 Loi normale centrée réduite
Définition 3.13 Soit X une v.a. continue qui suit une loi normale, alors la v.a.
X−m
T = σ
est dite centrée et réduite (on écrit T ,→ N (0, 1)) et vérifie
X −m X −m
E(T ) = E( ) = 0, V (T ) = V ( )=1
σ σ
t 2
La fonction de densité de probabilité est donnée par ϕ(x) = √1 e− 2 . Elle ad-
2π
met l’axe des ordonnées comme axe de symétrie et les points d’inflexion ont pour
abscisses −1 et 1.
Propriétés
Rt x 2
– La fonction de répartition est donnée par F (t) = P (T ≤ t) = √1 e− 2 dx.
−∞ 2π
On lance 500 fois une pièce de monnaie non truquée. Soit X le nombre de ”face”
obtenues. Alors X ,→ N (500, 12 ). Pour calculer P (X = 100) = C500
100 1 100 1 400
(2) (2) ,
48
ces calcules sont longs et fastidieux. C’est pour cela on utilise les méthodes d’ap-
proximations. L’approximation par la loi de Poisson n’est pas valable puisque, n
est grand mais ni p ni q ne sont pas proches de 0.
Les calculs et les méthodes expérimentales ont prouvé que l’on pouvait appro-
(x−m)2
cher P (x = k) par f (k) où f (x) = √1 e− 2σ 2 (fonction de Gauss), avec σ 2 = npq
σ 2π
et m = np.
Application σ 2 = 500 × 0.5 × (1 − 0.5) = 125 et m = 500 × 0.5 = 250. On
obtient
1 (150)2 1
P (X = 100) ' √ √ e− 2×125 = √ √ e−90
125 2π 125 2π
P (X = 100) = , nombre très proche de 0.
Une autre méthode est celle d’encadrer la valeur proposée et de se ramener au
calcul d’une fonction de répartition. On a 100 ∈ [99.5, 100.5]
P (X = 100) ' P (99.5 ≤ X ≤ 100.5) que l’on calcul par changement de
variables et l’utilisation de la loi N (0, 1).
20 20
= P (T ≤ √ ) − P (T < − √ )
125 125
20
2P (T ≤ √ ) − 1 = 2P (T ≤ 1.79) − 1 = 2 × 0.9633 − 1 ' 0.9266
125
49
3.5.2 Approxiamtion d’une loi de Poisson par une loi nor-
male
On démontre de la même manière que si λ > 20, on peut approcher une loi de
Poisson P(λ) par la loi normale N (λ, λ).
Exemple 3.14 On s’intéresse au poids moyen d’un nouveau né. On suppose que
ce poids suit une loi normale de moyenne 3.1 kg et d’écart-type 0.5 kg.
1◦ ) Quelle est la probabilité qu’un nouveau né pèse plus de 4 kg ?
2◦ ) Quelle est la probabilité qu’il pèse moins de 3 kg ?
3◦ ) Quelle est la probabilité que son poids soit compris entre 2.9 kg et 3.5 kg ?
Solution
Le poids suit la loi normale N (m, σ 2 ) avec m = 3.1 et σ = 0.5
1◦ ) P (X > 4) = 1−P (X ≤ 4). On effectue le changement de variable T = X−m
σ
,
4−3.1
alors T ,→ N (0, 1). Si X = 4, alors T = σ
= 1.8.
On a 1 − P (T ≤ 1.8) = 1 − 0.09641 = 0.0359, donc P (X > 4) = 0.036
2◦ ) P (X ≤ 3) = P (T ≤ −0.2) = 1 − P (T < 0.2) = 1 − 0.05793 = 0.4207
3◦ ) On a
P (2.9 ≤ X ≤ 3.5) = P (X ≤ 3.5) − P (X < 2.9)
3.5 − 3.1 2.9 − 3.1
= P (T ≤ ) − P (T ≤ )
0.5 0.5
= P (T ≤ 0.8) − P (T ≤ −0.4)
= P (T ≤ 0.8) − (1 − P (T ≤ −0.4))
= P (T ≤ 0.8) + P (T ≤ 0.4) − 1
50
Solution 1◦ ) Il s’agit d’une loi binômiale B(200, 120) ∼ N (np, npq), avec m =
√
100, σ 2 = 50 c.à.d. σ = 5 2.
−20 20
P (80 ≤ X ≤ 120) = P ( √ ≤ T ≤ √ )
5 2 5 2
avec T ,→ N (0, 1)
√ √ √ √
= P (−2 2 ≤ T ≤ 2 2) = P (T ≤ 2 2) − P (T ≤ −2 2)
√ √
= P (T ≤ 2 2) − (1 − P (T ≤ 2 2))
√
= P (T ≤ 2 2) − 1 = 2 × 0.9976 − 1 ' 0.9952
0.5 0.5
P (X = 100) ' P (T ≤ √ ) − P (T ≤ − √ )
5 2 5 2
avec T ,→ N (0, 1)
0.5
= 2P (T ≤ √ ) − 1 = 2 × 0.5279 − 1 ' 0.0558.
5 2
(x−m)2
Deuxième méthode : Soit f la fonction de densité f (x) = √1 e− 2σ 2 . Dans
σ 2π
(x−100)2
√1 e − 100 √ 1√ ,
ce cas f (x) = 5 2π
. Alors P (X = k) ' f (k), donc P (X = 100) ' 5 2 2π
c.à.d. P (X = 100) ' 0.0564.
On remarque que ces résultats diffèrent très peu.
51
52
Chapitre 4
Statistiques descriptives
Définition 4.1 La population est l’ensemble des éléments à étudier ayant des
propriétés communes. On la note P. Un individu est un élément de la population
étudiée. La taille de la population est le nombre d’individus. Un échantillon est la
partie étudiée de la population.
53
Définition 4.3 Une variable ou caractère est une propriété commune aux indivi-
dus de la population, que l’on souhaite étudier. Elle peut être :
– 1)qualitative : lorsque les valeurs prises par la variable ne sont pas une quan-
tité mesurable par un nombre mais appartiennent à un groupe de catégories.
On les appelle modalités de la variable. On distingue :
– les variables qualitatives nominales : il n’y a pas de hiérarchie entre les
différentes modalités ; exemple : sexe, couleur des yeux, couleur de pétales.
– les variables qualitatives ordinales : les différentes modalités peuvent être
ordonnées de manière naturelle ; exemple : la mention au baccalauréat, la
fréquence d’une activité (jamais, rarement, parfois, souvent, très souvent).
– 2) quantitative (numérique) : lorsque les valeurs prises par la variable cor-
respondent à des quantités mesurables et sont données par des nombres. On
distingue :
– les variables quantitatives discrètes : elles prennent leurs valeurs dans un en-
semble discret, le plus souvent fini ; exemple : le nombre d’enfants, la pointure
du pied, le nombre d’espèces recensées sur une parcelle.
– les variables quantitatives continues : elles peuvent prendre toutes les valeurs
d’un intervalle réel ; exemple : la taille des individus, le poids d’un individu,
le périmètre d’une coquille de moule.
Définition 4.4 L’ensemble des données de la/les variable(s) s’appelle la série sta-
tistique. Si l’étude statistique porte sur un seul critère, on dit que la série statistique
est simple (ou univariée). Si l’étude porte sur deux ou plusieurs critères, la série
est dite respectivement double (ou bivariée) ou multiple.
Remarque 16 Etudier la longueur des pétales sur une population d’iris donne
une série statistique simple ; étudier la longueur et la largeur des pétales donne
54
une série statistique double.
Définition 4.5 Soient {x1 , x2 , ..., xn } les valeurs distinctes prises par la variable
X.
– On appelle effectif de la modalité xi , le nombre ni d’éléments de P ayant xi
pour image par X. C’est le nombre d’individus ni correspondant à la valeur
xi de X
n
X
ni = effectif total = n
i=1
ni
– On appelle fréquence de la modalité xi le réel fi = n
n
X
fi = 1
i=1
55
On définit la fréquence cumulée décroissante par
X ni + ni+1 + ...nk effectif cumulé décroissant
fj = fi + fi+1 + .... + fk = =
j≥i
n effectif total
4.1.4 Graphiques
Caractère à valeurs discrètes
– Le diagramme en bâtons s’obtient en traçant à partir du point de l’axe des
x d’abscisse xi un segment de longueur proportionnelle à ni .
– Le polygone des effectifs s’obtient en joignant par un trait les différents points
de coordonnées (xi , ni )
– La courbe cumulative des effectifs est la représentation de la fonction de
répartition définie sur R : x 7−→(somme des effectifs xi < x) qui est une
fonction en escalier.
– La dominante ou mode est la valeur du caractère ayant le plus grand effectif.
Caractère à valeurs répartis en classes
La série statistique est définie par la donnée des classes qui sont des intervalles
de R et des effectifs correspondants. On supposera les classes de même amplitude.
56
– L’histogramme : est formé de bandes rectangulaires ayant la largeur de
chaque classe et dont la hauteur est proportionnelle à l’effectif de la classe
considérée.
– Le polygone des effectifs : s’obtient en joignant par un segment de droite les
divers points de coordonnées (ci , ni ). On complète éventuellement les classes
par deux classes extrêmes de même amplitude que les précédentes et d’effectif
nul.
– La courbe cumulative des effectifs : représente la fonction de répartition
définie sur R : x 7−→(somme des effectifs des xi < x)
Les valeurs xi du caractère étudié sont supposées réparties uniformément
dans chaque classe.
Si la variable X est discrète, son mode est la où les valeurs de la variable corres-
pondant à la fréquence maximale.
Si la variable X est continue, sa classe modale, est la où les classes de densité de
proportion maximale.
57
Remarque 17 La moyenne arithmétique a une unité : celle des valeurs de X.
Propriétés
– E(X + b) = E(X) + b
– E(aX) = aE(X)
– E(aX + b) = aE(X) + b
Calcul pratique
Afin d’avoir un calcul plus simple de E(X), on effectue souvent un changement
d’origine et d’échelle en appelant x0 la nouvelle origine et h l’échelle on a xi =
x0 + hui , d’où
E(X) = x0 + hE(U )
58
Plus la variance d’une série est grande, plus que cette série est dispersée
autour de sa moyenne.
– L’écart-type d’une série statistique est
p
σ(X) = V (X)
Propriétés
– V (X + b) = V (X)
– V (aX) = a2 V (X)
– V (aX + b) = a2 V (X)
Calcul pratique On utilise souvent
n
1X
V (X) = ni x2i − E(X)2
n i=1
Un changement d’origine et d’échelle xi = x0 + hui conduit à
V (X) = h2 V (U )
xi 4 8 9 10 11 12 13 14 15 17 18
ni 1 2 4 3 2 1 1 2 2 1 1
E.C.C 1 3 7 10 12 13 14 16 18 19 20
E.C.D 20 19 17 13 10 8 7 6 4 2 1
fi % 5 10 20 15 10 5 5 10 10 5 5
F.C.D% 100 95 85 65 50 40 35 30 20 10 5
59
Diagramme en bâtons des effectifs et diagramme en bâtons des effectifs
cumulés croissant.
60
– La moyenne est
11 11
1X X
E(X) = n i xi , n = ni = 20
n i=1 i=1
1
= [1×4+2×8+4×9+3×10+2×11+1×12+1×13+2×14+2×15+1×17+1×18]
20
226
= = 11.3
20
– La médiane : c’est la valeur de xi ou la classe telle que l’on est déja la moitié
(ou 50%) de la population. La médiane est entre 10 et 11.
– L’étendue est 18 − 4 = 14.
– La variance est V (X) = E(X 2 ) − E(X)2
11
1X
E(X 2 ) = ni x2i
n i=1
1
= [1×42 +2×82 +4×92 +3×102 +2×112 +1×122 +1×132 +2×142 +2×152 +1×172 +1×182 ]
20
2778
= = 138, 9
20
p
donc V (X) = 138.9 − (11.3)2 = 11.21 et σ(X) = V (X) = 3.34
Cas continu. On choisit la répartition par classe de la série précédente
– On commence par créer le tableau des fréquences cumulées croissantes et les
fréquences cumulées décroissantes.
Notes [0, 5[ [5, 10[ [10, 15[ [15, 20[
fi % 13 57 23 7
F.C.C 13 70 93 100
F.C.D 100 87 30 7
– On place les points correspondants aux extrémités de chaque classe sur un
graphique
– On détermine le point du polygône d’ordonnée 50% et on trouve environ 8.2
– Pour trouver la médiane, on peut aussi tracer le polygône des fréquences
cumulées décroissantes et lire l’abscisse du point de concours des deux po-
lygônes.
61
– Autre méthode de calcul de la médiane : 50% se situe dans l’intervalle [5, 10],
on fait l’hypothèse que les longeurs des axes sont uniformément réparties dans
cette classe. On peut alors procéder à une interpolation linéaire d’après le
théorème de Thalès :
M −5 50 − 13
=
10 − 5 70 − 13
donc, M ≈ 8.25
Individu 1 2 3 ... N
Valeur de X x1 x2 x3 ... xN
Valeur de Y y1 y2 y3 ... yN
62
Données groupées Les modalités de X et Y étant respectivement x1 , x2 , ..., xr
et y1 , y2 , ..., ys . Notons par nij l’effectif des individus présentant simultanément les
modalités xi et yj .
HH
H Y
HH y1 y2 ... ys Totaux
X H
HH
H
x1 n11 n12 n1s n1.
x2 n21 n22 n2s n2.
..
.
xr nr1 nr2 ... nrs nr.
Totaux n.1 n.2 n.s N
63
xi yi x2i yi2 xi y i
x1 y1 x21 y12 x1 y 1
x2 y2 x22 y22 x2 y 2
.. .. .. .. ..
. . . . .
xN yN x2N 2
yN xN y N
PN PN PN PN PN
i=1 xi i=1 yi i=1 x2i i=1 yi2 i=1 xi yi
Moyennes
N N
1 X 1 X
x= xi , y = yi
N i=1 N i=1
Variances
N
1 X 2 p
V (X) = xi − x2 , σ(X) = V (X)
N i=1
N
1 X 2 p
V (Y ) = yi − y 2 , σ(Y ) = V (Y )
N i=1
Covariance Par définition
N
1 X
σXY = cov(X, Y ) = (xi − x)(yi − y)
N i=1
Pour faire le calcul
N
1 X
σXY = cov(X, Y ) = xi y i − x y
N i=1
64
Données groupées
HH
HH Y
H y1 y2 ... ys ni. ni. xi ni x2i
X HH
H
H
x1 n11 n12 n1s n1.
x2 n21 n22 n2s n2.
..
.
xr nr1 nr2 ... nrs nr.
Pr Pr
n.j n.1 n.2 n.s N i=1 n i xi i=1 ni x2i
Ps
n.j yj j=1 n.j yj
Ps
n.j yj2 j=1 n.j yj2
H
HH Y
H
HH y1 y2 ... ys
X H
HH
x1
nij xi yj x2
..
.
xr
Pr Ps
i=1 j=1 nij xi yj
La somme des effectifs partiels contenus dans la colonne de yj est égale à l’effectif
des éléments dont la valeur du caractère Y est yj . Elle est notée n.j
r
X
n.j = n1j + n2j + +... + nrj = nij
i=1
65
où ni. et n.j sont appelés les effectifs partiels marginaux.
r
X s
X r X
X s
N= ni. = n.j = nij
i=1 j=1 i=1 j=1
Fréquences marginales
fi. fréquence marginale de xi ,
ni.
fi. = ni. effectif partiel marginal de xi
N
N effectif total
f.j fréquence marginale de yj ,
n.j
f.j = n.j effectif partiel marginal de yj
N
N effectif total
r
X s
X r X
X s
fi. = f.j = fij = 1
i=1 j=1 i=1 j=1
Fréquences conditionnelles
fi/j fréquence conditionnelle de xi sachant yj ,
nij fij
fi/j = = n effectif correspondant partiel à X = xi et Y = yj
n.j ij
f.j
n.j effectif partiel marginal de yj
nij fij
fj/i = =
ni. fi.
On a
fij = fi. × fj/i = f.j × fi/j
66
Calculs
Moyennes
r s
1 X 1 X
x= ni. xi , y = n.j yj
N i=1 N j=1
Variances
r s
1 X 2 2 1 X
V (X) = ni. xi − x , V (Y ) = n.j yj2 − y 2
N i=1 N j=1
p p
σ(X) = V (X), σ(Y ) = V (Y )
r s
1 XX
σXY = cov(X, Y ) = nij x − iyj − x y
N i=1 j=1
Coefficient de corrélation linéaire
cov(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
67
On démontre que la somme des carrés des distances est minimale pour
cov(X, Y ) σXY
a= = et b = y − ax
V (X) (σ(X))2
Définition 4.15 La droite d’équation y − y = a(x − x) ou y = ax + b s’appelle
droite de régression de y en x et est noté Dy/x .
68
4.2.3 Exemple d’application
On considère la distribution suivante :
xi 5.5 9.7 8.7 11.8 19.0 5.9 9.5 17.3 13.3 11.0
yi 8.5 13.2 8.7 11.1 3.8 6.5 7.4 5.6 6.5 5.9
18.0 7.8 1.5 1.3 1.8 12.0 2.7 15.4 12.9 6.2
6.7 4.9 0.8 7.4 18.1 4.7 10.2 17.8 11.2 9.0
On a
n = 20, x = 9.57, V (X) = 28.90, σ(X) = 5.38
Dy/x : y = ax + b, a = −0.06, b = 8, 99
Corrélation proche de 0
69