Vous êtes sur la page 1sur 69

Université Moulay Ismaı̈l

Faculté des Sciences et Techniques d’Errachidia


Département de Mathématiques

Cours de probabilités et statistiques


Module M233

Prof. My Driss Aouragh

Année universitaire : 2020/2021


2
Table des matières

1 Dénombrement et probabilités 7
1.1 Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 p-listes, arrangements et combinaisons . . . . . . . . . . . . 8
1.2 Introduction aux probabilités . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Opérations logiques sur les ensembles . . . . . . . . . . . . . 13
1.2.2 Notion d’événement . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Opérations sur les événements . . . . . . . . . . . . . . . . . 14
1.2.4 Probabilité sur un univers fini . . . . . . . . . . . . . . . . . 15
1.2.5 Probabilités conditionnelles-Théorème de Bayes . . . . . . . 16
1.2.6 Formule des probabilités totales . . . . . . . . . . . . . . . . 17
1.2.7 Théorème ou formule de Bayes . . . . . . . . . . . . . . . . 19
1.2.8 Indépendance, produit de deux espaces probabilisés . . . . . 19

2 Lois de probabilités discrètes 23


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Variables aléatoires discrètes finies v.a.d.f. . . . . . . . . . . . . . . 26
2.3 Couple de variables aléatoires discrètes . . . . . . . . . . . . . . . . 27
2.4 Espérance mathématique ou moyenne, moments centrés, variance
et écart type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3
2.4.1 Variable aléatoire normée . . . . . . . . . . . . . . . . . . . 31
2.4.2 Covariance et coefficient de corrélation . . . . . . . . . . . . 32
2.5 Lois de probabilités discrètes finies et infinies . . . . . . . . . . . . . 35
2.5.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.3 Loi binômiale . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6 Approximation de la loi binomiale par la loi de Poisson . . . . . . . 38

3 Lois de probabilités de variables aléatoires continues 43


3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Espérance, variance et écart type d’une v.a. continue . . . . . . . . 45
3.4 Lois de v.a. continues usuelles . . . . . . . . . . . . . . . . . . . . . 46
3.4.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.4 Loi normale centrée réduite . . . . . . . . . . . . . . . . . . 48
3.5 Approximation par la loi normale . . . . . . . . . . . . . . . . . . . 48
3.5.1 Approximation d’une loi binômiale par une loi normale . . . 48
3.5.2 Approxiamtion d’une loi de Poisson par une loi normale . . . 50

4 Statistiques descriptives 53
4.1 Séries à une variable . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.1 Le double but de la statistique . . . . . . . . . . . . . . . . . 53
4.1.2 Effectif et fréquence . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.3 Fonction cummulative . . . . . . . . . . . . . . . . . . . . . 55
4.1.4 Graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.5 Paramètres de position . . . . . . . . . . . . . . . . . . . . . 57
4.1.6 Caractéristiques de dispersion . . . . . . . . . . . . . . . . . 58

4
4.2 Statistiques doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.1 Tableaux de calcul . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.2 Ajustement-Méthode des moindres carrés . . . . . . . . . . . 67
4.2.3 Exemple d’application . . . . . . . . . . . . . . . . . . . . . 69

5
6
Chapitre 1
Dénombrement et probabilités

1.1 Dénombrement
Définition 1.1 – On appelle cardinal d’un ensemble fini E le nombre d’éléments
de E. On le note |E| ou card(E), et les éléments de E peuvent être notés
e1 , e2 , ...en où les ek sont deux à deux distincts.
– card(∅) = 0.
– Dénombrer un ensemble fini non vide E, c’est déterminer le cardinal de E,
c’est à dire le nombre de ses éléments.
– On dit que l’ensemble E est infini dénombrable s’il existe une bijection de N
dans E. Les éléments de E peuvent être notés e0 , e1 , ... où les ek sont deux à
deux distincts.

Exemple 1.2 – N est dénombrable.


– N∗ est dénombrable : bijection N −→ N∗ , n 7−→ n + 1

Proposition 1.3 Soit E un ensemble fini. Si F est un ensemble tel qu’il existe
une bijection de E dans F , alors F est un ensemble fini et card(E) = card(F ).

Proposition 1.4 Soit E un ensemble fini. Toute partie A de E est fini et card(A) ≤
card(E). Si A est une partie de E, A = E ⇔ card(A) = card(E)

7
Proposition 1.5 Soient E et F deux ensembles finis. Alors
– Si E ⊂ F , on a card(E) ≤ card(F ), avec égalité si et seulement si E = F .
– card(E × F ) = card(E) × card(F ).
– card(E ∪ F ) = card(E) + card(F ) − card(E ∩ F ).
– Le cardinal des applications de E dans F vaut card(E)card(F ).
– card(P(E)) = 2card(E) .

Exemple 1.6 E = {1, 2, 5}, card(E) = 3 et F = {6, 7, 8}, card(F ) = 3 alors


card(E×F ) = 9 et E×F = {(1, 6), (1, 7), (1, 8), (2, 6), (2, 7), (2, 8), (5, 6), (5, 7), (5, 8)}

1.1.1 p-listes, arrangements et combinaisons


Définition 1.7 Etant donné un ensemble E à n éléments, on appelle p-liste de E
toute suite (x1 , x2 , ...xp ) où chaque xk est élément de E.

Remarque 1 – L’ordre des éléments de la p-liste est important : deux p-listes


contenant les mêmes éléments dans des ordres différents sont différents :
Deux p-listes sont identiques ssi elles sont constituées des mêmes éléments
aux mêmes places par exemple (1, 6, 7) et (7, 6, 1) sont deux triplets distincts.
– Une p-liste peut contenir plusieurs fois le même élément.
– Une p-liste est aussi appelée p-uplet.

Exemple 1.8 Soit E = {1, 2, 3, 4}, alors (1, 2, 2), (2, 4, 3) sont deux 3-listes d’éléments
de E, de plus (1, 2, 4) et (4, 1, 2) sont deux 3-listes différentes (non identiques).

Exemple 1.9 Dans un pays imaginaire, un numéro de téléphone comporte 5


chiffres. Il doit commencer par 0, le second chiffre est compris entre 1 et 5, il in-
dique la région. Les autres chiffres sont libres. Combien de numéros de téléphones
différents peut-on former dans ce pays ?
Solution : Pour le premier chiffre on a une seule possibilité, pour le deuxième
on a 5 possibilités et pour les 3 derniers chiffres, on a 3-listes parmi les nombres
{0, 1, 2, 3, 4, 5, 6, 7, 8, 9} : le nombre de 3-listes parmi 10 éléments est 103 .

8
d’ou le nombre de numéros possibles est 1 × 5 × 103 = 5000.

Théorème 1.10 Il y’a np p-listes d’un ensemble à n éléments.

Exemple 1.11
– (a, n, a, n, a, s) est une 6−liste de E = {a, b, c, ...z}
– Tirage avec remise : une urne U contient n boules numérotés de 1 à n.
On tire successivement p boules de U en remettant chaque fois dans l’urne
la boule qu’on vient de tirer. On note (x1 , x2 ., .., xp ) la suite des numéros
obtenus. (x1 , x2 , ..., xp ) est une p-liste. Le nombre de tirages possibles est
donc np .

Définition 1.12 E étant un ensemble à n éléments, on appelle arrangement de


p éléments de E toute p-liste d’élément distincts de E. On note Apn le nombre
d’arrangements de p-éléments parmi n. On a

n!
Apn = = n(n − 1) × ... × (n − p + 1)
(n − p)!

– Cette formule s’établit par un raisonnement élémentaire. Pour le premier


élément qu’on choisit, on a n choix. Pour le deuxième éléments, on a n − 1
choix.
– Un arrangement de n éléments parmi n s’appelle une permutation de E
d’après la formule précédente, il y a n! permutations de E : Ann .
On peut aussi interpréter Apn comme le nombre d’injections d’un ensemble à p-
éléments dans un ensemble à n éléments.

Théorème 1.13 Il y a n! façons de ranger n éléments distincts dans tous les


ordres possibles. Par conséquence, il y a n! façons de ranger n éléments distincts
dans tous les ordres possibles (ordre ou désordre).

Exemple 1.14 17 chevaux sont au départ d’un grand prix. Combien y a-t-il de
tiercés possibles

9
1◦ ) au total ?
2◦ ) dans lesquels les 3 chevaux de tête sont dans l’ordre ?
3◦ ) dans lesquels les 3 chevaux de tête sont dans l’ordre ou dans le désordre ?
4◦ ) dans le désordre ?

Solution : L’ordre des chevaux à l’arrivée intervient bien entendu et on choisit 3


chevaux parmi les 17 donc
1◦ ) A317 = 17 × 16 × 15 = 4080 tiercés possibles ?
2◦ ) un seul.
3◦ ) 3! = 6 autant que de permutations dans un ensemble de 3 chevaux.
4◦ ) 6 − 1 = 5.

Exemple 1.15 1◦ ) Combien existe-t-il de nombres écrits avec 3 chiffres tous


différents pris parmi les chiffres {1, 2, 3, 4, 5, 6, 7, 8, 9}?
2◦ ) Combien exist-t-il de nombres écrits avec 3 chiffres tous différents pris
parmi les chiffres {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}?

Solution : 1◦ ) Tout nombre formé avec 3 chiffres différents pris parmi {1, 2, 3, 4, 5, 6, 7, 8, 9}
est un arrangement de ces neuf chiffres pris trois à trois : deux nombres distincts
différent l’un de l’autre soit par la nature soit par l’ordre des 3 chiffres. On peut
donc former A39 = 9 × 8 × 7 = 504 nombres différents.
2◦ ) Avec les 10 chiffres {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} on peut former A310 = 10×9×8 =
720 nombres. Cependant parmi ceux-ci figurent les nombres commençant par 0 qui
sont des nombres de deux chiffres distincts. Or il existe A29 = 9 × 8 = 72 nombres
différents débutant par 0. Donc finalement 720−72 = 648 nombres de trois chiffres
différents pris parmi l’ensemble {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}.

Exemple 1.16 – Tirage sans remise : une urne U contient n boules numérotés
de 1 à n. On tire successivement p boules de U sans les remettres dans l’urne,
et on note (x1 , ..., xp ) un résultat de cette expérience (x1 , x2 , ..., xp ) est un ar-
rangement de p éléments parmi n. Il y’a Apn tirage différents possibles.

10
– (a, n, a, n, a, s) n’est pas un arrangement de lettres de l’alphabet : il y a
répétition.

Définition 1.17 E étant un ensemble à n éléments. On appelle combinaison de p


éléments de E toute collection non ordonnée de p éléments distincts de E, i.e. toute
partie de E à p éléments. On note Cnp le nombre de combinaisons de p éléments
n!
parmi n : Cnp = p!(n−p)!

Remarque 2 – Les éléments d’une combinaison de p éléments de E sont


deux à deux distincts, donc 0 ≤ p ≤ card(E).
– L’ordre des éléments d’une combinaison n’a pas d’importance.

Exemple 1.18 Soit E = {1, 2, 3, 4, 5}


– A = {2, 3, 4} est une combinaison de 3 éléments de E.
– B = {3, 4, 5} = {5, 4, 3} (l’ordre n’a pas d’importance).
– C = {1, 5, 5} n’est pas une combinaison de 3 éléments de E (ni de 2 éléments
de E).

Exemple 1.19 – Tirage par poignées : Une urne contient n boules numérotées
de 1 à n. On tire simultanément p boules de E. Le nombre de tirage possibles
vaut le nombre de combinaisons de p éléments parmi n.

Proposition 1.20 Pour n ∈ N et p ∈ {0, 1, ..., n}


– Cnp = Cnn−p
– Cn0 = Cnn = 1
– Pour n ∈ N∗ et p ∈ {1, 2, ..., n − 1} Cn1 = Cnn−1 = 1
p−1 p
– Cnp = Cn−1 + Cn−1
p−1
– Cnp = np Cn−1

Remarque 3 Il ne faut pas confondre combinaison et arrangement : un arrange-


ment est une suite ordonné de p éléments c.à. d. contrairement aux combinaisons,
l’ordre intervient : Considérons l’ensemble E = {a, b, c, d}. On cherche toutes les
combinaisons et tous les arrangements à 3 éléments.

11
– A partir des 3 lettres a, b,c, on ne peut former qu’une seule combinaison
{a, b, c}, mais 6 = 3! arrangements : abc, acb,bca,bac,cab,cba.
– A partir des 3 lettres a,b,d, on peut également former une seule combinaison
mais 6 arrangements.
– De même avec les 3 lettres a,c,d, et les 3 lettres b,c,d.
Ainsi, on a 4 combinaisons, mais 6 × 4 = 24 arrangements.

Exemple 1.21 – Si on cherche le nombre d’entiers de 3 chiffres ne s’écrivant


qu’avec des chiffres impaires tous distincts, on cherche le nombre d’arrange-
ment de 3 éléments parmi 5 ({1, 3, 5, 7, 9}). Le nombre 731 est différent du
nombre 371.
– Si on cherche le nombre de mains de 8 cartes du jeux de 32 cartes, on cherche
le nombre de combinaisons de 8 cartes parmi 32. La main (7 de coeur-valet
de trèfle...) est identique à la main (valet de trèfle, 7 de coeur,...).

1.2 Introduction aux probabilités

Une épreuve est une expérience dont l’issue est incertaine. Les résultats éventuels
d’une épreuve font généralement appel au hasard. L’ensemble des résultats éventuels
(les résultats possibles, les éventualités) s’appelle ensemble fondamental (référentiel,
ensemble de référence, population mère).

Exemple 1.22 Une pièce de monnaie possède deux figures (éventualités) : pile
et face. Si la pièce n’est pas trafiquée et lancé loyalement, pile a autant de chances
d’apparaı̂tre que face. On dit alors que les deux éventualités sont équiprobables.

A chaque élément de l’ensemble des éventualités, on peut associer un nombre,


la probabilité d’obtenir l’éventualité.

12
1.2.1 Opérations logiques sur les ensembles

La complémentarité

Soit un sous-ensemble A de Ω. On appelle complémentaire de A par rapport


à Ω, noté A ou qA,le sous-ensemble de Ω constitué de tous les éléments qui n’ap-
partiennent pas à A. A = CΩA .

Ensembles disjoints

Deux ensembles A et B sont dits disjoints s’ils n’ont pas d’éléments en commun.
On termes d’événements, on dit que A et B sont incompatibles.

Réunion ou addition logique

On appelle réunion de A et B, l’ensemble dont les éléments appartiennent soit


à A, soit à B, soit simultanément à A et B. On note généralement A ∪ B.

Intersection ou produit logique

Soient 2 ensembles A et B. On appelle intersection de A et B l’ensemble des


éléments qui appartiennent à la fois à A et à B. On note A ∩ B

1.2.2 Notion d’événement

Soit un événement fondamental Ω constitué de plusieurs éventualités équiprobables.


– L’événement fondamental peut être subdivisé en plusieurs sous-parties. Dans
chaque sous-partie, il y a plusieurs éventualités équiprobables.
– Un événement est défini comme un sous-ensemble des parties de Ω. Il est
constitué d’une ou plusieurs éventualités équiprobables.
– Une sous-partie E est dite élémentaire si elle n’est constituée que d’une seule
éventualité.

13
– CΩA = A, c’est la non-réalisation de l’événement A, c.à.d. si A est réalisé, A
ne l’est pas.

Définition 1.23 Etant donné deux événements A et B. On définit :


– A ∩ B la conjonction des événements A et B, réalisé si A et B sont tous
deux réalisés.
– Si A ∩ B = ∅, on dit que les événements A et B sont incompatibles ou
mutuellement exclusifs.
– A ∪ B, réalisé si, A ou B (A et B sont réalisés).
– A \ B, réalisé si A est réalisé, mais pas B.

Exemple 1.24 Si nous lançons un dé à 6 faces, les résultats possibles sont
{1, 2, 3, 4, 5, 6}.
– Considérons les événements suivants A = ”obtenir la face 1” et B =” ob-
tenir un nombre pair”, donc A = {1} et B = {2, 4, 6}. A et B sont donc
incompatibles car A ∩ B = ∅.
– Considérons les événements A =”obtenir un nombre inférieur à 3” et B =”obtenir
un nombre impaire”. Alors A = {1, 2, 3} et B = {1, 3, 5}. De plus A ∩ B =
{3} =
6 ∅.

1.2.3 Opérations sur les événements

Soient les événements suivants, A, B et C.


– A=A
– A ∪ (B ∪ C) = (A ∪ B) ∪ C = A ∪ B ∪ C
– A ∩ (B ∩ C) = (A ∩ B) ∩ C = A ∩ B ∩ C
– A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
– A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
– A∪B =A∩B
– A∩B =A∪B

14
1.2.4 Probabilité sur un univers fini
Soit Ω un univers fini. On note P(Ω) l’ensemble des événements de Ω.

Définition 1.25 On appelle probabilité sur l’univers Ω, toute application notée


Prob ou P ou p de P(Ω) sur [0, 1] vérifiant
– P(Ω) = 1
– ∀(An )n∈N suite d’événements de Ω deux à deux incompatibles (ou disjoints
Ai ∩ Aj = ∅ si i 6= j)
X
P (∪n≥1 An ) = P (An )
n≥1

Le triplet (Ω, P(Ω), P ) s’appelle espace probabilisé fini.

L’étude d’un problème de probabilité commence par la détermination de l’ensemble


des événements P(Ω) et par celle de la probabilité P . Dans le cas, où l’on choisit
P(Ω) pour ensemble des événements et que l’on fait une hypotèse d’équiprobabilité,
le calcul des probabilités se ramène à des problèmes de dénombrement.
Propriétés
– A ∈ P(Ω), 0 ≤ P (A) ≤ 1
– ∀A ∈ P(Ω), P (A) = 1 − P (A)
– P (∅) = 0, d’ou P (Ω) = 1
– ∀A, B ∈ P(Ω), A ⊂ B ⇒ P (A) ≤ P (B)
– ∀A, B ∈ P(Ω), A ∩ B = ∅, P (A ∪ B) = P (A) + P (B)
– ∀A, B ∈ P(Ω), P (A ∪ B) = P (A) + p(B) − P (A ∩ B)
– Si A1 , A2 , ..., An sont des événements élémentaires et ∪ni=1 Ai = Ω, alors

P (A1 ) + P (A2 ) + ...P (An ) = 1

1
Si tous les événements élémentaires sont équiprobables , c.à.d. si P (Ak ) = n

pour k = 1, ...n, alors si A est constitué de m événements de ce type

m card(A)
P (A) = =
n card(Ω)

15
On dit que P est la loi uniforme sur Ω.
Lorsque l’espace fondamental Ω est fini ou dénombrable, définir la proba-
bilité P sur les événements Ω équivaut à se donner la famille {pω }ω∈Ω des
probabilités individuelles, i.e. pω = P ({ω}), ω ∈ Ω.
Soit A ⊂ Ω, alors
X
P (A) = pω
ω∈A

– Si A ⊂ B, alors P (B \ A) = P (B) − P (A)

Exemple 1.26 Ω est constitué d’un jeu de 32 cartes. Il comporte 8 hauteurs


{7, 8, 9, 10,J,D,K,A}. Dans Chaque hauteur, il y a 4 couleurs {pique, coeur, car-
reau, trefle }.
4
– P ( tirer la hauteur 7) = 32
7
– P ( tirer la couleur pique ) = 32

1.2.5 Probabilités conditionnelles-Théorème de Bayes


Pour une situation aléatoire, la probabilité d’un événement dépend de tous les
renseignements dont on dispose sur cette situation. Si on nous donne un rensei-
gnement supplémentaire la probabilité de l’événement s’en trouve modifiée comme
on va le voir dans l’exemple suivant : Envisageons les deux problèmes suivants :
– On lance un dé. Quelle est la probabilité pour obtenir 3 ?
– On lance un dé, on obtient un nombre impair. Quelle est la probabilité pour
que ce soit 3 ? Dans le premier cas on répond 16 , mais dans le second 13 . Pour
formaliser le deuxième problème, on peut prendre Ω = {1, 3, 5} muni de la
1
probabilité P telle que P (1) = P (3) = P (5) = 3
, mais on peut prendre
aussi Ω = {1, 2, 3, 4, 5, 6} muni de la probabilité Q définie sur les événements
élémentaires Q(1) = Q(3) = Q(5) = 13 , Q(2) = Q(4) = Q(6) = 0.
Cette façon de procéder à l’avantage de conserver le même univers de pos-
sibles que dans le premier problème et de montrer que la différence des deux
problèmes est liée à un changement de l’application probabilité. On peut d’ailleurs

16
déterminer le lien entre les deux applications probabilités. Soit Ω = {1, 2, 3, 4, 5, 6}.
Soit P l’application probabilité correspondant au jet d’un dé (sans condition). Soit
Q l’application probabilité correspondant au jet d’un dé avec le renseignement
supplémentaire (le résultat obtenu est un nombre impair). Si B = {1, 3, 5} pour
P (A∩B)
tout événement A on a Q(A) = P (B)
.

Exemple 1.27 Vérifions cette relation pour A = {1, 2, 3}


2 1 3 P (A∩B)
A ∩ B = {1, 3} ,P (A ∩ B) = 6
= 3
, P (B) = 6
= 12 , P (B)
= 23 .
1 1 P (A∩B)
Or Q(A) = Q(1) + Q(2) + Q(3) = 3
+0+ 3
= 23 , donc Q(A) = P (B)
, est
noté P (A/B), qui se lit ”probabilité de A sachant que B est réalisé”

Définition 1.28 (probabilité conditionnelle) Soient A et B deux événements


tels que P (B) 6= 0. La probabilité conditionnelle de A sachant B est

P (A ∩ B)
P (A/B) = .
P (B)

On en déduit la formule dite des probabilités composées

P (A ∩ B) = P (B)P (A/B) = P (A)P (B/A)

1.2.6 Formule des probabilités totales


Définition 1.29 (Système complet d’événements) {An }n≥1 forme un système
complet d’événements lorsque {An }n≥1 forme une répartition de Ω, i.e.
– ∀n ≥ 1, An 6= ∅
– ∀i, j ≥ 1, i 6= j, Ai ∩ Aj = ∅
– ∪n≥1 An = Ω

Théorème 1.30 (Formule des probabilités totales) Soit {An }n≥1 un système
complet d’événements. Alors, quelque soit l’événement B, on a
X
P (B) = P (An )P (B/An )
n≥1

17
Exemple 1.31 Soit A un événement, B et B deux événements complémentaires.
En appliquant la formule des probabilités totales, on obtient

P (A) = P (B)P (A/B) + P (B)P (A/B)

Exemple 1.32 Une usine d’ampoules dispose de 3 machines qui fabriquent res-
pectivement 20, 30 et 50% de la production. Sachant que la probabilité qu’une am-
poule défectueuse ait été fabriqué par A, B, C est P (D/A) = 0.05, P (D/B) =
0.04, P (D/C) = 0.01 Calculer
1◦ ) La probabilité qu’une ampoule soit défectueuse.
2◦ ) La probabilité pour qu’une ampoule défectueuse provienne de A.
3◦ ) La probabilité pour qu’une ampoule non défectueuse provienne de C.

Solution 1◦ ) Considérons les événements suivants A =”l’ampoule est fabriquée


par l’usineA”, B =”l’ampoule est fabriquée par l’usine B” et C =”l’ampoule est
fabriquée par l’usine C” et D =”l’ampoule est défectueuse”.
P (D) = P (D ∩ (A ∪ B ∪ C)), or les événements D ∩ A, D ∩ B et D ∩ C étant
incompatibles, donc P (D) = P (D ∩ A) + P (D ∩ B) + P (D ∩ C). En utilisant la
formule des probabilités composées, on obtient

P (D) = P (A)P (D/A) + P (B)P (D/B) + P (C)P (D/C)

Or P (A) = 0.2, P (B) = 0.3 et P (C) = 0.5, donc

P (D) = 0.01 + 0.012 + 0.05 = 0.027

2◦ ) En utilisant la formule des probabilités conditionnelles


P (A ∩ D) 0.01
P (A/D) = = = 0.37
P (D) 0.027
.

3◦ )
P (C ∩ D) P (C)P (D/C)
P (C/D) = =
P (D) P (D)

18
Or P (D/C) = 1 − P (D/C) = 0.99 et P (D) = 1 − P (D) = 0.973, d’ou

P (C/D) = 0.51

1.2.7 Théorème ou formule de Bayes


Théorème 1.33 Soit (An )n≥1 un système complet d’événements, et soit B un
événement tel que P (B) 6= 0. On a, pour tout i
P (Ai ∩ B) P (Ai )P (B/Ai ) P (Ai )P (B/Ai )
P (Ai /B) = = =P
P (B) P (B) n≥1 P (An )P (B/An )

Exemple 1.34 Pour se rendre à la faculté, un étudiant a le choix entre quatre


1
itinéraires : A, B, C et D. La probabilité qu’il a de choisir A (resp. B, C) est 3

(resp. 41 , 12
1
). La probabilité d’arriver en retard en empruntant A (resp. B, C) est
1 1 1
20
(resp. , ).
10 5
En empruntant D, il n’est jamais en retard.
1◦ ) Quelle est la probabilité que l’étudiant choisisse l’itinéraire D ?

2◦ ) L’étudiant arrive en retard. Quelle est la probabilité qu’il ait emprunté


l’itinéraire C ?

Solution : 1◦ ) Les événements {A, B, C, D} forme un système complet d’événements :


P (A) + P (B) + P (C) + P (D) = 1, donc P (D) = 13 .

2◦ ) Soit R =”l’étudiant arrive en retard”. On a P (R/A) = 1


20
, P (R/B) =
1 1
10
, P (R/C) = 5
et P (R/D) = 0. On cherche P (C/R).

P (C)P (R/C) 2
P (C/R) = = .
P (A)P (R/A) + P (B)P (R/B) + P (C)P (R/C) + P (D)P (R/D) 7

1.2.8 Indépendance, produit de deux espaces probabilisés


Dans une partie de pile ou face, le résultat obtenu au deuxième coup ne dépend
pas du résultat du premier jet de la pièce. Les événements élémentaires sont

19
indépendants. Traduisons de façon mathématique l’idée d’indépendance de deux
événements.

Définition 1.35 Les événements A et B sont indépendants si

P (A/B) = P (A)

ce qui réalise que la probabilité que A se réalise est indépendante du fait que B
soit réalisé ou non.
Dans l’exemple du jet d’une pièce de monnaie deux fois, soit A =” le deuxième
1 1
coup donne face” et B =”le premier coup donne face”. P (A/B) = 2
or P (A) = 2

donc P (A/B) = P (A)


De même P (A ∩ B) = P (A)P (B) = 14 .
Deux événements A et B sont indépendants ssi

P (A ∩ B) = P (A)P (B)

Conséquences
– Si A et B sont indépendants, il en est de même de A et B, de A et B, de A
et B.
– Tout événement A est indépendant de l’événement certain Ω et de l’événement
impossible ∅.
– En général, on a P (A/B) 6= P (A), ce qui signifie que ”A dépend de B”.

Définition 1.36 Soit une suite (finie ou non) d’événements (An )n∈N
Ces événements sont globalement indépendants si pour toute famille finie {Ai }i∈I
extraite de la suite An on a
Y
P (∩i∈I Ai ) = P (Ai )
i∈I

Exemple 1.37 (Dépendance ou indépendance de 3 événements) On lance deux


pièces de monnaie et on considère les événements
– A =” la première pièce donne face”

20
– B =” la deuxième pièce donne pile”
– C =” les deux pièces donnent le même résultat”
1◦ ) Les événements A, B, C sont-ils indépendants deux à deux ?
2◦ ) L’événement C est-il indépendant de A ∩ B ?
3◦ ) Les événements A, B et C sont-ils globalement indépendants ?

Solution : 1◦ ) Le lancer d’une pièce peut donner lieu à d̀eux événements Ω =


{pile, f ace}. Donc P (A) = 21 , P (B) = 12 .
Le lancer simultané de deux pièces donne l’un des résultats suivants :

Ω0 = {(pile, pile), (pile, f ace), (f ace, pile), (f ace, f ace)}

card(Ω0 ) = 4, d’ou P (C) = 1


2

On a bien P (A ∩ B) = P (A)P (B) = 14 . A et B sont indépendants.


1 1 1
De même P (A ∩ C) = P (A)P (C) = 2
× 2
= 4
et P (B ∩ C) = P (B)P (C) =
1 1
2
× 2
= 14 .
Les événements A, B, C sont donc indépendants deux à deux.
2◦ ) L’evénement C est-il indépendant de A ∩ B ?
L’événement C sera indépendant de A ∩ B si et seulement si
P (C ∩ (A ∩ B)) = P (C)P (A ∩ B) or P (C ∩ (A ∩ B)) = 0, car si A et B sont
réalisé C ne peut l’être, mais P (C) = 12 , P (A ∩ B) = 1
4
et 0 6= 1
2
× 1
4

L’événement C n’est pas indépendant de A ∩ B.


3◦ ) Les événements A, B et C sont-ils globalement indépendants ?
Trois événements A, B et C sont indépendants si et seulement si

P (A ∩ B ∩ C) = P (A)P (B)P (C)

P (A ∩ B) = P (A)P (B), P (B ∩ C), P (B ∩ C) = P (B)P (C), P (C ∩ A) = P (C)P (A)

Vérifions si la première égalité est bien vraie.


On a P (A)P (B)P (C) = ( 21 )3 = 1
8
et A ∩ B ∩ C = ∅, donc P (A ∩ B ∩ C) = 0.
Les événements A, B et C sont non globalement invariants.

21
22
Chapitre 2
Lois de probabilités discrètes

2.1 Introduction
Supposons que l’on considère l’épreuve ”lancer deux fois une pièce de monnaie”.
L’univers sera alors Ω = {P P, F P, P F, F F }. Intéressons-nous au nombre de fois
où ”Face est apparu” au cours de ces deux lancers.

Définition 2.1 On définit ainsi une application de Ω vers R définie par

Ω PP PF FP FF
R 0 1 1 2

A chaque événement élémentaire, on fait correspondre ainsi un nombre réel.


Cette application de Ω vers R s’appelle une variable aléatoire discrète, car elle ne
prend qu’un nombre fini de valeurs.

La variable aléatoire X qui à chaque événement élémentaire fait correspondre le


nombre de ”face” définit de nouveaux événements :
1
X = 0 ”aucune face n’a été tirée”, P (X = 0) = 4
1
X = 1 ”une face a été tirée”, P (X = 1) = 4
1
X = 2 ” deux faces ont été tirées”, P (X = 2) = 4

23
Définition 2.2 On appelle loi de probabilité de la variable aléatoire X la fonction
définie par : x 7→ P (X = x)

Exemple 2.3 On s’intéresse à la distribution de probabilités des garçons et des


filles dans des familles de 3 enfants en supposant que les probabilités à la naissance
sont égales. Soit G =”un garçon est né dans la famille” et F =” une fille est née
1
dans la famille”. On a P (F ) = P (G) = 2
, les probabilités à la naissance sont
égales. On s’intéresse aux familles de 3 enfants. On peut donc avoir les événements
(incompatibles) suivants :
– 3 garçons : (G, G, G) et P (GGG) = P (G)3 = ( 21 )3 = 81 . Le fait d’avoir un
deuxième garçon est indépendant du fait d’avoir eu un premier garçon. Il
s’agit donc d’événements indépendants deux à deux et dans leur ensemble,
on génŕalise P (A ∩ B) = P (A)P (B). Ici (GGG) = (G ∩ G ∩ G).
– 2 garçons et une fille : (GGF ) ou (GF G) ou F GG. Ces événements sont
incompatibles. On obtient

P ((GGF ) ∪ (GF G) ∪ (F GG)) = P (GGF ) + P (GF G) + P (F GG)


1 1 1 3
= P (G)P (G)P (F ) + P (G)P (F )P (G) + P (F )P (G)P (G) = + + =
8 8 8 8
– 1 garçon et 2 filles : (GF F ) ou (F GF ) ou (F F G)
3
P ((GF F ) ∪ (F GF ) ∪ (F F G)) = P (GF F ) + P (F GF ) + P (F F G) =
8
– 3 filles : (F F F ). On a P (F F F ) = 81 .

Supposons que l’on s’intéresse au nombre de garçons dans ces familles de 3 enfants.
On peut représenter la loi de probabilité de la variable aléatoire X par le tableau
suivant :

xi 0 1 2 3
1 3 3 1
pi 8 8 8 8

24
Définition 2.4 On appelle fonction de répartition de la variable aléatoire X la
fonction FX : R −→ [0, 1], x 7→ P (X ≤ x)

Propriétés
– FX est croissante et

lim FX (x) = 0, lim FX (x) = 1


x→−∞ x→+∞

– Si a < b, alors
P (a < X < b) = FX (b) − FX (a)

Exemple 2.5 On représente la fonction de répartition de l’exemple précédent


par le tableau suivant :

x −∞ 0 1 2 3 +∞
1 1 4 4 7 7
FX (x) 0 8 8 8 8 8 8
1 1
Solution :
– Pour x = − 21 , on a F (− 12 ) = P (X ≤ − 21 ) = 0.
1
– Pour x = 0, on a F (0) = P (X ≤ 0) = P (X = 0) = 8

De même pour les autres valeurs de x.

On distingue deux types de variables aléatoires discrètes :


– variable aléatoire discrète finie lorsque X(Ω) est un sous ensemble fini de R.
– variable aléatoire discrète infini, lorsque X(Ω) est un sous-ensemble infini
dénombrable de R.

Exemple 2.6 1◦ ) Une urne contient une boule noire et une boule blanche. On tire
avec remise deux boules de cette urne, et on note X le nombre de boules blanches ob-
tenues. X est une variable aléatoire définie sur Ω = {(b, b), (b, n), (n, b), (n, n)}, X(Ω) =
{0, 1, 2}.
2◦ ) On lance un dé cubique jusqu’à ce que l’on obtienne un 6. Soit X le nombre
de lancer effectués. X est une variable aléatoire discrète infinie car X(Ω) = N∗ .
(La probabilité de ne jamais obtenir un 6 est nulle, mais cet événement n’est pas
impossible.)

25
Figure 2.1: Fonction de répartition

2.2 Variables aléatoires discrètes finies v.a.d.f.


Soit X une v.a.d.f. et soient x1 , x2 , ... ses valeurs possibles, ordonnées par ordre
croissant. On suppose que la probabilité de chacune de ces valeurs est

P (X = xk ) = f (xk ), k = 1, 2, 3, ...

Définition 2.7 On définit la fonction de probabilité ou densité discrète f (xk ) telle


que :
– 1.f (xk ) ≥ 0
P
– 2. xk ∈X(Ω) f (xk ) = 1, où la somme est prise sur les valeurs possibles de X.

Remarque 4 – La fonction de répartition d’une v.a.d. X se déduit de la


fonction de probabilité puisque
X
FX (x) = P (X ≤ x) = P (X = Xk )
xk ≤x

26
– Soit X une v.a qui prend des valeurs entière positives. On peut utiliser les
techniques suivantes pour résoudre des exercices de calcul des probabilités :

P (X = k) = P (X ≥ k) − P (X ≥ k + 1) = P (X > k − 1) − P (X > k)

= P (X ≤ k) − P (X ≤ k − 1) = P (X < k + 1) − P (X < k)
k
X +∞
X
P (X ≤ k) = P (X = i), P (X ≥ k) = P (X = i)
i=0 i=k

2.3 Couple de variables aléatoires discrètes


Un vecteur aléatoire (X, Y ) prend des valeurs dans R2 . Si on cherche à définir
la loi d’un tel vecteur, il faut considérer tous les couples I × J d’intervalles.

Définition 2.8 Soit (X, Y ) un vecteur aléatoire réel. On appelle loi conjointe de
(X, Y ) la probabilité définie sur R2 par

P(X,Y ) (I × J) = P (X ∈ I et Y ∈ J)

Les lois de probabilité de X et Y sont alors appelés lois marginales de (X, Y ).


En particulier, lorsque X et Y sont à valeurs finies, la loi conjointe de (X, Y )
est l’ensemble P ((X = xi ) ∩ (Y = yj )).
On a coutume de représenter la loi conjointe (X, Y ) sous forme d’un tableau à
double entrée :
H
HH Y
H H y1 y2 ... ys Totaux
X HH
H
H
x1 p11 p12 p1s p1.
x2 p21 p22 p2s p2.
..
.
xr pr1 pr2 ... prs pr.
Totaux p.1 p.2 p.s 1

27
avec s
X
p1. = p1j = P (X = x1 )
j=1

Il est toujours possible à l’aide de loi conjointe, de retrouver les lois marginales :
Si X(Ω) = {x1 , x2 , ....xp } et Y (Ω) = {y1 , y2 , ....yq }, on a :
q
X
P (X = xi ) = P (X = xi , Y = yj ), (ligne)
j=1

p
X
P (Y = yj ) = P (X = xi , Y = yj ), (colonne)
i=1

Sur le tableau, cela correspond aux sommations par ligne ou par colonne.

Remarque 5 En général, il n’est pas possible de réaliser la démarche inverse,


c.à. d., étant données les deux lois marginales, retrouver la loi conjointe. Il faut
en effet avoir des informations supplémentaires sur la façon dont les variables
aléatoires X et Y dépendants l’une de l’autre. En particulier, si X et Y sont
indépendants, on a :

P (X = xi , Y = yj ) = P (X = xi )P (Y = yj )

Cela n’est plus vraie en général :

P (X = xi , Y = yj ) = P (X = xi )P (Y = yj /X = xi )

Exemple 2.9 Soit une urne contenant 6 boules blanches et 4 boules noires. On
effectue deux tirages successifs sans remise. On définit la v.a.d. X par

X = 0 si la première boule tirée est noir (N1 )

X = 1 si la première boule tirée est blanche (B1 )

donc X concerne le premier tirage.


De même, on définit la v.a.d. Y par

Y = 0 si la deuxème boule tirée est noir (N2 )

28
Y = 1 si la deuxième boule tirée est blanche (B2 )

1◦ ) Quelle est la loi conjointe du couple (X, Y ) ?


2◦ ) Définir les lois marginales de X et Y
3◦ ) En déduire si X et Y sont indépendantes.

Solution Il faut calculer

4 3 12
P (X = 0, Y = 0) = P (X = 0)P (Y = 0/X = 0) = × =
10 9 90

4 6 24
P (X = 0, Y = 1) = P (X = 0)P (Y = 1/X = 0) = × =
10 9 90
6 4 24
P (X = 1, Y = 0) = P (X = 1)P (Y = 0/X = 1) = × =
10 9 90
6 5 30
P (X = 1, Y = 1) = × =
10 9 90
En général, on représente ces résultats dans un tableau à double entrée :

Remarque 6 La somme des probabilités doit être égale à 1.

2◦ ) Lois marginales de X et de Y :

36 2 54 3
P (X = 0) = = , P (X = 1) = =
90 5 90 5
36 54 3
P (Y = 0) = , P (Y = 1) = =
90 90 5
3◦ ) Puisqu’il n’y a pas de remise dans l’urne de la première boule tirée, les événements
(les deux tirages) sont dépendants. En effet, (technique de vérification)

24 36 54
P (X = 0, Y = 1) 6= P (X = 0)P (Y = 1), car 6= ×
90 90 90

29
2.4 Espérance mathématique ou moyenne, mo-
ments centrés, variance et écart type
Définition 2.10 On appelle espérance mathématique (ou moyenne) d’une v.a.d.
finie prenant les valeurs xi , 1 ≤ i ≤ n, le nombre noté X ou E(X) définie par
n
X
E(X) = xi p i
i=1

Exemple 2.11 Dans l’exemple 2.3

1 3 3 1 3
E(X) = 0 × +1× +2× +3× =
8 8 8 8 2

Définition 2.12 On appelle moment d’ordre k de la v.a.d. finie X prenant les


valeurs xi , 1 ≤ i ≤ n , le nombre
n
X
mk (X) = xki pi
i=1

Définition 2.13 On appelle moment centré d’ordre k due v.a.d.f X prenant les
valeurs xi , 1 ≤ i ≤ n , le nombre
n
X
µk (X) = (xi − E(X))k pi
i=1

Définition 2.14 On appelle variance d’une v.a.d.f. X prenant les valeurs xi , 1 ≤


i ≤ n , le nombre
n
X
V (X) = (xi − E(X))2 pi = µ2
i=1

Définition 2.15 On appelle écart-type d’une v.a.d. X prenant les valeurs xi , 1 ≤


i ≤ n , le nombre
p
σ(X) = V (X)

Propriétés de l’espérance

30
– Si X et Y deux v.a.d. et (λ, µ) ∈ R2

E(λX + µY ) = λE(X) + µE(Y )

en particulier
E(X + µ) = E(X) + µ

E(X − X) = 0, la v.a.(X − X) est dite centrée

Si de plus X et Y sont indépendantes relativement à l’application

E(XY ) = E(X)E(Y )

Propriétés de la variance
Si X et Y sont deux v.a.d.f. et (λ, µ) ∈ R2

V (λX + µ) = λ2 V (X)

– Si X et Y sont deux variables indépendantes

V (X + Y ) = V (X) + V (Y )

V (X) = E(X 2 ) − E(X)2

2.4.1 Variable aléatoire normée

Définition 2.16 On dit q’une v.a. Z est normée si sa moyenne est nulle et si son
X−X
écart type est égal à 1. La v.a. Z = σ
est une v.a. normée. En effet

1
E(Z) = E(X − X) = 0
σ

1 1
V (Z) = 2
V (X − X) = 2 V (X) = 1
σ σ

31
2.4.2 Covariance et coefficient de corrélation
Définition 2.17 La covariance de deux v.a. X et Y est le réel

cov(X, Y ) = E(XY ) − E(X)E(Y )

On a aussi
cov(X, Y ) = V (X + Y ) − V (X) − V (Y )

De la dernière relation on déduit une condition nécessaire pour que deux v.a. soient
indépendentes :
cov(X, Y ) = 0

Définition 2.18 Le coefficient de corrélation ρ de deux v.a. X et Y est


cov(X, Y )
ρ=
σ(X)σ(Y )
c’est un réel compris entre −1 et 1.

Remarque 7 On généralise les notions vues précédemment au cas où les v.a.d.
infinies. Toutes les sommes rencontrées précédemment sont remplacées pas des
sommes de séries numériques, dans le cas où ces séries sont convergentes.

Exemple 2.19 Un atelier fonctionne avec deux équipes d’ouvriers, une du matin
et une du soir. Chaque jour on enregistre le nombre d’ouvriers absents et on note
X le nombre d’abscence dans l’équipe de jour et par Y le nombre d’absences dans
l’équipe du soir. La loi de probabilité du couple (X, Y ) est donnée dans le tableau
suivant :
H
HH Y
H
HH 0 1 2 3
X H
H
H
0 0.25 0.25 0.05 0
1 0.20 0.10 0.05 0.05
2 0.05 0.02 0.02 0.01

32
1◦ ) Donner la loi de probabilité de X, celle de Y .
2◦ ) Calculer l’espérence et la variance de X et de Y .
3◦ ) Calculer le coefficient de corrélation linéaire entre X et Y
4◦ ) Donner la loi de probabilité de Y sachant que X ≥ 1
5◦ ) Une abscence coûte 100 F à l’usine. Quelle est la perte journalière moyenne
due aux absences ?

Solution
1◦ ) En utilisant le tableau de la loi conjointe du couple (X, Y ), et en faisant la
somme des lignes (on trouve la loi de X) et la somme des colonnes (on trouve la
loi de Y ) :
H
HH Y
H
HH 0 1 2 3 marg X
X H
HH
0 0.25 0.25 0.05 0 0; 50
1 0.20 0.10 0.05 0.05 0.40
2 0.05 0.02 0.02 0.01 0.10
marg Y 0.50 0.32 0.12 0.06 1

D’ou les lois de probabilité de X et Y sont définies par


X 0 1 2 Y 0 1 2 3
P (X = xi ) 0.50 0.40 0.10 P (Y = yi ) 0.50 0.32 0.12 0.06
2◦ ) Calcul de l’espérance et la variance de X et Y

E(X) = 0 × 0.50 + 1 × 0.40 + 2 × 0.10 = 0.6, E(Y ) = 0.74

E(X 2 ) = 02 × 0.50 + 12 × 0.40 + 22 × 0.10 = 0.8, E(Y 2 ) = 1.34

V (X) = E(X 2 ) − E(X)2 = 0.8 − (0.6)2 = 0.44, V (Y ) = 0.7924

3◦ ) Calcul du coefficients de corrélation linéaire


X
cov(X, Y ) = pij xi yj − E(X)E(Y ) = 0.086
i,j

33
E(XY ) = 0.35 + 0.18 = 0.53
cov(X, Y ) 0.086
ρ(X, Y ) = =√ = 0.14565
σ(X)σ(Y ) 0.44 × 0.7924
4◦ ) Loi de probabilité de Y sachant X ≥ 1

P (Y = yj ; X = 1) P (Y = yj ; X = 2)
P (Y = yj /X ≥ 1) = +
0.50 0.50
donc
Y = yj 0 1 2 3
P (Y = yj /X ≥ 1) 0.50 0.24 0.14 0.12
5◦ ) Perte journalière moyenne due aux absences

100E(X + Y ) = 100(E(X) + E(Y )) = 100 × 1.34 = 134F

Exemple 2.20 Une urne contient 3 boules blanches et 4 boules rouges. On tire
successivement 2 boules de cette urne, dans un premier avec remise, dans le second
cas, sans remise.
Soit X la v.a. prenant la valeur 1 si la première boule tirée est blanche, 0 sinon.
Soit Y la v.a. prenant la valeur 1 si la deuxième boule tirée est blanche, 0 sinon.
1◦ ) Donner, sous forme de tableau, la loi du couple (X, Y )
2◦ ) Calculer les lois marginales.
3◦ ) Conclure.

Solution
1◦ ) Les lois du couple (X, Y ) sont données par (Avec remise à gauche et sans
remise à droite)
H H
HH Y HH Y
H
HH 0 1 marg X H
HH 0 1 marg X
X H
H
X H
H
H H
16 12 28 4 2 2 4
0 49 49 49
= 7
0 7 7 7
12 9 21 3 2 1 3
1 49 49 49
= 7
1 7 7 7
4 3 4 3
marg Y 7 7
1 marg Y 7 7
1

34
Dans le cas avec remise, on a

4 3
P (X = 0) = ; P (X = 1) =
7 7
4 3
P (Y = 0) = ; P (Y = 1) =
7 7
les événements sont indépendennts.
Dans le cas sans remise, on constate que les lois marginales sont les mêmes
dans les deux cas, alors que les lois conjointes sont différentes. On conclut que la
donnée des lois marginales est insuffisante pour reconstituer la loi conjointe. Les
événements sont dépendants.

2.5 Lois de probabilités discrètes finies et infinies

2.5.1 Loi uniforme


Définition 2.21 On dit qu’une variable aléatoire X avec X(Ω) = {x1 , x2 , ...., xn }
suit une loi uniforme si

1
∀i ∈ {1, 2, ..., n}, P (X = xi ) =
n

2.5.2 Loi de Bernoulli


Définition 2.22 On dit qu’une v.a. X suit une loi de Bernoulli de paramètre p si

X(Ω) = {0, 1}, P (X = 1) = p, P (X = 0) = 1 − p = q

On note X ,→ B(p)

Exemple 2.23 Une urne contient 2 boules rouges et 3 boules vertes. On tire une
boule de l’urne. On considère la v.a. X =”nombre de boules rouges tirées”.
X est une v.a. de Bernoulli
2 3
X(Ω) = {0, 1} et P (X = 1) = 5
= p; P (X = 0) = 5
=q

35
Remarque 8 Plus généralement, on utilisera une v.a. de Bernoulli lorsqu’on
effectue une épreuve qui n’a que deux issues : le succès ou l’échec. Une telle
expérience est alors appelée épreuve de Bernoulli. On affecte alors 1 à la variable
en cas de succès et 0 en cas d’échec :

P (X = k) = pk q 1−k , ∀k ∈ {0, 1}

2.5.3 Loi binômiale


La loi binômiale est la loi de probabilité d’une série d’épreuves répétées possédant
les propriétés suivantes :
– Chaque épreuve donne lieu à deux éventualités exclusives de probabilités
constantes p et q = 1 − p
– Les épreuves répétées sont indépendantes les unes des autres.
– La v.a. a pour valeur le nombre de succès dans une suite de n épreuves.

Exemple 2.24 La loi binomiale B(n, p) est suivi par la v.a. X dans les exemples
suivants :
– 1) X est égale au nombre de ”piles” obtenus au cours de n lancers indépendants
d’une pièce équilibrée, ici p = 12 .
– 2) X est égale au nombre de boules rouges extraites au cours de n tirages
successifs indépendants, avec remise, d’une boule dans une urne contenant
des boules rouges et blanches dans les proportions p et q = 1 − p.
X suit une loi binomiale notée B(n, p)
– X(Ω) = {0, 1, 2, ..., n}
– ∀k ∈ X(Ω), P (X = k) = Cnk pk q n−k
– E(X) = np
– V (X) = npq

Propriété Soit X1 et X2 deux v.a. indépendantes telles que X1 ,→ B(n1 , p) et


X2 ,→ B(n2 , p), alors la v.a. X1 + X2 ,→ B(n1 + n2 , p)

36
Exemple 2.25 On lance un dé à 6 faces non pipé. On s’intéresse au fait suivant :
”obtenir 6”. On considère ce fait comme succèes, avec la probabilité 16 , l’échec étant
1
”obtenir ”1, 2, 3, 4, 5”, donc q = 1 − 6
= 56 .
On lance 10 fois ce dé. Soit X la v.a. correspondant au nombre de succès.
1◦ ) Calculer P (X = 5)
2◦ ) Calculer la probabilité d’obtenir au moins une fois le 6, au cours des 10
lancers.

Solution
L’expérience aléatoire permet de dire que X ,→ B(10, 16 )
1◦ ) P (X = 5) = C10
5 1 5 5 5
(6) (6)
2◦ )P (X = 0) = C10
0 1 0 5 10
( 6 ) ( 6 ) = ( 65 )10 .
L’événement {X = 0} est le contraire de {X ≥ 1}. On a donc

5
P (X ≥ 1) = 1 − ( )10 ' 0.84
6

Remarque 9 – Cette loi porte le nom de binômiale car elle fait intervenir
les Cnk coefficients du développement du binôme (a + b)n
– Les valeurs P (X = k) sont tabulées, pour certaines valeurs de n, (k ≤ n).

2.5.4 Loi de Poisson

Définition 2.26 Soit X une v.a. à valeurs dans N (X(Ω) = N). X suit une loi
de Poisson de paramètre λ(λ > 0) et on note X ,→ P(λ) ssi

λk
P (X = k) = e−λ , k∈N
k!

Conséquences
P+∞ P+∞ −λ λk
– k=0 P (X = k) = 1 donc k=0 e k!
=1

– E(X) = λ, σ(X) = λ
Pp
– La fonction de répartition est F (p) = P (X ≤ p) = k=0 P (X = k)

37
Le domaine d’application de la loi de Poisson a été longtemps limité à celui des
événements rares comme les suicides d’enfants, les arrivées de bateaux dans un
port ou les accidents dus aux coups de pied de cheval dans les armés. C’est la loi
des petites probabilités et sans mémoire, dans un intervalle de temps donné. De-
puis quelques décennies, son champ d’application s’est considérablement élargie.
Actuellement, on l’utilise beaucoup dans les télécommunications (pour compter le
nombre de communications dans un intervalle de temps donné, le contrôle de qua-
lité statistique, la biologie, la météorologie, la finance pour modéliser la probabilité
de défaut d’un crédit
Autres exemples
– le nombre de chèque émis sans provision
– le nombre de fautes d’impression dans les pages d’un livre
– le nombre de personnes atteintes d’une maladie
– le nombre d’accidents sur une portion de route
– le nombre d’accidents annuels provoqués par un automobiliste assuré
– le nombre de déchets dans une fabrication
– le nombre d’atomes désintégrés par unité de temps.

Remarque 10 Les valeurs de P (X = k) sont tabulées pour certains certaines


valeurs λ.

2.6 Approximation de la loi binomiale par la loi


de Poisson

Les variables aléatoires de Poisson peuvent être utilisées pour approcher des
variables aléatoires binomiales de paramètre (n, p) pour autant que n soit grand
et p assez petit pour que np soit d’ordre de grandeur moyen (environ 5).
Pour s’en convaincre, admettons que X soit une v.a. binomiale de paramètre

38
(n, p) et posons λ = np.
n! λ λ
P (X = k) = Cnk pk (1 − p)n−k = ( )k (1 − )n−k
k!(n − k)! n n

n(n − 1)...(n − k + 1) λk (1 − nλ )n
=
nk k! (1 − nλ )k
Maintenant, pour n grand et λ modéré, on a :
n(n − 1)...(n − k + 1) λ n −λ λ k
≈ 1, (1 − ) ≈ e , (1 − ) ≈1
nk n n
Donc, pour n grand et λ modéré :
λk
P (X = k) ≈ e−λ
k!
Exemple 2.27 Un certain vaccin provoque chez un individu sur 800 environ une
réaction dangereuse. Quelle probabilité y-a-t-il, en vaccinant 3000 personnes, qu’il
y ait
1◦ ) 3 réactions dangereuses ?
2◦ ) plus de 2 réactions dangereuses ?

Solution Soit X la v.a. indiquant le nombre total de réactions dangereuses. On a


1
une distribution binomiale avec p = 800
; n = 3000 ; λ = np = 3.75
1◦ )
3000! 1 3 799 2997
P (X = 3) = ( )( )
3!2997! 800 800
les calcules sont longs et fastidieux, pour cela, on applique la loi de Poisson qui
donne une bonne approximation de résultat. Donc
3.753 e−3.75
P (X = 3) ≈ = 0.2067
3!
(On voit que le calcul est grandement facilité par le recours à la loi de Poisson).
2◦ )

P (X > 2) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)]
3.750 e−3.75 3.751 e−3.75 3.752 e−3.75
≈1−[ + + ] = 0.7229
0! 1! 2!

39
Remarque 11 – Cette approximation peut être appliquée pour n ≥ 0 et np ≤
1
5 ou n ≥ 20 et p < 30
. Elle est d’autant meilleure que n est grand et p et
proche de 0.
– On peut utiliser cette approximation pour p voisin de 1 car q ' 0, on
considère λ0 = nq.

Exemple 2.28 Pour une femme ayant eu entre 50 et 52 ans en l’an 2000, le
nombre d’enfants, noté X, suit une loi de poisson de paramètre inconnu λ. Un
échantillon de 1000 de ces femmes donne 135 sans enfants.
1◦ ) Donner une estimation de λ
2◦ ) Estimer la proportion de ces femmes ayant plus de 3 enfants.
3◦ ) Conclure

Solution 1◦ ) Si on admet que l’échantillon est représentatif de la population, on


a P (X = 0) = e−λ ' 0.135, ce qui donne λ = − ln(0.135) ' 2
λ2 λ3
2◦ ) P (X > 3) = 1 − P (X ≤ 3) = 1 − [1 + λ + 2
+ 3!
] ' 0.145
3◦ ) Parmi les femmes qui ont eu entre 50 et 52 ans en l’an 2000, il y en a donc
environ 145 sur 1000 qui ont plus de 3 enfants.

Exemple 2.29 On suppose qu’une urne contient 1 boule blanche et 99 boules


noires. On effectue n tirages successifs d’une boule avec remise. Déterminer n
pour que la probabilité de tirer au moins une fois la boule blanche soit supérieure
ou égale à 0.95

Solution Soit X la v.a. ” nombre de fois où on tire la boule blanche au cours de
n tirages”, donc X ,→ B(n, p = 0.01)

P (X ≥ 1) = 1 − P (X = 0) = 1 − (0.99)n

Si on veut que P (X ≥ 1) ≥ 0.95, il faut que (0.99)n ≤ 0.05, ce qui veut dire que
ln(0.05)
n≥ 0.99
, c.à.d. n ≥ 298.1, or n est entier, alors n ≥ 299. Il faut donc effectuer
299 tirages au moins pour être sûr à 95% d’avoir au moins une boule blanche.

40
Remarque 12 (Utilisation d’approximation par la loi de Poisson) On a n est
grand et p faible, on approche pour cela X par la loi de Poisson de paramètre
n 1
np = 1+99
= 100
(100 est le nombre de boules dans l’urne). Donc,

n
P (X ≥ 1) = 1 − P (X = 0) = 1 − e 100

n
Pour avoir P (X ≥ 1) ≥ 0.95, il faut que e− 100 ≤ 0.05, c.à.d. n ≥ −100 ln(0.05) '
299.6. Par conséquenc n ≥ 300.

41
42
Chapitre 3
Lois de probabilités de variables aléatoires
continues

Si on choisit au hasrad un individu parmi un groupe d’adultes, la probablilité


pour que sa taille soit exactement de 1.80m est évidemment nulle. La v.a. définie
sur l’ensemble Ω de ces individues, et qui à chaque individu fait correspondre sa
taille est une variable aléatoire continue. Cependant comme la probabilité pour que
X prenne une valeur particulière est nulle, on ne peut définir une loi de probabilité
comme dans le cas d’une variable aléatoire discrète. Cependant la probabilité pour
que la v.a. X soit comprsie entre deux valeurs différentes a un sens.

3.1 Définitions
Définition 3.1 Soit f une fonction réelle. On dit que f est une densité de pro-
babilité ssi
– f est continue sur R privé éventuellement d’un nombre fini de points.
– ∀x ∈ R, f (x) ≥ 0
R +∞
– −∞ f (x) = 1

Exemple 3.2 On considère la fonction f définie sur R par

43

 cos(x) si x ∈ 0, π  ,
2
f (x) =
 0 sinon.
1◦ ) f est continue sur R au point 0
2◦ ) f (x) ≥ 0
R +∞
3◦ ) −∞ f (x)dx = 1

Définition 3.3 On dit que X est une v.a. continue s’il existe une fonction densité
de probabilité f telle que la fonction de répartition de X soit définie pour tout x
réel par Z x
P (X ≤ x) = F (x) = f (t)dt.
−∞
La fonction F est appelée fonction de répartition de la v.a. X.

Exemple 3.4 1◦ ) Montrer que la fonction F définie par



 ex si x ≤ 0,
2
F (x) =
 1 si x > 0,

est une fonction de répartition.


2◦ ) La fonction f définie par f (x) = F 0 (x) est-elle une densité de probabilité ?.

Solution 1◦ ) Pour que F soit une fonction de répartition, il faut vérifier les 3
conditions suivantes :
– 1) F est croissante au sens large
– 2) Valeurs de F aux limites

 F (+∞) = limx→+∞ F (x) = 1,
 F (−∞) = lim ex
=0 x→−∞ 2

– F est continue à droite en tout point :


1 ex
Pour x = 0, on a F (0) = 2
= limx−→0+ 2

Pour x 6= 0, on a F est continue, donc elle est continue à droite.

44
2◦ ) La fonction f telle que

ex
0

2
si x ≤ 0,
f (x) = F (x) =
 0 si x > 0,

R +∞ 1
n’est pas une densité de probabilité car −∞
f (x)dx = 2
6= 1

3.2 Propriétés
– 1)
P (a < X ≤ b) = F (b) − F (a)
Z b Z a Z b
= f (x)dx − f (x)dx = f (t)dt
−∞ −∞ a

– 2) Supposons b fixé et faisons tendre a vers b dans l’expression précédente,


on obtient
Z b
lim P (a < X ≤ b) = P (X = b) = f (t)dt = 0
a−→b b

donc
∀b ∈ R, P (X = b) = 0

ce qui justifie les inégalités suivantes :

P (a < X < b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a ≤ X ≤ b)

Donc on écrira indifféremment P (X ≤ a) ou P (X < a), ces deux quantités


étant égales.

3.3 Espérance, variance et écart type d’une v.a.


continue
Soit X une v.a. continue de densité f

45
R +∞
Définition 3.5 – 1) L’espérance de X est E(X) = −∞
xf (x)dx
– 2) La variance de X est V (X) = E(X 2 ) − E(X) = E((X − E(X))2 ) = 2
R +∞
−∞
(x − E(X))2 f (x)dx
p
– 3) L’écart-type de X est σ(X) = V (X)

Exemple 3.6 Soit X la v.a. de densité f définie dans l’exemple.

π
Z +∞ Z
2 π
E(X) = xf (x)dx = x cos(x)dx = − 1.
−∞ 0 2

3.4 Lois de v.a. continues usuelles

3.4.1 Loi uniforme

Définition 3.7 Soient a et b deux nombres réels avec a < b. On appelle v.a.
continue uniforme sur [a, b] une v.a. qui admet une densité de probabilité f définie
par



 0 si x < a,

f (x) = 1
b−a
si a ≤ x ≤ b,



 0 si x > b.

Proposition 3.8 – 1) La fonction de répartition F est donnée par





 0 si x < a,

F (x) = x−a
b−a
si a ≤ x ≤ b



 1 si x > b

a+b (b−a)2 b−a


– 2) E(X) = 2
, V (X) = 12
, σ(X) = √ .
2 3

46
3.4.2 Loi exponentielle
Définition 3.9 Soit λ un réel strictement positif. On appelle v.a. exponentielle,
de paramètre λ une v.a. continue qui admet une densité de probabilité f définie par

 0 si x < 0,
f (x) =
 λe−λx si x ≥ 0.

Proposition 3.10 – 1) La fonction de répartition F est donnée par



 0 si x < 0,
F (x) =
 1 − e−λx si x ≥ 0

– 2) E(X) = λ1 , V (X) = 1
λ2
, σ(X) = λ1 .

3.4.3 Loi normale


Définition 3.11 Soit m ∈ R et σ ∈ R∗+ . On appelle v.a. normale de paramètres
m et σ et on la note N (m, σ 2 ) une v.a. continue admettant comme densité la
fonction f telle que
1 (x−m)2
f (x) = √ e− 2σ2 .
σ 2π

Cette loi intervient dans la modélisation de phénomènes aléatoires possédant de


nombreuses causes indépendantes dont les effets s’ajoutent, sans que l’un d’eux
soit dominant.

Proposition 3.12 – 1) La fonction de répartition est donnée par


Z x
F (x) = P (X ≤ x) = f (t)dt
−∞

– 2)E(X) = m, V (X) = σ 2 , σ(X) = σ.

Comme il n’y a pas de formule permettant de calculer F (x), on à tabulé la variable


X−m
T = σ
, on fera donc systématiquement ce changement de variable.

47
3.4.4 Loi normale centrée réduite

Définition 3.13 Soit X une v.a. continue qui suit une loi normale, alors la v.a.
X−m
T = σ
est dite centrée et réduite (on écrit T ,→ N (0, 1)) et vérifie

X −m X −m
E(T ) = E( ) = 0, V (T ) = V ( )=1
σ σ

t 2
La fonction de densité de probabilité est donnée par ϕ(x) = √1 e− 2 . Elle ad-

met l’axe des ordonnées comme axe de symétrie et les points d’inflexion ont pour
abscisses −1 et 1.
Propriétés
Rt x 2
– La fonction de répartition est donnée par F (t) = P (T ≤ t) = √1 e− 2 dx.
−∞ 2π

Elle n’est tabulée que pour des valeurs de t ≥ 0 en raison de la symétrie.


On a F (−∞) = 0, F (+∞) = 1, F (0) = 0.5, F (−t) = 1 − F (t)
Rt x2
– La Fonction Φ(t) = −∞ √12π e− 2 dx est parfois utilisée. On a donc F (t) =
0.5 + Φ(t) d’où Φ(t) = F (t) − 0.5
– Calcul de P (a ≤ T < b) = F (b) − F (a) = 0.5 + Φ(b) − [0.5 + Φ(a)] =
Φ(b) − Φ(a).
Soient X1 ,→ N (m1 , σ12 ) et X2 ,→ N (m2 , σ22 ) deux v.a. normales. Alors, si
X1 et X2 sont indépendantes
– 1) La v.a. X1 + X2 est une v.a. normale ,→ N (m1 + m2 , σ12 + σ22 )
– 2) La v.a. X1 − X2 est une v.a. normale ,→ N (m1 − m2 , σ12 + σ22 )

3.5 Approximation par la loi normale

3.5.1 Approximation d’une loi binômiale par une loi nor-


male

On lance 500 fois une pièce de monnaie non truquée. Soit X le nombre de ”face”
obtenues. Alors X ,→ N (500, 12 ). Pour calculer P (X = 100) = C500
100 1 100 1 400
(2) (2) ,

48
ces calcules sont longs et fastidieux. C’est pour cela on utilise les méthodes d’ap-
proximations. L’approximation par la loi de Poisson n’est pas valable puisque, n
est grand mais ni p ni q ne sont pas proches de 0.
Les calculs et les méthodes expérimentales ont prouvé que l’on pouvait appro-
(x−m)2
cher P (x = k) par f (k) où f (x) = √1 e− 2σ 2 (fonction de Gauss), avec σ 2 = npq
σ 2π
et m = np.
Application σ 2 = 500 × 0.5 × (1 − 0.5) = 125 et m = 500 × 0.5 = 250. On
obtient
1 (150)2 1
P (X = 100) ' √ √ e− 2×125 = √ √ e−90
125 2π 125 2π
P (X = 100) = , nombre très proche de 0.
Une autre méthode est celle d’encadrer la valeur proposée et de se ramener au
calcul d’une fonction de répartition. On a 100 ∈ [99.5, 100.5]
P (X = 100) ' P (99.5 ≤ X ≤ 100.5) que l’on calcul par changement de
variables et l’utilisation de la loi N (0, 1).

Remarque 13 Le résultat est conforme à la propriété des v.a. continues : si X


est une v.a. continue, P (X = a) = 0. On peut aussi répondre à la question :
quelle est la probabilité d’obtenir entre 230 et 270 faces. On doit alors déterminer
X−250
P (230 ≤ X ≤ 270). Soit T = √
125
. On a

P (230 ≤ X ≤ 270) = P (X ≤ 270) − P (X < 230)

20 20
= P (T ≤ √ ) − P (T < − √ )
125 125
20
2P (T ≤ √ ) − 1 = 2P (T ≤ 1.79) − 1 = 2 × 0.9633 − 1 ' 0.9266
125

Remarque 14 Dans la pratique, la fonction de Laplace-Gauss donne une bonne


approximation de la loi binômiale si 0.2 < p < 0.8 et n ≥ 30. Si np et nq sont
supérieurs à 10, cette approximation est très bonne.

49
3.5.2 Approxiamtion d’une loi de Poisson par une loi nor-
male
On démontre de la même manière que si λ > 20, on peut approcher une loi de
Poisson P(λ) par la loi normale N (λ, λ).

Exemple 3.14 On s’intéresse au poids moyen d’un nouveau né. On suppose que
ce poids suit une loi normale de moyenne 3.1 kg et d’écart-type 0.5 kg.
1◦ ) Quelle est la probabilité qu’un nouveau né pèse plus de 4 kg ?
2◦ ) Quelle est la probabilité qu’il pèse moins de 3 kg ?
3◦ ) Quelle est la probabilité que son poids soit compris entre 2.9 kg et 3.5 kg ?

Solution
Le poids suit la loi normale N (m, σ 2 ) avec m = 3.1 et σ = 0.5
1◦ ) P (X > 4) = 1−P (X ≤ 4). On effectue le changement de variable T = X−m
σ
,
4−3.1
alors T ,→ N (0, 1). Si X = 4, alors T = σ
= 1.8.
On a 1 − P (T ≤ 1.8) = 1 − 0.09641 = 0.0359, donc P (X > 4) = 0.036
2◦ ) P (X ≤ 3) = P (T ≤ −0.2) = 1 − P (T < 0.2) = 1 − 0.05793 = 0.4207
3◦ ) On a
P (2.9 ≤ X ≤ 3.5) = P (X ≤ 3.5) − P (X < 2.9)
3.5 − 3.1 2.9 − 3.1
= P (T ≤ ) − P (T ≤ )
0.5 0.5
= P (T ≤ 0.8) − P (T ≤ −0.4)

= P (T ≤ 0.8) − (1 − P (T ≤ −0.4))

= P (T ≤ 0.8) + P (T ≤ 0.4) − 1

= 0.78881 + 0.6554 − 1 = 0.4435

Exemple 3.15 On lance 200 fois une pièce non truquée.


1◦ ) Déterminer la probabilité pour que X, le nombre de ”faces”, soit compris
entre 80 et 120.
2◦ )Déterminer la probabilité pour que X soit exactement 100.

50
Solution 1◦ ) Il s’agit d’une loi binômiale B(200, 120) ∼ N (np, npq), avec m =

100, σ 2 = 50 c.à.d. σ = 5 2.

−20 20
P (80 ≤ X ≤ 120) = P ( √ ≤ T ≤ √ )
5 2 5 2
avec T ,→ N (0, 1)
√ √ √ √
= P (−2 2 ≤ T ≤ 2 2) = P (T ≤ 2 2) − P (T ≤ −2 2)
√ √
= P (T ≤ 2 2) − (1 − P (T ≤ 2 2))

= P (T ≤ 2 2) − 1 = 2 × 0.9976 − 1 ' 0.9952

2◦ ) On cherche P (X = 100). Il y a deux méthodes.


Première méthode : On considère 99.5 ≤ 100 ≤ 100.5 et on approche P (X =
100) par P (99.5 ≤ X ≤ 100.5).

0.5 0.5
P (X = 100) ' P (T ≤ √ ) − P (T ≤ − √ )
5 2 5 2
avec T ,→ N (0, 1)

0.5
= 2P (T ≤ √ ) − 1 = 2 × 0.5279 − 1 ' 0.0558.
5 2
(x−m)2
Deuxième méthode : Soit f la fonction de densité f (x) = √1 e− 2σ 2 . Dans
σ 2π
(x−100)2
√1 e − 100 √ 1√ ,
ce cas f (x) = 5 2π
. Alors P (X = k) ' f (k), donc P (X = 100) ' 5 2 2π
c.à.d. P (X = 100) ' 0.0564.
On remarque que ces résultats diffèrent très peu.

51
52
Chapitre 4
Statistiques descriptives

4.1 Séries à une variable

4.1.1 Le double but de la statistique

– 1) Présentation des données statistiques sous forme de tableaux ou de gra-


phiques, diagrammes en bâtons, histogrammes, courbe cumulative.
– 2) Analyse de ces données qui consiste à résumer un tableau à l’aide d’un
petit nombre de valeurs caractéristiques.
– 3) Les valeurs caractéristiques de position : mode, médiane, moyenne
– 4) Les valeurs caractéristiques de dispersion : variance, écart-type.

Définition 4.1 La population est l’ensemble des éléments à étudier ayant des
propriétés communes. On la note P. Un individu est un élément de la population
étudiée. La taille de la population est le nombre d’individus. Un échantillon est la
partie étudiée de la population.

Exemple 4.2 Population : ensemble de parcelles sur lesquelles on mesure un


rendement, un groupe d’insectes, élèves d’un groupe de TD, ensemble des accidents
d’avion. Individu : une des parcelles, un des insectes, etc.

53
Définition 4.3 Une variable ou caractère est une propriété commune aux indivi-
dus de la population, que l’on souhaite étudier. Elle peut être :
– 1)qualitative : lorsque les valeurs prises par la variable ne sont pas une quan-
tité mesurable par un nombre mais appartiennent à un groupe de catégories.
On les appelle modalités de la variable. On distingue :
– les variables qualitatives nominales : il n’y a pas de hiérarchie entre les
différentes modalités ; exemple : sexe, couleur des yeux, couleur de pétales.
– les variables qualitatives ordinales : les différentes modalités peuvent être
ordonnées de manière naturelle ; exemple : la mention au baccalauréat, la
fréquence d’une activité (jamais, rarement, parfois, souvent, très souvent).
– 2) quantitative (numérique) : lorsque les valeurs prises par la variable cor-
respondent à des quantités mesurables et sont données par des nombres. On
distingue :
– les variables quantitatives discrètes : elles prennent leurs valeurs dans un en-
semble discret, le plus souvent fini ; exemple : le nombre d’enfants, la pointure
du pied, le nombre d’espèces recensées sur une parcelle.
– les variables quantitatives continues : elles peuvent prendre toutes les valeurs
d’un intervalle réel ; exemple : la taille des individus, le poids d’un individu,
le périmètre d’une coquille de moule.

Remarque 15 Certaines variables qualitatives peuvent être désignées par un


code numérique, qui n’a pas de valeur de quantité. Exemple : le code postal, le
sexe (1=garçon, 2=fille).

Définition 4.4 L’ensemble des données de la/les variable(s) s’appelle la série sta-
tistique. Si l’étude statistique porte sur un seul critère, on dit que la série statistique
est simple (ou univariée). Si l’étude porte sur deux ou plusieurs critères, la série
est dite respectivement double (ou bivariée) ou multiple.

Remarque 16 Etudier la longueur des pétales sur une population d’iris donne
une série statistique simple ; étudier la longueur et la largeur des pétales donne

54
une série statistique double.

4.1.2 Effectif et fréquence


Cas d’une variable statistique discrète

Définition 4.5 Soient {x1 , x2 , ..., xn } les valeurs distinctes prises par la variable
X.
– On appelle effectif de la modalité xi , le nombre ni d’éléments de P ayant xi
pour image par X. C’est le nombre d’individus ni correspondant à la valeur
xi de X
n
X
ni = effectif total = n
i=1
ni
– On appelle fréquence de la modalité xi le réel fi = n
n
X
fi = 1
i=1

Cas d’une variable statistique continue


On partage alors l’intervalle I sur lequel X prend ses valeurs en intervalles
disjoints appelées classes (en général de même amplitude)
L’effectif ni associé à un intervalle [xi−1 , xi [ ⊂ I s’appelle effectif de cette classe.
On désigne souvent une classe par (cn , ni ), ci étant le centre de la classe et ni son
ni
effectif. On appelle fréquence de la classe le réel fi = n
.

4.1.3 Fonction cummulative


Soit une série statistique à caractère quantitatif, les k valeurs ou les k classes
représentées par leur centres ci = xi sont données dans l’ordre croissant : x1 <
x2 < x3 < .... < xk
Si ni est l’effectif de la valeur ou de la classe xi , on appelle fréquence cumulée
croissante (F.C.C.)
X n1 + n2 + ...nj effectif cumulé croissant
fj = f1 + f2 + ... + fi = =
j≤i
n effectif total

55
On définit la fréquence cumulée décroissante par
X ni + ni+1 + ...nk effectif cumulé décroissant
fj = fi + fi+1 + .... + fk = =
j≥i
n effectif total

Définition 4.6 – Cas d’une variable statistique discrète : On appelle


fonction cumulative ou fonction de répartition, la fonction F définie sur R
par
X
F (t) = fj
j≤t

C’est la somme des fréquences des modalités inférieures à t. Cette fonction


est en escalier, croissante, nulle sur ]−∞, x1 [ et égale à 1 sur ]xn , +∞[.
– Cas d’une variable statistique continue
On appelle fonction cummulative la fonction dont le graphique est la ligne
polygonale obtenue en joignant par segments de droite successivement les
points de coordonnées (x1 , 0), (xi , f1 + f2 + .... + fi−1 ). Les réels xi étant les
centres des diverses classes.

4.1.4 Graphiques
Caractère à valeurs discrètes
– Le diagramme en bâtons s’obtient en traçant à partir du point de l’axe des
x d’abscisse xi un segment de longueur proportionnelle à ni .
– Le polygone des effectifs s’obtient en joignant par un trait les différents points
de coordonnées (xi , ni )
– La courbe cumulative des effectifs est la représentation de la fonction de
répartition définie sur R : x 7−→(somme des effectifs xi < x) qui est une
fonction en escalier.
– La dominante ou mode est la valeur du caractère ayant le plus grand effectif.
Caractère à valeurs répartis en classes
La série statistique est définie par la donnée des classes qui sont des intervalles
de R et des effectifs correspondants. On supposera les classes de même amplitude.

56
– L’histogramme : est formé de bandes rectangulaires ayant la largeur de
chaque classe et dont la hauteur est proportionnelle à l’effectif de la classe
considérée.
– Le polygone des effectifs : s’obtient en joignant par un segment de droite les
divers points de coordonnées (ci , ni ). On complète éventuellement les classes
par deux classes extrêmes de même amplitude que les précédentes et d’effectif
nul.
– La courbe cumulative des effectifs : représente la fonction de répartition
définie sur R : x 7−→(somme des effectifs des xi < x)
Les valeurs xi du caractère étudié sont supposées réparties uniformément
dans chaque classe.

4.1.5 Paramètres de position


Définition 4.7 (Le mode)

Si la variable X est discrète, son mode est la où les valeurs de la variable corres-
pondant à la fréquence maximale.

Si la variable X est continue, sa classe modale, est la où les classes de densité de
proportion maximale.

Définition 4.8 ( La moyenne (arithmétique))


– Si X est discrète, la moyenne arithmétique, notée x ou E(X), est la somme
des valeurs pondérée par les fréquences :
p p
X 1X
x= f i xi = n i xi
i=1
n i=1

– Si X est continue, a priori, on ne peut faire qu’un encadrement de la moyenne


arithmétique. Cependant, afin de pouvoir calculer un nombre, on appellera
moyenne arithmétique x, l’approximation de la moyenne obtenue en prenant
comme valeurs les centres des classes.

57
Remarque 17 La moyenne arithmétique a une unité : celle des valeurs de X.

Définition 4.9 La médiane est la valeur d’un caractère quantitatif correspondant


à un effectif cumulé égal à la moitié de l’effectif total.
Détermination graphique de la médiane : c’est l’abscisse du point d’in-
tersection de la courbe des effectifs cumulés croissants et des effectifs cumulés
décroissants.

Définition 4.10 – On appelle quartiles d’une série statistique, un triplet de


réels (Q1 , Q2 , Q3 ) qui sépare la série en quatre groupes de même effectif.
– On appelle déciles d’une série statistique un 9− uplet (D1 , D2 , D3 , ...D9 ) qui
sépare la série en dix groupes de même effectif.

Propriétés
– E(X + b) = E(X) + b
– E(aX) = aE(X)
– E(aX + b) = aE(X) + b
Calcul pratique
Afin d’avoir un calcul plus simple de E(X), on effectue souvent un changement
d’origine et d’échelle en appelant x0 la nouvelle origine et h l’échelle on a xi =
x0 + hui , d’où
E(X) = x0 + hE(U )

4.1.6 Caractéristiques de dispersion


Définition 4.11 – L’étendue d’une série est la différence entre la plus grande
et la plus petite valeur du caractère.
– La variance d’une série statistique est la moyenne des carrés des écarts à la
moyenne :
n
1X
V (X) = ni (xi − E(X))2
n i=1

58
Plus la variance d’une série est grande, plus que cette série est dispersée
autour de sa moyenne.
– L’écart-type d’une série statistique est
p
σ(X) = V (X)

– L’intervalle inter-quartille est l’intervalle [Q1 , Q3 ]. L’amplitude de cet inter-


valle est appelée écart inter-quartiles.

Propriétés
– V (X + b) = V (X)
– V (aX) = a2 V (X)
– V (aX + b) = a2 V (X)
Calcul pratique On utilise souvent
n
1X
V (X) = ni x2i − E(X)2
n i=1
Un changement d’origine et d’échelle xi = x0 + hui conduit à

V (X) = h2 V (U )

Exemple 4.12 Cas discrèt : Soit le relevé de notes suivant :8 − 11 − 4 − 12 −


15 − 9 − 10 − 10 − 13 − 9 − 8 − 14 − 15 − 17 − 18 − 14 − 9 − 10 − 9 − 11
1◦ ) Dresser le tableau statistique ce cette variable statistique.
2◦ ) Donner les différentes représentations graphiques.
3◦ ) Déterminer les paramètres de position et de dispersion.

Solution : Le tableau statistique est donné par :

xi 4 8 9 10 11 12 13 14 15 17 18
ni 1 2 4 3 2 1 1 2 2 1 1
E.C.C 1 3 7 10 12 13 14 16 18 19 20
E.C.D 20 19 17 13 10 8 7 6 4 2 1
fi % 5 10 20 15 10 5 5 10 10 5 5
F.C.D% 100 95 85 65 50 40 35 30 20 10 5

59
Diagramme en bâtons des effectifs et diagramme en bâtons des effectifs
cumulés croissant.

Figure 4.1: Diagramme en bâtons des effectifs

Figure 4.2: Diagramme en bâtons des effectifs cumulés croissants

– Le mode : la fréquence maximale est 20%, elle correspond à la modalité


xi = 9, donc le mode vaut 9.

60
– La moyenne est
11 11
1X X
E(X) = n i xi , n = ni = 20
n i=1 i=1

1
= [1×4+2×8+4×9+3×10+2×11+1×12+1×13+2×14+2×15+1×17+1×18]
20
226
= = 11.3
20
– La médiane : c’est la valeur de xi ou la classe telle que l’on est déja la moitié
(ou 50%) de la population. La médiane est entre 10 et 11.
– L’étendue est 18 − 4 = 14.
– La variance est V (X) = E(X 2 ) − E(X)2
11
1X
E(X 2 ) = ni x2i
n i=1
1
= [1×42 +2×82 +4×92 +3×102 +2×112 +1×122 +1×132 +2×142 +2×152 +1×172 +1×182 ]
20
2778
= = 138, 9
20
p
donc V (X) = 138.9 − (11.3)2 = 11.21 et σ(X) = V (X) = 3.34
Cas continu. On choisit la répartition par classe de la série précédente
– On commence par créer le tableau des fréquences cumulées croissantes et les
fréquences cumulées décroissantes.
Notes [0, 5[ [5, 10[ [10, 15[ [15, 20[
fi % 13 57 23 7
F.C.C 13 70 93 100
F.C.D 100 87 30 7
– On place les points correspondants aux extrémités de chaque classe sur un
graphique
– On détermine le point du polygône d’ordonnée 50% et on trouve environ 8.2
– Pour trouver la médiane, on peut aussi tracer le polygône des fréquences
cumulées décroissantes et lire l’abscisse du point de concours des deux po-
lygônes.

61
– Autre méthode de calcul de la médiane : 50% se situe dans l’intervalle [5, 10],
on fait l’hypothèse que les longeurs des axes sont uniformément réparties dans
cette classe. On peut alors procéder à une interpolation linéaire d’après le
théorème de Thalès :
M −5 50 − 13
=
10 − 5 70 − 13
donc, M ≈ 8.25

4.2 Statistiques doubles


Soit une population Ω d’effectif total N et dont chaque élément présente deux
caractères X et Y .

Définition 4.13 On appelle série statistique de Ω pour les caractères X et Y


l’application à chaque élément de Ω associe le couple (xi , yj ) où xi sont les valeurs
du caractère X et yj les valeurs du caractère Y . Les résultats de cette observation
peuevent être présentées sous deux formes.

Données non groupées

Individu 1 2 3 ... N
Valeur de X x1 x2 x3 ... xN
Valeur de Y y1 y2 y3 ... yN

Ce tableau est représenté graphiquement par

62
Données groupées Les modalités de X et Y étant respectivement x1 , x2 , ..., xr
et y1 , y2 , ..., ys . Notons par nij l’effectif des individus présentant simultanément les
modalités xi et yj .

HH
H Y
HH y1 y2 ... ys Totaux
X H
HH
H
x1 n11 n12 n1s n1.
x2 n21 n22 n2s n2.
..
.
xr nr1 nr2 ... nrs nr.
Totaux n.1 n.2 n.s N

Pour la représentation graphique, le nuage est constitué de petits disques de sur-


faces proportionnelles aux effectifs.

4.2.1 Tableaux de calcul

Données non groupées

63
xi yi x2i yi2 xi y i
x1 y1 x21 y12 x1 y 1
x2 y2 x22 y22 x2 y 2
.. .. .. .. ..
. . . . .
xN yN x2N 2
yN xN y N
PN PN PN PN PN
i=1 xi i=1 yi i=1 x2i i=1 yi2 i=1 xi yi

Moyennes
N N
1 X 1 X
x= xi , y = yi
N i=1 N i=1
Variances
N
1 X 2 p
V (X) = xi − x2 , σ(X) = V (X)
N i=1
N
1 X 2 p
V (Y ) = yi − y 2 , σ(Y ) = V (Y )
N i=1
Covariance Par définition

N
1 X
σXY = cov(X, Y ) = (xi − x)(yi − y)
N i=1
Pour faire le calcul
N
1 X
σXY = cov(X, Y ) = xi y i − x y
N i=1

Coefficient de corrélation linéaire


On appelle coefficient de corrélation du couple (X, Y ) le nombre réel
cov(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
Propriétés
aa0
|ρ(X, Y )| ≤ 1, ρ(aX + b, a0 Y + b0 ) = ρ(X, Y )
|aa0 |
La corrélation est forte lorsque 0.87 ≤ ρ ≤ 1

64
Données groupées

HH
HH Y
H y1 y2 ... ys ni. ni. xi ni x2i
X HH
H
H
x1 n11 n12 n1s n1.
x2 n21 n22 n2s n2.
..
.
xr nr1 nr2 ... nrs nr.
Pr Pr
n.j n.1 n.2 n.s N i=1 n i xi i=1 ni x2i
Ps
n.j yj j=1 n.j yj
Ps
n.j yj2 j=1 n.j yj2

H
HH Y
H
HH y1 y2 ... ys
X H
HH
x1
nij xi yj x2
..
.
xr
Pr Ps
i=1 j=1 nij xi yj

Effectifs marginaux : La somme des effectifs partiels contenus dans la ligne


de xi est égale à l’effectif des éléments dont la valeur du caractère X est xi . Elle
est notée ni.
s
X
ni. = ni1 + ni2 + ...nij + ... + nis = nij
j=1

La somme des effectifs partiels contenus dans la colonne de yj est égale à l’effectif
des éléments dont la valeur du caractère Y est yj . Elle est notée n.j
r
X
n.j = n1j + n2j + +... + nrj = nij
i=1

65
où ni. et n.j sont appelés les effectifs partiels marginaux.
r
X s
X r X
X s
N= ni. = n.j = nij
i=1 j=1 i=1 j=1

Fréquences marginales



 fi. fréquence marginale de xi ,
ni. 
fi. = ni. effectif partiel marginal de xi
N  

 N effectif total



 f.j fréquence marginale de yj ,
n.j 
f.j = n.j effectif partiel marginal de yj
N  

 N effectif total
r
X s
X r X
X s
fi. = f.j = fij = 1
i=1 j=1 i=1 j=1

Fréquences conditionnelles



 fi/j fréquence conditionnelle de xi sachant yj ,
nij fij 
fi/j = = n effectif correspondant partiel à X = xi et Y = yj
n.j  ij
f.j 

 n.j effectif partiel marginal de yj

De même, on définit la fréquence conditionnelle de la valeur yj sachant xi :

nij fij
fj/i = =
ni. fi.

On a
fij = fi. × fj/i = f.j × fi/j

Indépendance : Les variables X et Y sont indépendantes ssi, quel que soit le


couple (i, j)

fij = fi. × f.j

66
Calculs
Moyennes

r s
1 X 1 X
x= ni. xi , y = n.j yj
N i=1 N j=1
Variances
r s
1 X 2 2 1 X
V (X) = ni. xi − x , V (Y ) = n.j yj2 − y 2
N i=1 N j=1
p p
σ(X) = V (X), σ(Y ) = V (Y )

Covariance On appelle covariance du couple (X, Y ) et la note cov(X, Y ) ou σXY


la moyenne de (X − X)(Y − Y )
Par définition
r s
1 XX
cov(X, Y ) = nij (xi − x)(yj − y)
N i=1 j=1

Pour le calcul, on utilise

r s
1 XX
σXY = cov(X, Y ) = nij x − iyj − x y
N i=1 j=1
Coefficient de corrélation linéaire
cov(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )

4.2.2 Ajustement-Méthode des moindres carrés


Première droite des moindres carrés
Soit Mij un point de coordonnées (xi , yj ).

Définition 4.14 On appelle distance de Mij parallèlement à (Oy) à la droite (∆)


d’équation u = ax + b le réel positif

dij = |yj − axi − b|

67
On démontre que la somme des carrés des distances est minimale pour
cov(X, Y ) σXY
a= = et b = y − ax
V (X) (σ(X))2
Définition 4.15 La droite d’équation y − y = a(x − x) ou y = ax + b s’appelle
droite de régression de y en x et est noté Dy/x .

Remarque 18 La droite de régression de y fournit une idée schématique, mais


souvent très utile, de la relation entre les deux variables. En particulier, elle permet
facilement d’apprécier comment évolue l’une des variables (le critère) en fonction
de l’autre (le prédicteur).

Deuxième droite des moindres carrés


Soit Mij un point de coordonnées (xi , yj ). On appelle distance de Mij pa-
rallèlement à (Ox) à la droite (∆) d’équation y = ax + b le réel positif
yj − b
δij = |xi − |
a
On démontre que la somme des carrés des distances est minimale pour
cov(X, Y ) σXY
a0 = =
V (Y ) (σ(Y ))2
Définition 4.16 La droite d’équation x−x = a0 (y−y) s’appelle droite de régression
de x en y et est notée Dx/y .
Ajustement et corrélation
Relation
aa0 = ρ2
On a
cov(X, Y ) 0 cov(X, Y )
a= , a =
V (X) V (Y )
cov(X, Y )2
aa0 = = ρ2
V (X)V (Y )
Définition 4.17 On dit que la corrélation est forte si 0.87 ≤ ρ ≤ 1, ce qui justifie
un ajustement linéaire.
On dit que la corrélation est nulle entre X et Y si ρ = 0, ce qui n’exclut pas
que l’on puisse ajuster X et Y par une courbe.

68
4.2.3 Exemple d’application
On considère la distribution suivante :

xi 5.5 9.7 8.7 11.8 19.0 5.9 9.5 17.3 13.3 11.0
yi 8.5 13.2 8.7 11.1 3.8 6.5 7.4 5.6 6.5 5.9

18.0 7.8 1.5 1.3 1.8 12.0 2.7 15.4 12.9 6.2
6.7 4.9 0.8 7.4 18.1 4.7 10.2 17.8 11.2 9.0

On a
n = 20, x = 9.57, V (X) = 28.90, σ(X) = 5.38

y = 8.40, V (Y ) = 17.70, σ(Y ) = 4.22

σXY = 1.79, ρ = −0.08

Dy/x : y = ax + b, a = −0.06, b = 8, 99

Dx/y : y = a0 x + b0 , a0 = −0.10, b0 = 10.41

Corrélation proche de 0

69

Vous aimerez peut-être aussi