Vous êtes sur la page 1sur 49

BCG S2 - M11

Dr: Najat MORADI FSTH


Statistique descriptive & probabilités

Page 1
Statistique descriptive & probabilités

Table des matières

Chapitre 1 : Statistique à une variable .............................................................................. 3

Chapitre 2 : Statistique à deux variables ..................................................................... 12

Chapitre 3 : Analyse combinatoire et notion de probabilités ............................... 20

Chapitre 4 : Variables aléatoires discrètes................................................................... 29

Chapitre 5 : Variables aléatoires continues……………………………………………… 39

Références …………………………………………………………………………………………… 48

Page 2
Statistique descriptive & probabilités

Chapitre.1
Statistique à une variable

1.1. Définitions:
a- Le mot « Statistiques », au pluriel désigne des collections de chiffres, présentés
parfois sous forme de tableaux, parfois traduites par des graphiques, et qui
regroupent toutes les observations faites sur des faits nombreux, et relatifs à un
même phénomène.
b- La « Statistique descriptive » est un ensemble de méthodes permettant de décrire
et d'analyser, systématiquement et de façon quantifiée des données statistiques
c- La « Statistique mathématique » est la science dont l'objet est de formuler des lois
de comportement à partir d'observation.
Elle s'appuie non seulement sur la statistique descriptive, mais aussi sur le calcul
des probabilités.

1.2. Vocabulaire:
La population statistique
est l’ensemble sur lequel porte l’étude.
Les individus ou les unités statistiques
sont les éléments qui composent la population statistique.
L’échantillon
est une partie de la population.
Le caractère
est l’aspect que l’on observe sur les individus, c’est le fait sur lequel se porte l’étude
statistique.
Il est souvent possible d’observer deux ou plusieurs caractères dans une même
étude.
Lorsque le caractère n’est pas susceptible d’une mesure (par exemple la nationalité
d’une personne, sa situation de famille, ..etc.), il est dit qualitatif, et on l’appelle aussi
modalité.
Lorsque, au contraire, ce caractère peut être mesuré (par exemple l’âge, le poids, la
taille.. etc), il est dit quantitatif, et on appelle sa mesure valeur ou variable
statistique.
La variable statistique peut être un nombre, et dans ce cas elle est dite discontinue
ou discrète, comme elle peut être un intervalle, et dans ce cas elle est dite continue.
Effectif ou fréquence absolue

Page 3
Statistique descriptive & probabilités

est le nombre d’individus ayant une valeur ou une modalité


La fréquence relative
est égale à la fréquence absolue divisée par l’effectif total

2.1. Exemple 1
D ’après une étude portée sur un échantillon de 100 familles, le nombre d’enfants
âgés de 0 à 16 ans est détaillé dans le tableau suivant:

La population est l’ensemble des familles


Le caractère est le nombre d’enfants, c’est une variable statistique discrète
L’effectif total est 100

2.2. Exemple 2
Répartition des versements effectués dans une banque, suivant le montant en
milliers de dirhams :

Le caractère est quantitatif sous forme d’intervalles , donc c’est une variable
statistique continue.
L’effectif total est 500, et les fréquences relatives sont comme suit:

Page 4
Statistique descriptive & probabilités

2.3. Exemple 3
Dans l’étude du nombre d’immatriculations, en milliers, de nouveaux véhicules en
France en 2007 pour quatre grands constructeurs, on a les résultats suivants:

Le caractère étudié ici est le type des nouveaux véhicules, donc c’est un caractère
qualitatif.

2.4. Exemple 4
On donnera ici un exemple d’un tableau statistique à deux entrées, c’est à dire
une étude statistique à deux variables.
C’est un tableau de répartition des enfants d’une école d’après leur âges et leur
poids.

Page 5
Statistique descriptive & probabilités

3.1. Diagramme en bâtons:


Ce diagramme en bâtons est utilisé pour représenter les données d’un tableau
statistique à caractère quantitatif discret (variable statistique discrète).
Sur des coordonnées cartésiennes, portons en abscisse les valeurs de la variable,
et en ordonnée les effectifs associé s ou les fréquences

3.2. Histogramme
Pour représenter les effectifs ou les fréquences d’une variable statistique continue
ou d’une modalité, on utilise la représentation par histogramme (expls 2 et 3).
On porte en abscisse , bout à bout, des segments qui ont même amplitude,
représentants les classes.
Sur chacun des segments pour base, on construit un rectangle d’hauteur l’effectif
associé.

Remarque:
Dans une représentation par histogramme c’est la surface des rectangles qui est
proportionnelle aux effectifs.

Application à l’exemple 2

Page 6
Statistique descriptive & probabilités

120

100

80

60

40

20

3.3. Polygone:
Dans un histogramme, en joignant les milieux des sommets de ses rectangles on
obtient un polygone qui sert à donner l’allure général du phénomène étudié.

Application à l’exemple 2

Polygone des effectifs


120
100
80
60
40
20
0

Page 7
Statistique descriptive & probabilités

3.4. Courbe :
On représente les effectifs cumulés croissants et les effectifs cumulés décroissants
par des courbes ( de même pour les fréquences cumulées croissantes et les
fréquences cumulées décroissantes).

Application à l’exemple 1
Le tableau des effectifs cumulés croissants pour l’exemple 1 est le suivant:

Dans le cas d’une variable statistique continue, on trace la courbe des effectifs
cumulés croissants en associant l’image zéro à la valeur minimale du premier
intervalle, ainsi la valeur maximale du dernier intervalle aura pour image l’effectif
total.

Page 8
Statistique descriptive & probabilités

Application à l’exemple 2

Les variables statistiques quantitatives peuvent être résumées par:

a) Des caractéristiques dites de « position » ou de « tendance centrale » qui


donnent de l’importance aux valeurs principales.
b) Des paramètres dits de « dispersion » qui caractérisent la dispersion ou la
concentration des valeurs autour de la moyenne.
On considère dans tout ce qui suit le tableau statistique suivant :

4.1. Paramètres de position:


Soit n l’effectif total i.e 𝑛 = ∑ 𝑛

Page 9
Statistique descriptive & probabilités

4.1.1. Les moyennes:


a- La moyenne arithmétique est
∑ 𝑣𝑎𝑙𝑒𝑢𝑟 ∗ 𝑒𝑓𝑓𝑒𝑐𝑡𝑖𝑓
𝑥̅ = 𝑚 =
𝑒𝑓𝑓𝑒𝑐𝑡𝑖𝑓 𝑡𝑜𝑡𝑎𝑙
∑ 𝑥 ∗𝑛
𝑥̅ =
𝑛
b- La moyenne quadratique est

∑ x ∗n
q=
n
c- La moyenne géométrique est

g= ∏ x

d- La moyenne harmonique est

ℎ=

.

Remarques:
a- La moyenne quadratique est la racine carrée de la moyenne arithmétique de x²
𝟏
b- La moyenne harmonique est l’inverse de la moyenne arithmétique de 𝐱
.
c- Pour une variable statistique continue on définit les moyennes précédentes de
la même manière en prenant les milieux des intervalles comme étant les valeurs
𝒙𝒌

4.1.2. La médiane:
La médiane est la valeur qui partage la variable statistique en deux séries aux
effectifs égaux.
Dans la première série, on trouve les valeurs inférieures à la médiane.
Dans la seconde série on trouve les valeurs supérieures à la médiane.
On la note généralement par M.
Pour déterminer la médiane on utilise le tableau des effectifs cumulés croissant :
Pour une variable statistique discontinue, la médiane est la valeur ayant le
𝒏
premier effectif cumulé croissant supérieur strictement à 𝟐
Pour une variable statistique continue, l’intervalle ou la classe associée au
𝒏
premier effectif cumulé croissant strictement supérieur à 𝟐 est dite la classe
médiane , et la médiane est une valeur de cette intervalle. Sa détermination est

Page 10
Statistique descriptive & probabilités

plus pratique à l’aide de la courbe des effectifs cumulés croissants (ou aussi la
courbe des effectifs cumulés décroissants) puisque c’est l’antécédent de la moitié de
l’effectif total.

4.2. Paramètres de dispersion ou de concentration:


4.2.1. L’étendue:
Est la différence entre la plus petite et la plus grande valeur.

4.2.2. La variance et l’écart-type:


La variance est: V = q² – m² où q est la moyenne quadratique et m est la
moyenne arithmétique.

L’écart type est: 𝜎 = 𝑉


Utilité de l’écart-type:
D’après un résultat dû au Mathématicien Bienaymé Tchebycheff, quelle que soit la
variable statistique étudiée, l’intervalle [ m - 2𝝈; m + 2𝝈 ] contient au moins
75% de la population étudiée.

4.2.3. L’intervalle interquartiles:


La définition de cette caractéristique de dispersion se base sur la connaissance
de la notion de quartiles.
On appelle Premier Quartile et on désigne par 𝑸𝟏 la valeur de la variable telle
que 25% des valeurs prises par la variable lui soient inférieures et 75%
supérieures.
On appelle Troisième Quartile et on désigne par 𝑸𝟑 la valeur de la variable telle
que 75% des valeurs prises par la variable lui soient inférieures et 25%
supérieures.
En conséquence de ces définitions le Second Quartile 𝑸𝟐 se confondra avec la
médiane.
L’intervalle interquartiles est la différence (𝑸𝟑 - 𝑸𝟏 ).
Pour une V.S.D 𝑸𝟏 est la valeur ayant le premier effectif cumulé croissant
𝒏
supérieur strictement à 𝟒 .
Et 𝑸𝟑 est la valeur ayant le premier effectif cumulé croissant supérieur
𝟑𝒏
strictement à 𝟒
.
Pour une V.S.C on calcule 𝑸𝟏 et 𝑸𝟑 ; comme pour la médiane; en déterminant les
𝒏 𝒏
antécédents respectifs de 𝟒
et 𝟒
dans la courbe des effectifs cumulés
croissants.
Page 11
Statistique descriptive & probabilités

Chapitre.2
Statistique à deux variables

Une statistique à deux variables est une étude de deux caractères différents
sur une même population, comme dans l’exemple 4: la répartition des enfants
d’une école d’après leur âges et leur poids.

En fait, les données d’une série statistique à deux variables sont en général
représentées au départ sous forme de couples ( variable1; variable2), et puis
on les regroupe sous forme de classes.

Exemple 5:
On dispose des mesures de taille et de poids de 19 adolescents présentées par
paires (la taille; le poids).

{{140; 38,2} ; {161 ; 44,3} ; {155 ; 46,1} ; {148 ; 38,2} ; {155 ; 50,5} ; {123 ; 22,4} ; {160 ;
40,4} ; {140 ; 34,7} ; {165 ; 50,5} ; {172 ; 50,5} ; {155 ; 38,1} ; {160 ; 57,3} ; {142 ; 39,3}
; {157 ; 46,1} ; {142; 37,1} ; {148 ; 45,9} ; {180 ; 66,3} ; {167 ; 60} ; {165 ; 50,5}}

Page 12
Statistique descriptive & probabilités

Ces données peuvent être présentées graphiquement par des points de


coordonnées (variable1; variable2) qui forment un nuage de points

On peut aussi regrouper ces données comme ceci:

[20 ;40[ [40 ;60[ [60 ;80] Total

[120 ;140[ 1 0 0 1

[140 ;160[ 6 4 0 10

[160 ;180] 0 6 2 8

Total 7 10 2 19

Page 13
Statistique descriptive & probabilités

Graphiquement ce tableau est illustré par un histogramme à trois dimensions.

On considère le tableau statistique à deux variables X et Y suivant:

Page 14
Statistique descriptive & probabilités

𝑁. 𝑚 = 𝑛 , 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑚 ∊ {1, … , 𝑞}

𝑁𝑙. = 𝑛 , 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑙 ∊ {1, … , 𝑝}

𝑁= 𝑁𝑙. = 𝑁. 𝑚

Les N.m sont dites « les effectifs marginaux de Y »

et les Nl. sont dites « les effectifs marginaux de X»

Les moyennes marginales de X et de Y sont:

1
𝑋= 𝑁𝑙. ∗ X𝑙
𝑁

1
𝑌= 𝑁. 𝑚 ∗ Y𝑚
𝑁

Les variances marginales sont:

1
𝑉 = 𝑁𝑙. ∗ X𝑙 − 𝑋
𝑁

1
𝑉 = 𝑁. 𝑚 ∗ Y𝑚² − 𝑌²
𝑁

Les écarts-type marginaux sont:

σ = 𝑉

σ = 𝑉

On désigne par 𝐂𝐨𝐯(𝐗, 𝐘) et 𝝈 (𝑿, 𝒀) les valeurs suivantes:


𝒎 𝒒𝒍 𝒑
𝟏
𝐂𝐨𝐯(𝐗, 𝐘) = 𝒏𝒍𝒎 (𝑿𝒍 ∗ 𝒀𝒎) − 𝒀 ∗ 𝑿
𝑵
𝒎 𝟏𝒍 𝟏

Page 15
Statistique descriptive & probabilités

𝝈 (𝑿, 𝒀) = 𝐂𝐨𝐯(𝐗, 𝐘)

4.1. Ajustement graphique:


On étudiera au moyen d’un graphique, s’il existe une relation entre ces deux
variables et quelle est la nature de cette relation.

On trace une courbe qu’on appelle « courbe de régression » et qui passe entre les
observations d’un nuage de points.
Le plus souvent, on essaie de tracer une droite que l’on désigne alors par « droite
de régression » ou « droite de tendance ».

Et on dira qu’on a « une liaison linéaire » entre les variables.

Page 16
Statistique descriptive & probabilités

4.2. L’ajustement analytique:


L’ajustement analytique consiste à déterminer la fonction dont la courbe
s’adapte de la façon la plus satisfaisante aux observations faites, c’est à dire la
courbe la plus proche des points du nuage.

Pour ceci on cherche la fonction 𝑓 telle que les différences (𝑌𝑚 − 𝑓(𝑋𝑙)) avec
𝑙 ∊ {1, … , 𝑝} et 𝑚 ∊ {1, … , 𝑞}, soient minimales.

Page 17
Statistique descriptive & probabilités

Effectivement, la méthode des moindres carrés consiste à déterminer 𝑓 telle la


somme des carrés de ces différences

𝑛 ∗ (𝑌𝑚 − 𝑓(𝑋𝑙)) ²

soit minimale.

4.3. Ajustement linéaire:


Pour un ajustement linéaire on détermine deux paramètres a et b tels que la
droite d’équation 𝒚 = 𝒂. 𝒙 + 𝒃, soit proche des points du nuage.

Par la méthode des moindres carrés on trouve que:

𝐂𝐨𝐯(𝐗, 𝐘)
𝒂 =
𝑽𝑿

𝒃 = 𝒀−𝒂𝑿

Remarque

La droite de régression passe par le point de coordonnées ( 𝑿; 𝒀 ) qu’on appelle


point moyen.

Page 18
Statistique descriptive & probabilités

4.4. Coefficient de corrélation :


On définit ici un autre paramètre qu’on appelle « coefficient de corrélation » qui
mesure la plus ou moins grande dépendance entre les deux caractères X et Y.
On le désigne par la lettre "r", il varie entre -1 et +1 et il est calculé comme suit:

𝐂𝐨𝐯(𝐗, 𝐘)
𝐫 =
𝝈𝑿 ∗ 𝝈𝒀

Plus r est proche de +1 ou de -1, plus les deux caractères sont dépendants.

Plus il est proche de 0, plus les deux caractères sont indépendants.

Page 19
Statistique descriptive & probabilités

Chapitre.3
Analyse combinatoire et notion de
probabilités

1.1. Principe fondamental de l’analyse combinatoire:


Si une procédure quelconque peut être représentée de 𝑛 façons différentes, si
après cette procédure, une seconde peut être représentée de 𝑛 façons différentes
et si ensuite une troisième procédure peut être représentée de 𝑛 façons
différentes et ainsi de suite

Alors le nombre de façons différentes permettant d’exécuter les procédures dans


l’ordre indiqué est égal au produit

𝑛 .𝑛 .𝑛 …

Exemple
Supposons qu’une plaque d’immatriculation contient deux lettres distinctes suivies
de trois chiffres dont le premier est différent de zéro Combien de plaques
différentes peut-on imprimer?

Il y a 26 façons différentes d’imprimer la première lettre, 25 façons différentes


d’imprimer la seconde lettre , 9 façons différentes d’imprimer le premier chiffre et
10 pour les deux autres.

On en déduit que l’on peut imprimer 26 ⨯ 25 ⨯ 9 ⨯ 10 ⨯ 10 = 585000 plaques


différentes

1.2. Arrangements et permutations:


On appelle permutation, un arrangement de n objets considérés en même temps
et pris dans un ordre donné.

L’arrangement de p de ces n objets (avec p ⩽ n) dans un ordre donné est dit


arrangement d’indice p de n objets.

Page 20
Statistique descriptive & probabilités

On note par 𝐴 le nombre de ces arrangement d’indice p

Théorème 1:
𝑛!
𝐴 =
(𝑛 − 𝑝)!

Avec 𝑛! = 1 ⨯ 2 ⨯ … ⨯ 𝑛 est le produit des entiers positifs de 1 à n

Lire « factorielle n ».

Et par convention 0! = 1.

Si p=n, 𝐴 = 𝑛!, donc le nombre de permutations de n objets est 𝑛!

1.3. Permutations avec répétition:


Théorème 2:
Le nombre de permutations de n objets dont 𝑛 sont semblables, 𝑛 sont
semblables … et 𝑛 sont semblables est

𝑛!
𝑛 ! ⨯𝑛 !⨯ …⨯ 𝑛 !

1.4. Combinaisons:
On appelle combinaison de p objets parmi n, un sous ensemble contenant p
éléments.
𝑛
On désigne par 𝐶 ou 𝑝 le nombre de combinaisons de p objets parmi n.

Théorème 3:
𝑛 𝐴
𝑝 =𝐶 =
𝑝!

Propriétés:

1. 𝐶 =1= 𝐶
2. 𝐶 =𝑛= 𝐶
3. 𝐶 = 𝐶 pour tout 1 ⩽ p ⩽ n.

Page 21
Statistique descriptive & probabilités

4. 𝐶 + 𝐶 = 𝐶 pour tout 1⩽p⩽n


5. La formule de binôme:
Pour tout a et x dans IR et tout n dans IN on a: (𝑥 + 𝑎) = ∑ 𝑥 𝑎

1.5. Diagramme arborescent:


Un diagramme en arbre est un moyen commode de dénombrer tous les
résultats possibles d’une suite d’expériences dont chacune peut avoir lieu un
nombre fini de fois.

Exemple:
Déterminer les éléments de l’ensemble produit AxBxC avec A={1, 2}, B={a, b, c}

et C={3, 4}

Page 22
Statistique descriptive & probabilités

2.1. Ensemble fondamental et événements :


2.1.1. Définitions :
L’ensemble S de tous les résultats possibles d’une expérience donnée est appelé
ensemble fondamental.

Chaque résultat, c’est-à-dire un élément de S s’appelle un point de S.

Un événement A est un sous-ensemble de l’ensemble fondamental S.

L’événement {a} consistant d’un seul point a de S est appelé événement


élémentaire.

L’ensemble vide ∅ est l’événement impossible.

S est l’événement sûr ou certain.

A ⋃ B est l’événement qui se produit si A ou B est réalisé.

A ⋂ B est l’événement qui se produit si A et B sont tous deux réalisés.

Le complémentaire de A, qu’on note par 𝐴̅, est l’événement qui se produit si A


n’est pas réalisé.

2.1.2. Exemples :
Exemple1 :
On jette un dé et l’on observe le résultat obtenu.

L’ensemble fondamental est : S = { 1, 2, 3, 4, 5, 6 }

Soient A, B et C les événements correspondants respectivement à l’apparition d’un


nombre pair, d’un nombre impaire et d’un nombre premier.

A = { 2, 4, 6 }, B = { 1, 3, 5 } et C = { 2, 3, 5 }.

A ⋂ B = ∅, A ⋃ C = { 2, 3, 4, 5, 6 } et B ⋂ C = { 3, 5 }.

Page 23
Statistique descriptive & probabilités

Exemple2 :
On jette une pièce de monnaie et l’on observe la suite de piles P et de face F
obtenue.

L’ensemble fondamental est : S = {FFF, FFP, FPF, FPP, PFF, PFP, PPF, PPP }.

Exemple3 :
On jette une pièce de monnaie jusqu’à ce que l’on obtienne face, et l’on compte le
nombre de fois que l’on a jeté la pièce.

L’ensemble fondamental est : S = { 1, 2, 3, . . . , ∞ }.

C’est un exemple d’ensemble fondamental infiniment dénombrable.

2.2. Axiomes du calcul des probabilités :


Soit S un ensemble fondamental, E la famille des événements et P une fonction à
valeurs réelles définie sur E.

Définition :
On dit que P est une fonction de probabilité et que P(A) est la probabilité de
l’événement A si l’on a les axiomes suivants :

I. Pour chaque événement A : 0 ≤ P(A) ≤ 1.

II. P(S) = 1.

III. Si A et B sont des événements qui s’excluent mutuellement alors,


P(A ∪ B) = 𝑃(𝐴) + 𝑃(𝐵).

IV. Si A , A , A . . . est une suite d′événements qui s’excluent mutuellement


alors, P(A ∪ A ∪ A ∪. . . ) = 𝑃(A ) + 𝑃( A ) + 𝑃( A ) + . . . .

Conséquences :
1) P(∅) = 0.

2) P (A) = 1 − P(A) avec A est le complémentaire de A.

Page 24
Statistique descriptive & probabilités

3) Pour deux événements A et B on a :


P (A \ B) = P(A) − P(A ∩ B) et
P (A ∪ B) = P(A) + P(B) − P(A ∩ B)

4) A, B et C étant des événements. On a :

P (A ∪ B ∪ C)
= P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(C ∩ B) + P(A ∩ B ∩ C)

2.3. Ensembles probabilisés finis :


Soit S = { a , a , a , . . . , a } un ensemble fondamental fini.

Définition :
Si à chaque point a de S on attribue un nombre réel p , qu’on appelle
probabilité de a vérifiant les propriétés suivantes :

I. Pour tout k on a : 0 ≤ p ≤ 1.

II. La somme des p est égale à 1 : p + p + . . . + p = 1.

On dit que S est ensemble probabilisé fini.

On définit alors la probabilité P(A) d’un événement quelconque A, comme étant la


somme des probabilités des points de A.

Exemple4 :
On jette à l’air trois pièces de monnaie et l’on observe le nombre de faces obtenu.

Les résultats possibles sont :

{ PPP ; PPF ; PFP ; PFF ; FPP ; FPF ; FFP ; FFF}.

Mais l’ensemble fondamental est S = {0 ; 1 ; 2 ; 3 }.

On pose : p(0) = ; p(1) = ; p(2) = et p(3) = .

S est ainsi un ensemble probabilisé fini.

Soit A l’événement tel qu’on ait au moins une fois face et B l’événement qui
correspondrait à soit trois faces ou trois piles, c’est à dire que : A = {1 ; 2 ; 3} et
B = {0 ; 3}.

Page 25
Statistique descriptive & probabilités

On a donc, P(A) = p(1) + p(2) + p(3) = et P(B) = p(0) + p(3) =

2.4. Ensembles finis équiprobables:


Un ensemble probabilisé fini S, où chaque élément a la même probabilité est
appelé espace équiprobable ou uniforme.

Si S contient n points alors la probabilité de chaque point est .

D’autre part, si un événement A est formé de r points, sa probabilité est alors


r× = .

Exemple5 :
1) Quand on jette un dé bien équilibré.

2) Quand on tire une carte d’un jeu de carte ordinaire.

3) Quand on jette trois pièces de monnaie bien équilibrées.

3. 1. Probabilité conditionnelle :
Soit E un événement arbitraire d’un ensemble fondamental S tel que : P(E) > 0.

Définition :
La probabilité pour qu’un événement A se produise, l’événement E s’étant produit
auparavant, ou en d’autres termes, la probabilité conditionnelle de A sachant que
( ∩ )
E est réalisé, que l’on écrit 𝑃 𝐴 𝐸 𝑜𝑢 𝑃 (𝐴) est définie par : 𝑃 (𝐴) = ( )

Exemple6 :
On jette une paire de dés bien équilibrés.

Sachant que la somme est égale à 6, calculer la probabilité pour qu’au moins l’un
des dés ait donné un 2.

Pour ceci on a :

E = ‘’ La somme égale à 6’’

Page 26
Statistique descriptive & probabilités

= { (1 ; 5) , (2 ; 4), (3 ; 3), (4 ; 2), (5 ; 1)}

A = ‘’Au moins l’un des dés donne 2’’

= { (2 ; 1), (2 ; 2), (2 ; 3), (2 ; 4), (2 ; 5), (2 ; 6), (1 ; 2), (3 ; 2), (4 ; 2), (5 ; 2), (6 ; 2)}
( ∩ )
A ∩ E = { (2 ; 4), (4 ; 2) } . D’où 𝑃 (𝐴) = ( )
=

Théorème de la multiplication :
A et E deux événements tels que : P(E) > 0. On a donc 𝑃(𝐴 ∩ 𝐸) = 𝑃(𝐸). 𝑃 (𝐴)

Ce théorème peut être généralisé pour des événements quelconques


A , A , A . . . A et on prouve qu’on a le résultat suivant :

P(A ∩ A ∩ A ∩ . . .∩ A )

= 𝑃(A ). 𝑃 ( A ). 𝑃 ∩ ( A ). 𝑃 ∩ ∩ ( A ). . . . 𝑃 ∩ ∩ ∩ . . .∩ (A )

Théorème de Bayes :
Soit B un événement et A , A , A . . . A une partition de S, c’est à dire que :

Les événements A , A , A . . . A s’excluent mutuellement deux à deux et


A ∪ A ∪ A ∪ . . .∪ A = 𝑆.

On a alors l’égalité suivante :

P(B) = 𝑃(A ). 𝑃 (B) + 𝑃(A ). 𝑃 (B) + 𝑃(A ). 𝑃 (B)+ . . . + 𝑃(A ). 𝑃 (B)

Exemple7 :

On jette une pièce de monnaie truquée de telle sorte que : p(F) = et p(P)=

Si c’est face qui apparaît, on choisit au hasard l’un des nombres allant de 1 à 9.

Si c’est pile que l’on obtient, on choisit au hasard l’un des nombres allant de 1 à 5.

Calculer la probabilité p pour que ce soit un nombre pair qui ait été choisi.

On considère les événements suivants :

Page 27
Statistique descriptive & probabilités

F = ‘’ Avoir face’’, P = ‘’ Avoir pile’’ et P’ = ‘’ Avoir un nombre pair’’

On a alors,

p = P(P’)

= P(P ∩ F) + P(P ∩ P)

= 𝑃(F). 𝑃 (P′) + 𝑃(P). 𝑃 (P′)

= × + × =

C’est le théorème de Bayes

On peut lire cette probabilité demandée sur le diagramme en arbre avec les
probabilités correspondantes comme suit :

Remarquer qu’il y a deux chemins qui mènent à P’ et la probabilité de cet


événement est la somme des produits de probabilités mentionnées tout au long d’un
même chemin.

3. 2.Indépendance :
Définition :
On dit qu’un événement B est indépendant d’un événement A avec P(A)≠ 0 si :

𝑃 (B) = 𝑃(𝐵)

Conséquence :
A et B sont indépendants si et seulement si P(A ⋂ B) = P(A).P(B)

Page 28
Statistique descriptive & probabilités

Chapitre.4
Variables aléatoires discrètes

1.1 Définition
Une variable aléatoire X sur un ensemble fondamental S est une fonction de S
dans l’ensemble ℝ des nombres réels.

Si S est un ensemble discret, toute fonction à valeurs réelles, définie sur S est une
variable aléatoire. Et dans ce cas, on parle d’une variable aléatoire discrète.

1.2Exemple
On jette une pièce de monnaie trois fois, et l’on observe la suite de piles (P) et
de faces (F) obtenue.

Par suite, l’ensemble fondamental est :

𝑆 = {𝐹𝐹𝐹; 𝐹𝐹𝑃; 𝐹𝑃𝐹; 𝐹𝑃𝑃; 𝑃𝐹𝐹; 𝑃𝐹𝑃; 𝑃𝑃𝐹; 𝑃𝑃𝑃 }

Soit X la variable aléatoire qui à chaque point de S fait correspondre le nombre


de « faces » qui soit apparu. On a :

X(PPP) = 0, X(FPP) = X(PFP) = X(FPP) = 1, X(FFP) = X(FPF) = X(PFF) = 2

et X(FFF) = 3.

L’espace image de X est X(S) = {0, 1, 2, 3}

1.3 Opérations sur les variables aléatoires :

On considère deux variables aléatoires X et Y définies sur le même ensemble


fondamental S.

Page 29
Statistique descriptive & probabilités

Propriété :
On définit les variables aléatoires X+Y, X + k, k.X et X.Y ( où k est un nombre
réel) sur l’ ensemble fondamental S de la manière suivante :

Pour tout s de S on a :

(X + Y)(s) = X(s) + y(s), (X +k)(s) = X(s) + k,

(k.X)(s) = k.(X(s)) et (X.Y)(s) = X(s).Y(s).

Notations :
On utilise les notations abrégées 𝑃( 𝑋 = 𝑎) 𝑒𝑡 𝑃( 𝑎 ≤ 𝑋 ≤ 𝑏) pour désigner les
probabilités :

𝑃( 𝑋 = 𝑎) = 𝑃({𝑠 ∊ 𝑆 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑋(𝑠) = 𝑎}

𝑃( 𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃({𝑠 ∊ 𝑆 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑎 ≤ 𝑋(𝑠) ≤ 𝑏}

2.1 Définition :
Soit X une variable aléatoire sur un ensemble fondamental S à valeurs finies. C’est
à dire 𝑋(𝑆) = { 𝑥 , 𝑥 , . . . , 𝑥 } .

X(S) devient un espace probabilisé si l’on définit la probabilité P( X = 𝑥 ) des 𝑥


que l’écrira f(𝑥 ).

Cette fonction f sur X(S) qui est définie par f(𝑥 )= P( X = 𝑥 ) est ce que l’on
appelle la distribution ou la loi de probabilité de X, que l’on donne habituellement
sous la forme d’’un tableau :

𝑥 𝑥 𝑥 … …
𝑓(𝑥 ) 𝑓(𝑥 ) 𝑓(𝑥 ) … …

La loi de probabilité f satisfait les conditions suivantes

(∀i, f(x ) ≥ 0) et f(x ) = 1

Page 30
Statistique descriptive & probabilités

2.2 Définition de l’espérance mathématique :


Si X est une variable aléatoire ayant la loi de probabilité précédente, la moyenne
ou l’espérance mathématique de la variable X que l’on note par E(X) est définie
par :

𝐸(𝑋) = 𝑥 × 𝑓(𝑥 )

Page 31
Statistique descriptive & probabilités

Page 32
Statistique descriptive & probabilités

Page 33
Statistique descriptive & probabilités

Page 34
Statistique descriptive & probabilités

Page 35
Statistique descriptive & probabilités

Page 36
Statistique descriptive & probabilités

Page 37
Statistique descriptive & probabilités

Page 38
Statistique descriptive & probabilités

Page 39
Statistique descriptive & probabilités

Page 40
Statistique descriptive & probabilités

Page 41
Statistique descriptive & probabilités

Page 42
Statistique descriptive & probabilités

Page 43
Statistique descriptive & probabilités

Approximation normale de la distribution binomiale:

La distribution binomiale est très voisine de la distribution normale, pourvu que n


soit grand et que ni p, ni q ne soient trop proches de zéro.

Page 44
Statistique descriptive & probabilités

Exemple :
X suit la loi binomiale B( n= 8 ; p = 0,5) dont la loi de probabilité est donnée par le
tableau suivant :

Graphiquement, on s’aperçoit que cette distribution peut être approchée par une
distribution normale.

Représentations comparées des distributions binomiale et normale.

La propriété précédente de la loi probabilité normale se généralise grâce au


Théorème Central Limite suivant :

Théorème Central Limite :


Soit (𝑋 ) une suite de variables aléatoires définies sur un même espace
probabilisé, deux à deux indépendantes, et toutes de même loi, d'espérance
mathématique µ de variance 𝜎 .

On note 𝑆 = ∑ 𝑋 la somme des variables aléatoires (𝑋 ; 𝑋 ; . . . ; 𝑋 ) et


𝑀 = ∑ 𝑋 leur moyenne.

Page 45
Statistique descriptive & probabilités

Alors :
µ
𝐸(𝑀 ) = µ , 𝑉(𝑀 ) = et pour n assez grand, la loi de 𝑍 = ; la

variable centrée réduite associée à 𝑀 ; est voisine de la loi normale centrée
réduite N(0 ;1).

Exemple :
On jette 180 fois un dé bien équilibré.

Calculer la probabilité pour que la face 6 sorte entre 29 et 32 fois, bornes


incluses.

Soit X le nombre de fois oú la face 6 apparait, alors X suit la loi binomiale B(180 ;
p= 1/6) et E(X) = n.p = 30 et V(X) = n.p.q = 25.

Pour calculer𝑃( 29 ≤ X ≤ 32), on applique l’approximation gaussienne. C’’est à dire


que 𝑋 ≅ 𝑌 avec Y suit la loi normale N(30 ; 5) de telle sorte que E(X) = E(Y) = 30
et V(X) = V(Y) = 25.

Donc par passage du discret au continu on écrit :

𝑃( 29 ≤ X ≤ 32) ≅ 𝑃( 29 − 0,5 ≤ Y ≤ 32 + 0,5).

Par conséquent

𝑃( 29 ≤ X ≤ 32) ≅ 𝑃( 28,5 ≤ Y ≤ 32,5) = 𝑃(−0,3 ≤ 𝑌 ∗ ≤ 0,5) = 0,3094

Page 46
Statistique descriptive & probabilités

Page 47
Statistique descriptive & probabilités

1- Fabrice MAZEROLLE
Statistique descriptive
Gualino éditeur (2006)

2- N. BRILLOUET – BELLUOT
Introduction aux probabilités et à la statistique
http://fribok.blogspot.com

3- Seymour LIPSCHUTZ
Probabilité
Serie Schaum

4- W.MASIERI
Notions essentielles de Statistiques et calcul des probabilités.
Sirey 1970

Page 48

Vous aimerez peut-être aussi