Académique Documents
Professionnel Documents
Culture Documents
GENERALITES
une variable aléatoire est généralement l'ensemble des résultats possibles
d'une expérience aléatoire (Exemple: un lancer de dé, un lancer d’un pièce de
monnaie, la source générant un signal binaire ,,,,etc).
Exemples:
Une variable aléatoire qui peut prendre n'importe quelle valeur dans un certain
intervalle de nombres réels est dit continu.
Exemples:
Une variable aléatoire qui peut prendre en même temps des valeurs discrètes
et continues.
Exemple:
(1)f(xi ) doit être non négatif pour chaque valeur de la variable aléatoire,
1 f(xi ) 0
(2) la somme des probabilités pour chaque valeur de la variable aléatoire doit
être égale à un.
STATISTIQUES DES VARIABLES ALEATOIRES
f(xi )
xi X
Densité de probabilité d’une variable aléatoire discrète
x p(X x ) p
i i i
n
p 1
i
i 1
STATISTIQUES DES VARIABLES ALEATOIRES
Une variable aléatoire continue peut prendre n'importe quelle valeur dans un
intervalle de valeurs réelle ou dans une collection d'intervalles.
b
P(a X b) = f ( x ) dx = P(X b) - P(X a)
a
avec
f ( x ) dx 1
STATISTIQUES DES VARIABLES ALEATOIRES
Une fonction de répartition d’une variable aléatoire x est une fonction F(x) qui,
pour tout x, indique la probabilité pour que x soit inférieur ou égal à x1. Elle
correspond donc à la distribution cumulée,
F(k)= P(X≤k)
F ( x) f ( x ) dx
1
0 ≤ F(x) ≤ 1
0
STATISTIQUES DES VARIABLES ALEATOIRES
ESPERANCE MATHEMATIQUE
La variance d'une variable aléatoire, notée Var(X) ou σ2, est une moyenne
pondérée des écarts au carré de la moyenne.
•Dans le cas discret, les poids sont donnés par la fonction de probabilité,
•Dans le cas continu, les poids sont donnés par la fonction de densité de
probabilité.
L'écart type, noté σ, est la racine carrée positive de la variance. Étant donné que
l'écart-type est mesuré dans les mêmes unités que la variable aléatoire et que
la variance est mesurée en unités au carré, l'écart-type est souvent la mesure
préférée.
Les symboles générés par la source sont formés par 3 lettres de l’alphabet
français à savoir a, n et b, mais pas avec la même loi de probabilité, si on se
restreint à cet exemple basic.
Exemple 2:
Soit un bloc d’images en niveaux de gris de taille 8 × 8 pixels
10 10 10 15 20 20 20 20
0 0 0 0
15 5 25 25 20 20 20 20
5 5 0 0 0 0
10 15 10 5 20 20 20 20
0 0 0 0
10 10 10 15 20 20 20 20
0 0 0 0
15 5 25 25 10 20 10 20
5 5 0 0 0 0
Ces niveaux de gris sont10 normalement
15 10 5 compris
10 20entre 10 0 et
20255, ce qui justifie
le choix habituel d’un codage de taille fixe de 08 bits
0 par0pixel.
0
20 30 30 30 10 20 10 20
1- Tracer sa densité de probabilité 0 0 0 0
2- Sa fonction de répartition
20 15 20 20 10 20 10 20
3- Calculer son espérance mathématique,
0 sa 0variance
0 et
0 son
0 écart type
STATISTIQUES DES VARIABLES ALEATOIRES
1.Propriété de l’addition :
Démonstration:
E(cX) = cE(X)
STATISTIQUES DES VARIABLES ALEATOIRES
3. Propriété de linéarité :
A partir des deux propriétés précédentes nous pouvons généraliser la
propriété de linéarité de l’espérance mathématique
5.Multiplication
E (XY) = E (X) E (Y). Ici, X et Y doivent être indépendants.
Propriétés de la variance
1.Propriété 1
Propriétés de la variance
4. Propriété 4
Considérons d'abord le cas dans lequel deux variables aléatoires sont discrètes.
C’est un cas très répondu surtout en télécommunications numériques où les
données discrètes de l’émission et celles reçus,
Nous allons donc étendre plusieurs des définitions que nous avons apprises
pour une variable aléatoire discrète, telle que la fonction de masse de
probabilité, la moyenne et la variance, au cas où nous ont deux variables
aléatoires discrètes.
Soit deux variables aléatoire X et Y chacune pouvant prendre une valeur dans
un ensemble de 4 valeurs possibles équiprobables (même probabilité pour les
4 valeurs) :
X = {1, 2, 3, 4} et Y = {1, 2, 3, 4}
(x, y) désigne l'un des résultats possibles pour les deux variables
simultanément.
CAS DE DEUX VARIABLES ALEATOIRES DISCRETES
S = {(1,1) ; (1,2) ; (1,3) ; (1,4) ; (2,1) ; (2,2) ; (2,3) ; (2,4) ; (3,1) ; (3,2) ; (3,3) ; (3,4) ;
(4,1) ; (4,2) ; (4,3) ; (4,4) }
P(X=x,Y=y) = 1/16
Soit X une variable aléatoire discrète avec le support S1, et soit Y une variable
aléatoire discrète avec le support S2.
Indépendance et dépendance de 2 va
Soit maintenant, une fonction de probabilité conjointe f (x, y), et que nous
voulions trouver la moyenne statistique de X (notée E(X)).
Nous allons maintenant examiner comment l'une des deux variables aléatoires,
disons Y, se comporte étant donné qu'une autre variable aléatoire, disons X,
s'est déjà comportée d'une certaine manière.
Exemple:
Soit X une variable aléatoire discrète avec support S1 = {0,1}, et soit Y une
variable aléatoire discrète avec support S2 = {0, 1, 2}.
Solution de l’exemple:
CANAL
Sourc Codages
e Décodage
Source/Canal P(Y/X) Canal / Source
M C C’ M’
M : Message, variable aléatoire, délivré par la source sous forme d’un alphabet
original {m1, …., ml}
C : les mots de code sous forme d’un alphabet aléatoire {c1, …., cn}
C’ : les mots de code reçu avec présence d’erreurs {c’1, …., c’n}
M’ : les données reconstruites avec présence éventuelles d’une certaine perte
RELATION ENTRE DEUX VARIABLES ALEATOIRES
FONCTION DE DENSITE CONJOINTE
Le comportement conjoint de X et Y est entièrement capturé dans la
distribution de probabilité conjointe. Pour une distribution continue
Exemple
Dans cet exemple nous avons trois (03) exemples qui nous montrent les corrélations
possibles entre deux variables aléatoires X et Y :
1.Dans le premier exemple il y’a une corrélation positive
2.Dans le deuxième cas les deux variables ne sont pas corrélées
3.Dans le troisième exemple il y’a une corrélation mais négative
RELATION ENTRE DEUX VARIABLES ALEATOIRES
FONCTION DE CORRELATION ENTRE DEUX VARIABLES ALEATOIRES
Rappels :
Comme nous venons de le voir, chaque variable aléatoire M={m1, m2,........, mK},
est régit par une probabilité d’apparition {P(m1), P(m2),........, P(mk)}. Ceci, nous
permet donc de définir les concepts de base de la théorie d’information à
savoir :
Plus l'entropie d’une variable aléatoire (va) est grande, plus il y’a de
l’information délivrée par cette va et bien entendu l'incertitude est plus élevée.
On montre que pour une loi de probabilité équiprobable (m, P(mk)=p, et p=1)
nous aurons une entropie maximale égale à :
H M log 2
P m k log 2 p
ENTROPIE D’UNE VARIABLE ALEATOIRE
H M p log 2
p (1 p ) log 2 1 p
Evidemment, cette entropie est maximale pour cette source compte tenu que
la loi de probabilité qui la régie est équiprobable.
Dans le cas d’une loi quelconque régissant une source de K éléments nous
avons:
H M log 2
K H M 1
REDONDANCE D’UNE VARIABLE ALEATOIRE
H max
M log 2
K
Une va dont l’entropie est faible est plus redondante. Autrement dit, il y’a moins
d’incertitude et donc moins d’information délivrée par la va et par conséquence
trop de redondance.
ENTROPIE MUTUELLE
Pour mieux comprendre ces définitions et cette figure prenons le cas d’un
système de transmission sous sa forme la plus simple
source canal Récepteur
Loi binomiale
Deux des distributions de probabilité discrètes les plus utilisées sont :
n k n!
p(X k) C n
k k
p q avec
k
Cn
k! (n k)!
Une variable Binomiale est donc une variable aléatoire X correspondant à la
somme de n variables de Bernoulli. Notée X : B(n,p)
Où X = nombre de succès au cours de n épreuves de Bernoulli identiques et
indépendantes,
55
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
3 enfant = n
B(3, 0,5) =
n k n!
p(X k) C n
k k
p q avec
k
Cn 56
k! (n k)!
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Loi de probabilité d’une loi binomiale
E(X) = np
Variance d’une loi binomiale
V(X) = np(1-p)
57
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
Supposons que l'on sache que 10% des propriétaires d'automobiles de deux
ans ont eu des problèmes avec le système électrique de leur automobile. Pour
calculer la probabilité de trouver exactement 2 propriétaires qui ont eu des
problèmes de système électrique sur un groupe de 10 propriétaires, la fonction
de probabilité binomiale peut être utilisée en définissant n = 10, x = 2 et p = 0,1
dans l'équation suivante; dans ce cas, la probabilité est de 0,1937.
n k n!
p(X k) C n
k k
p q avec
k
Cn
k! (n k)!
58
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
59
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
n k n!
p(X k) C
k
p
k
q avec C
k
k)!
n n
k! (n
X=0 GGGG q4 0.0625
X=1 FGGG, GFGG, GGFG, GGGF 4q3p 0.25
X=2 FFGG, FGFG, FGGF, GFFG, GFGF, GGFF 6q2p2 0.375
X=3 FFFG, FFGF, FGFF, GFFF 4qp3 0,25
X=4 FFFF p4 0,0625
somme = 1
60
Indépendance statistique p (G G G G) = q.q.q.q = q4
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
B(2,0.5)= 2 0
0,5 0,5 =0,25
B(7,0.5)?
n k n!
p(X k) Cn k
p
k
q avec C
k
k)!
n
k! (n
61
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
x P(x)
0 0.25
1 0.5
2 0.25
62
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
Symétrique!!
63
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
B(5,0.25)???
64
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Exemple:
Dissymétrique!!!!
65
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Espérance mathématique n
E ( x) P ( xi ) xi
i 1
Exemple:
Quelle est l’espérance mathématique du nombre de garçons dans une famille
de 7 enfants?
E ( x) np 7 0 . 5 3 . 5
66
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi binomiale
Pour une distribution binomiale:
npq
2
Exemple:
Quelle est la variance du nombre de garçons dans une famille de 7 enfants?
7 0 . 5 0 . 5 1 . 75
2
67
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi de Poisson
La distribution de probabilité de Poisson est souvent utilisée comme modèle
du nombre d'arrivées dans une installation au cours d'une période donnée.
Loi de Poisson
Exemple: une variable aléatoire pourrait être définie comme le nombre
d'appels téléphoniques entrant dans un système de réservation d'une
compagnie aérienne pendant une période de 15 minutes. Si le nombre moyen
d'arrivées pendant un intervalle de 15 minutes est connu, la fonction de
probabilité de Poisson donnée par l'équation ci-dessus peut être utilisée pour
calculer la probabilité de x arrivées.
k
Loi de Poisson
70
EXEMPLES DE LOIS DE PROBABILITES DISCRETES
Loi de Poisson
Poisson démontre que :
n! n x
P ( x) q p
x
(n x )! x!
Tend vers:
np
x
np x
P ( x) e ou P ( x ) e
x! x!
71
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi normale
La distribution de probabilité continue la plus largement utilisée en statistique
est la distribution de probabilité normale.
Une variable aléatoire est une variable normale quand elle dépend d’un grand
nombre de causes indépendantes dont aucune n’est prépondérante.
1 x 2
1 ( )
Densité de probabilité: f ( x) e 2
2
E(X) = V(X) = 2
f symétrique/μ 72
V. EXEMPLES DE LOIS DE PROBABILITES CONTINUES
X
U
U ~ N(0,1)
P (a X b) ? a X b
P( )
X
U
a b
P( U )
P (a' U b' )
a b (b' ) (a ' )
74
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
P( )
ε ~ N(0,1)
1-
/2 /2
0
75
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi du 2 de Pearson
définie par : 2 X
2
1
2 2
X 2 ... X i .... X
2
n
avec X i
~ N ( 0 ,1)
E ( n ) n
2
V ( n ) 2n
2
76
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi de Fisher-Snedecor
2 2
avec U ~ à n ddl et V ~ à p ddl
V p
p
E (F p )
n
p 2
p
2
(n p 2)
n
V (F p ) 2
n ( p 2)( p 4 )
77
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
Loi de Student
E(T) = 0
V(T) = n/n-2
78
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
X i
nE (X )
En particulier: Yn i 1
: N (0,1)
nV ( X )
79
EXEMPLES DE LOIS DE PROBABILITES CONTINUES
80
ESTIMATION
Il est souvent intéressant de connaître les caractéristiques d'un grand groupe
d'éléments tels que les individus, les ménages, les bâtiments, les produits, les
pièces, les clients, etc.
Tous les éléments d'intérêt dans une étude particulière forment la population.
•le point
•l'intervalle.
ESTIMATION
Une estimation ponctuelle est une valeur d'une statistique d'échantillon qui est
utilisée comme une estimation unique d'un paramètre de population.
Les données collectées à partir d'un échantillon aléatoire simple peuvent être
utilisées pour calculer la moyenne de l'échantillon, x̄, où la valeur de x̄ fournit
une estimation ponctuelle de μ.
L'interprétation d'un intervalle de confiance à 95% est que 95% des intervalles
construits de cette manière contiendront la moyenne de la population.
Ainsi, tout intervalle calculé de cette manière a une confiance de 95% pour
contenir la moyenne de la population.
ESTIMATION D’UNE MOYENNE DE POPULATION
En changeant la constante de 1,96 à 1,645, un intervalle de confiance de 90%
peut être obtenu.
Des niveaux de confiance plus faibles conduisent à des intervalles encore plus
étroits. En pratique, un intervalle de confiance de 95% est le plus utilisé.
Les tailles d'échantillon peuvent être choisies de telle sorte que l'intervalle de
confiance satisfasse toutes les exigences souhaitées concernant la taille de la
marge d'erreur.
ESTIMATION D’UNE MOYENNE DE POPULATION
Avec une taille d'échantillon de 25, la valeur t utilisée serait de 2,064, par
rapport à la valeur de distribution de probabilité normale de 1,96 dans le cas du
grand échantillon.
ESTIMATION D’UNE MOYENNE DE POPULATION
Les procédures d'estimation peuvent être étendues à deux populations pour des
études comparatives.
Par exemple, supposons qu'une étude soit menée pour déterminer les différences
entre les salaires versés à une population d'hommes et à une population de
femmes.
La différence entre les deux moyennes d'échantillonnage, x̄1 - x̄2, serait utilisée
comme une estimation ponctuelle de la différence entre les deux moyennes de
population.
Le test d'hypothèse est une forme d'inférence statistique qui utilise les
données d'un échantillon pour tirer des conclusions sur un paramètre de
population ou une distribution de probabilité de population.
Une hypothèse alternative (notée Ha), qui est l'opposé de ce qui est énoncé
dans l'hypothèse nulle, est alors définie.
Les choix courants pour le niveau de signification sont α = 0,05 et α = 0,01. Bien
que la plupart des applications de test d'hypothèse contrôlent la probabilité de
commettre une erreur de type I, elles ne contrôlent pas toujours la probabilité
de commettre une erreur de type II.
TESTS D’HYPOTHESES
Un concept connu sous le nom de valeur p fournit une base pratique pour tirer
des conclusions dans les applications de test d'hypothèses.
les écarts types et les médianes. Des tests d'hypothèse sont également
effectués dans l'analyse de régression et de corrélation pour déterminer si la
relation de régression et le coefficient de corrélation sont statistiquement
significatifs (voir ci-dessous Analyse de régression et de corrélation).
Les statisticiens classiques affirment que pour cette raison, les méthodes
bayésiennes souffrent d'un manque d'objectivité.