Académique Documents
Professionnel Documents
Culture Documents
PROBABILITES (20h00/15h00/10h00)
C.T. MAKALA MAKAMBU JOVIN GRATIEN
PLAN DU COURS
Chapitre 0 : Introduction
4.4. Applications
1
CHAPITRE 0 : INTRODUCTION
0. 1. OBJECTIF DU COURS
Le cours permet également à l’étudiant d’approfondir les techniques statistiques qui seront utiles
pour résoudre les problèmes fréquemment rencontrés par les décideurs dans la vie professionnelle
(sondages, gestion des unités de production, études de marché, enquêtes d’opinion, contrôle, impact
d’un événement d’un phénomène ou d’une action sur une grandeur mesurée, audit, prévision,
planification des besoins, décisions financières et comportements stratégiques, etc.). La Statistique
inférentielle permet de prédire, de déduire ou de modéliser. Il s’agit de faire parler des données en
environnement, économie, production industrielle, contrôle de qualité, sociologie, psychologie, en
santé, etc.
Le cours présente les principales applications des calculs des probabilités à la statistique
(échantillonnage, estimation, principaux tests, etc.). La problématique de l’inférence statistique consiste,
à partir d’un échantillon de données provenant d’une population de loi de probabilité inconnue, à
déduire des propriétés sur cette population : quelle est sa loi (problème d’estimation), comment prendre
une décision en contrôlant au mieux le risque de se tromper (problème de test).La première partie c’est-
à-dire la Statistique Inférentielle 1 est consacrée à un complément de calcul des probabilités axé sur
l’extension de la notion de variable aléatoire, les lois usuelles, relations entre probabilités et statistiques,
ajustement d’une distribution observée à une loi théorique. La seconde partie c’est-à-dire la Statistique
Inférentielle 2 vise à étudier l’échantillonnage et les problèmes de jugements de l’échantillon. Le cours
fait appel à la statistique, le calcul et la théorie des probabilités et les mathématiques.
2
A cette fin, on choisit à priori une loi de probabilité (souvent une loi normale ou de Gauss ou
une autre loi si elle n‘est pas normale) et l‘on s‘efforce d‘en déterminer les paramètres (E(X) et σ(X)).
Pour ce faire, on relève par les méthodes statistiques descriptives qu‘on exposera dans le cours de
Statistique Inférentielle 2 (cfr Chapitre 1 : Théorie d’échantillonnage) les valeurs de la moyenne et de
l‘écart type d‘un échantillon dont on peut disposer. (il vaut mieux que cet échantillon soit déjà d‘une
certaine taille, mais on peut également tirer partie d‘échantillons petits et même très petits).
Ces valeurs des paramètres de position E(X) et de dispersion σ(X) de la distribution de l‘échantillon
permettent, au prix de certaines « manipulations », d‘évaluer avec une marge d‘incertitude connue, les
paramètres de la distribution de la population. La technique de ces manipulations porte le nom de
théorie de l’estimation objet du chapitre 2 du cours de Statistique Inférentielle 2.
Le domaine de la statistique mathématique ne se limite pas à la seule théorie d‘estimation. Il s‘étend
notamment à la théorie des tests d’hypothèses (objet du dernier chapitre du cours de Statistique
Inférentielle 2) dont nous définissons l‘objet dans deux cas particuliers importants :
- Nous pouvons d‘abord nous trouver amené à comparer entre deux échantillons ; il est normal qu‘ils ne
soient pas strictement identiques même tirés d‘une population mère unique, puisqu‘ils ont été constitués
par tirages aléatoires ; mais on peut se demander à partir de quel seuil les différences constatées entre
ces deux échantillons sont significatifs, c‘est-à-dire non explicables par le seul hasard de
l‘échantillonnage ; en d‘autres termes, dans quelle mesure peut-on dire que deux échantillons extraits
d‘une même population
- Un autre cas, très fréquent en matière de contrôle des fabrications, est celui de la conformité à un
standard : il s‘agit de déterminer le seuil à partir duquel on est en droit de juger que les écarts entre les
caractéristiques mesurées sur un échantillon et les valeurs standard deviennent significatifs d‘un défaut
généralisé de fabrication, c‘est-à-dire ne sont plus imputables aux seuls aléas du prélèvement de
l‘échantillon.
La détermination de ces seuils fait appel à la méthode des tests d’hypothèses ainsi appelée parce qu‘on
part toujours d‘une hypothèse a priori : dans le premier cas, on part de l‘hypothèse que les deux
échantillons proviennent d‘une même population mère et, dans le deuxième cas, on part de l‘hypothèse
que les fabrications sont conformes au standard imposé.
Ces tests sont de trois espèces :
- ou bien on veut s‘assurer que l‘échantillon prélevé vérifie bien la loi de distribution adoptée pour la
population ; c’est un test d’ajustement
- ou bien on compare entre eux les différents paramètres observés sur plusieurs échantillons censés
extraits d‘une même population et l‘on apprécie dans quelle mesure les différences observées entre ces
échantillons sont significatives ou non, et, par là même, dans quelle mesure ces échantillons doivent
être considérés comme extraits de populations différentes ou non ; on dit alors qu‘on procède à un test
paramétrique - ou bien on ignore tout des populations dont les échantillons à comparer sont extraits ; on
utilise alors les méthodes des tests non paramétriques. C’est fréquemment le cas au stade de la
recherche expérimentale lorsqu‘on compare les résultats de deux traitements nouveaux et différents
conçus dans un même but.
La Statistique Inférentielle 1 permet d’abord de faire un rappel sur les variables aléatoires et leurs
caractéristiques, d’aborder ensuite les lois de probabilités usuelles ou les plus utilisées et d’établir enfin
les relations existant entre probabilités et statistiques.
3
CHAPITRE 1 : CARACTERISTIQUES D’UNE VARIABLE ALEATOIRE
1.1. Rappel de la notion de variable aléatoire
Travailler directement avec l’ensemble P(Ω) des évènements peut devenir gênant du fait de
l’inconfort qu’occasionnent les données non numériques que cela suppose. Pour contourner cette
contrainte, mais aussi pour rendre opérationnels certains concepts statistiques, il est intéressant
d’introduire des valeurs numériques pour décrire les évènements de P(Ω) même si ces valeurs sont
souvent arbitraires.
1.1.1. Définition de la variable aléatoire discrète
On appelle variable aléatoire discrète définie sur(Ω, A ), une application X : Ω→ R telle que
X(Ω) est dénombrable et telle que pour tout x on ait :
X ( x )= { ω ϵ Ωtel que X ( ω )=x } ϵ A
−1
i
Le quartile qi d’une variable aléatoire X est le quantile d’ordreα = avec i∈ { 1 ,2 , 3 }.
4
i
Le décile di d’une variable aléatoire X est le quantile d’ordre α = avec i {1 ,2 , 3 , 4 , 5 , 6 , 7 , 8 , 9}
10
1.2.1.2 : Mode
Le mode est la valeur la plus probable. C’est la valeur x 0 pour laquelle le diagramme en bâton ou
l’histogramme présente son maximum.
Dans le cas d’une variable aléatoire continue dont la densité f est une fonction continue, admettant
une dérivée f’ et une dérivée seconde f’’, le mode vérifie les relations suivantes :
4
1.2.1.3. Espérance mathématique
a) Définition (variable aléatoire discrètes)
Soit une variable aléatoire discrète X. L’espérance mathématique de X notée E(X) est la
moyenne pondérée de toutes les valeurs possibles xi par les probabilités correspondantes pi.
k k
E ( X )=∑ x i pi=∑ xi P X ( X=x ¿¿ i)¿
i=1 i=1
A la condition que cette série soit absolument convergente. Si ce n’est pas le cas, on dit que
l’espérance mathématique n’existe pas.
5
Si la variable aléatoire X est absolument continue, l’espérance mathématique est l’intégrale
de xf(x) sur IR (intégrale généralisée) lorsqu’elle existe.
+∞
E ( X )=∫ xf ( x ) dx
−∞
En définitive, les propriétés de l’espérance mathématique sont les mêmes que X soit discrète
ou continue.
1°) ∀ a ∈ R , E ( X + a )=E ( X )+ a
2°) ∀ a ∈ R , E ( aX )=aE ( X )
3°) Si X et Y sont deux variables aléatoires admettant chacune une espérance mathématique,
Mk(X)=E[(X-a)k]
a
On appelle moment non centré d’ordre k les moments d’ordre k par rapport à a=0. On le note :
Mk(X)=E(Xk)
Ainsi, on a :
M0(X)=1
M1(X)=E(X)
M2(X)=E(X2)
On appelle moment centré d’ordre k, les moments d’ordre k par rapport a=E(X). On les note par :
μk(X)= E[(X-E(X))k]
Ainsi, on a:
μ0(X)= 1
μ1(X)= 0
6
μ2(X)= E[(X-E(X))2]
1.2.2.2. Variance de X
On appelle variance de la variable aléatoire X le moment centré d’ordre 2 de X.
σ =√ V (X )
L’écart type est un indicateur mesurant la dispersion des valeurs x i que peut prendre la
variable aléatoire X autour de la moyenne en probabilité que représente E(X).
1.2.2.4. Propriétés
Les propriétés de la variance sont les mêmes, que la variable aléatoire X soit discrète ou continue.
i i
iv) ∀ a ∈ R V ( aX ) =a ² V ( X) En effet,
V(aX)=∑ ¿¿ ¿
i
v) V(X)=E(X²)-[E(X)]²
En effet, V(X)= E[(X-E(X)]²= E[X²-2XE(X)+E(X)²]=E(X²)-2E[XE(X)]+E(X)²=E(X²)-2E(X)E(X)
+E(X)²] =E(X²)-2E(X)²+E(X)²=E(X²)-E(X)²
Cette dernière formule est souvent plus simple à calculer. Aussi l’utilise-t-on très souvent
pour calculer V(X).
vi) Soit X et Y, deux variables aléatoires, On définit la covariance de X et Y par :
Cov(X,Y)=E[(X-E(X)(Y-E(Y)]= E(XY)-E(X)E(Y).
On a :
V(X+Y)= V(X) + V(Y) +2 Cov(X,Y)
En effet,
V(X+Y)=E[((X+Y)-E(X+Y))²] = E[((X-E(X) + (Y-E(Y))²]
= E[((X-E(X))²+(Y-E(Y))²+2(X-E(X))(Y-E(Y))]=E[X-E(X)]²+E[Y-E(Y)]²+2E[(X-E(X))(Y-E(Y))]
= V(X) + V(Y) +2 Cov(X,Y).
Si X et Y sont deux variables aléatoires indépendantes, on a Cov(X,Y)=0 d’où
V(X+Y)=V(X)+V(Y)
7
Les moments factoriels sont surtout utilisés dans le cas des variables aléatoires X discrètes
dont les valeurs possibles sont des entiers non négatifs. On note :
μ[k]= E[X(X-1)(X-2)…(X-k+1)]
x!
=∑ p
x ( x−k ) ! x
On a :
μ[1]=E(X)= M1(X)
μ[2]=E[X(X-1)]= M2(X)-M1(X)
μ[3]=E[X(X-1)(X-2)]= M3(X)-3M2(X)+2M1(X)
8
Tous les phénomènes aléatoires sont générés par des lois pour lesquelles il existe des lois de
probabilité ou modèles. Le présent chapitre et le suivant présentent les lois de probabilité les plus
courantes.
Soit a un réel. On appelle loi de Dirac notée δ a, la loi de la variable aléatoire X telle que P X(X=a)= 1. On
a:
{
F ( x )= 0 si x< a
1 si x ≥ a
E(X)=a et V(X)=0
Densité de probabilité
Fonction de répartition
1
9
a
2.2. La loi uniforme discrète
6.2.1. Loi de probabilité de la loi uniforme
Soit n un entier naturel supérieur ou égal à 2. On appelle loi uniforme discrète la loi de la variable
1
aléatoire X qui prend les valeurs kϵ { 1 ,2 , 3 , … n } avec une probabilité constante P X ( X =k )=
n
∑ P X ( X=k )=∑ 1n = nn =1
k =1 k=1
1/n
…………
….
1 2 3 4 5 ……………. n
10
probabilité d'un échec. La définition du « succès » et de « l'échec » est conventionnelle et est
fonction des conditions de l'expérience.
Sur l'univers {succès, échec}, on peut définir une variable aléatoire X prenant la valeur 1 en
cas de succès et 0 en cas d'échec. Cette variable aléatoire suit une loi de Bernoulli. Elle a pour
espérance p et pour variance pq. En bref La loi de Bernoulli correspond à une expérience à deux
issues (succès - échec), codées respectivement. par les valeurs 1, 0, et en général non équiprobables :
{
X ( ω )=1 A ( ω )= 1 si ω ϵ A
0 si ω ϵ A
On note X ↝ B(1 , p)
1
X ↝ B(1 , )
2
2°) Dans une urne contenant n boules dont des boules blanches en proportion p, on tire au
hasard une boule. Soit la variable aléatoire définie par X=1 si la boule tirée est blanche et X=0 si la
boule tirée n’est pas blanche. Comme la probabilité de tirer une boule blanche est p,
X ↝ B(1 , p)
3°) Le lancer d'une pièce équilibrée est une expérience de Bernoulli de paramètre 0,5. Si le «
succès » est l'obtention de pile, « l'échec » sera l'obtention de face.
4°) On tire au hasard une boule dans une urne contenant 7 boules blanches et 3 boules
noires. On considère comme un succès le fait de tirer une boule noire. Cette expérience est une
expérience de Bernoulli de paramètre 0,3 car la probabilité de tirer une boule noire est de 3/10.
11
2.3.3. Forme de la loi de Bernoulli
Trois cas sont possibles.
q
1/2
p
P
q
0 1 0 1
0 1
E(X)=1xp + 0xq=p
E(X)=p
Quelle est la loi suivie par X² ? On a :
Alors X =
2
{0 avec1 avec une probabilité p
une probabilité q=1− p
12
Comme V(X)=E(X²)-[E(X)]², on V(X)=p-p²=p(1-p)=pq
V(X) =pq
2.4. La loi binomiale
2.4.1. Définition
Dans une urne contenant des boules dont des blanches en proportion p, on tire avec remise et au
hasard n boules. La variable aléatoire X telle que X= nombre de boules blanches tirées suit une loi
appelée loi binomiale de paramètres n et p. On note :
X ↝ B(n , p)
L’évènement tirer k boules blanches correspond à une suite d’évènements élémentaires du type :
Le nombre total d’évènements de ce type est ainsi le nombre total de permutations avec répétition
n! k
de n objets dont k et n-k sont identiquesentre eux soit au total = ∁n
k ! ( n−k ) !
D’où finalement,
k k n−k
P X ( X =k )=∁n p (1− p)
La somme de toutes les probabilités de réalisation de ces évènements est-elle égale à l’unité ?
n n
13
2.4.3. Espérance mathématique d’une loi binômiale
X ↝ B(n , p)
n n n
n! n!
E ( X )=∑ k P X (X=k)= ∑ k k ! ( n−k p k (1− p)n−k =∑ k p k (1− p)n−k
k=0 k=0 )! k ! ( n−k ) !
k=1
n n
n! (n−1)!
=∑ pk (1−p)n− k = np ∑ pk−1 (1− p)n−k
k =1 (k−1)! ( n−k ) ! k=1 ( k−1)! ( n−k ) !
n−1
(n−1)!
= np ∑ p K (1− p)n−K ( en posant K=k-1)
K=0 K ! ( n−K ) !
n−1
¿ np ∑ ∁n−1
K
p K (1− p)[ (n−1)−( K −1 )]=np ¿
K=0
E(X)=np
2.4.4. Variance d’une loi binômiale
Calculons le moment factoriel d’ordre 2 de X.
n
n!
¿ ∑ k (k −1) pk q(n−k)
k=0 k ! ( n−k ) !
n
n!
¿ ∑ k (k −1) pk q(n−k)
k=2 k ! ( n−k ) !
14
n
n!
¿∑ pk q(n−k)
k=2 (k−2)! ( n−k ) !
n
(n−2)!
¿ n(n−1) ∑
k (n−k)
p q En posant K=k-2 et on a :
k=2 (k−2)! ( n−k ) !
n n−2
( n−2 ) ! ( n−2 ) !
¿ n ( n−1 ) ∑ k ( n−k )
p q =n ( n−1 ) ∑ p K+2 q (n−2−K )
k=2 ( k −2 ) ! ( n−k ) ! K =0 K ! ( n−2−K ) !
n −2
( n−2 ) !
¿ n ( n−1 ) p 2
∑ K ! ( n−2−K ) ! pK q(n −2− K )
K =0
n−2
¿ n(n−1) p 2 ∑ C Kn−2 p K q(n−2−K )=n(n-1)p²(p+q)n-2 = n(n-1)p²
K =0
=npq
V(X)=npq
NB: La loi binomiale est la somme de n lois de Bernoulli indépendantes
Si
X 1 ↝ B ( n1 , p ) et X 2 ↝ B (n2 , p)
15
n
Comme ces n tirages sont équivalents à un seul tirage de n boules avec équiprobabilité des C N
possibilités, on a :
k n−k
C N C N −N
P X ( X =k )= B
n
B
.
CN
X(Ω)={0,1,2,3,…..n}
X ↝ H (N , n , N B )
n
Vérifions que ∑ P X ( X=k )=1
k=0
k=0
s
(1+ x ) =∑ C sj x j
s
j=0
( )( )
r s r s
r
(1+ x ) (1+ x) =
s
∑ Cr x k k
∑ C s x =∑ ∑ C r C s x
j j k j k+ j
(a)
k=0 j =0 k=0 j=0
De même, ona:
r+ s
(1+ x )r (1+ x) s=(1+ x )r+ s=∑ C ir +s xi (b)
i=0
n
Ainsi, pour r=NB on a ∑ C N C N−N =C N
l n−l n
B B
l=0
k n−k
n n
C N C N −N C nN
D’où ∑ P X ( X=k )=∑ B
n
B
= n
=1
k=0 k=0 CN CN
16
2.5.2.- Espérance mathématique de la loi hypergéométrique
Soit la variable indicatrice
{
X i = 1 si la bouleblanche numéro iest tirée avec1≤i≤NB
0 si non
NB
On a X =∑ X i = Nombre de boules blanches tirées
i=1
n
n C N −1
P X ( X i =0 ) =1− = n
i
N CN
n
E ( X i) =1 x P X ( X i=1 ) +0 x P X ( X i =0 ) =
i i
N
( )
NB NB NB
n n N N
Ainsi, E ( X )=E ∑ X i =∑ E( X ¿¿ i)=∑ N
=N B =n B =np avec p= B ¿
N N N
i=1 i=1 i =1
NB
E ( X )=n =np
N
( )
NB NB ❑
V ( X )=V ∑ X i =∑ V (X ¿¿ i)+∑ COV (X ¿ ¿ i , X j ) ¿ ¿ (a)
i=1 i=1 i≠ j
E ( X 2i )=1²
n
N (n
+ 0 1− =
N
n
N )
nN−n n (N−n)
2 2
n n
D’où V ( X i ) = −( ) = 2
= 2
N N N N
2
n
COV ( X i , X j )=E ( X i X j ) −E ( X i ) E ( X j )=E ( X i X j )−( ) (b)
N
17
0 0 i n’est pas tirée et j n’est pas tirée n
C N−2
n
CN
n n−1 n−1
C N−2 C N −2 C N−2
n
+ n + n
CN CN CN
et 1 avec la probabilité
n−2
C N−2
n
CN
n−2 n n−1 n−1 n−2
C N−2 C N−2 C N −2 C N−2 C N−2 n (n−1)
D’où E ( X i X j )=1² x +0x ( + n + n ¿= n =
CN
n
CN
n
CN CN CN N (N−1)
2 2
n n(n−1) n
Ainsi, COV ( X i , X j )=E ( X i X j ) −E ( X i ) E ( X j )=E ( X i X j )−( ) = −( )
N N ( N−1) N
2
nN (n−1) n (N−1) n(Nn−N −nN + n) n(n−N ) −n(N −n)
¿ 2 − = = 2 =
N (N−1) N 2 (N −1) N 2 ( N−1) N (N −1) N 2 ( N −1)
Finalement, on a :
NB ❑ NB
n ( N−n) ❑ n( N−n)
(a) V ( X )=∑ V (X ¿¿ i)+ ∑ COV ( X ¿ ¿ i, X j)=∑ 2
−∑ 2 ¿¿
i=1 i≠ j i=1 N i ≠ j N (N−1)
NB
n (N−n) ❑ n(N−n) n(N −n) n(N −n)
V ( X ) =∑ 2
−∑ 2 =N B 2
−N B (N B−1) 2
i=1 N i ≠ j N (N−1) N N (N −1)
18
N B n ( N −n ) N B−1 N n ( N−n ) N n ( N−n )
V ( X )= (1− ¿ )= B2 ( N−1−N B +1 )= B2 ( N −N B)
N 2
N−1 ¿ N ( N −1 ) N ( N −1 )
N−1 ) N (
( N−n ) ( )
N B N−N B N−n N B N
V ( X )=n =n (1− B )
N N −1 N N
NB
En posant q=1− p=1− on a :
N
N −n
V ( X )=npq
N −1
V ( X)≈ npq
On note X↝P(m)
∞
Vérifions que ∑ P X ( X=k )=1
k=0
∞ ∞ ∞
e−m mk −m mk
∑ P X ( X=k )=∑ k!
=e ∑ =e−m em=1
k=0 k=0 k=0 k !
E(X)= m
2.6.3. Variance de la loi de Poisson
Il est plus facile d’utiliser le moment factoriel d’ordre 2
On a:
19
∞ ∞ ∞ ∞ ∞
ek mk mk m(k−2 )
μ[2]= E[ X ( X−1 )]=∑ k (k −1)e−m =∑ k (k−1)e−m =∑ e−m =e−m ∑ m2 =e−m ∑ m2
k=0 k ! k=2 k ! k=2 (k −2)! k =2 (k −2)! k=2 (
V(X)=m
P X [ X =x+1] P X [ X=x ]
Il est tel que ≤1 et ≥1
P X [ X=x ] P X [ X=(x−1)]
−m x+1
e m
P X [ X =x+1] (x +1)! mx+1 x ! m
= −m x = =
P X [ X=x ] e m ( x +1 ) ! m x +1
x
x!
Le mode est donc l’entier naturel ou les entiers naturels vérifiant simultanément les inégalités :
m m
≤1 et ≥ 1
x+1 x
C'est-à-dire x ≤ m ≤ x +1
NB :
Px
20
2.6.4.3. Le processus de Poisson
Soit c un réel positif et X, le nombre d’un tel évènement enregistré au cours d’une période de
temps θ. X suit une loi de Poisson de paramètre m=cθ lorsque les conditions suivantes sont vérifiées :
- La probabilité de deux apparitions successives de cet évènement sur une même période dt
est très faible.
Soient deux variables aléatoires indépendantes X1 et X2 telles que X 1 ↝P(m1) et X 2 ↝P(m2) alors
Z=X1+X2↝P(m1+m2)
∞
1
On sait que ∑ x = pour |x|<1
k
k=0 1−x
21
∞ ∞ ∞ ∞
p p
∑ P X (X =k )=∑ (1− p)k−1 p= p ∑ (1− p)k−1= p ∑ (1− p)K = = =1
1−(1− p) p
k =1 k =1 k=1 K=0
2q 2q 1
Comme E [ X ( X −1 ) ] =E ( X 2) −E( X) , E ( X ) =
2
+ E ( X )= 2 +
p p
2
p
2 q 1 1 2 q+ p−1 1− p q
V(X)= E(X²)-[E(X)]²= + − 2= = 2 = 2
p p p
2 2
p p p
0n a: X ( Ω ) =N−{0 ,1 , 2 ,3 … n−1 }
n −1 n k−n
P X ( X =k )=C k−1 p (1− p) avec k ≥ n
Schématisation
… B B B B B B B B B B … ]B
Avant le dernier tirage de la boule B, on tire n-1 boules blanches et k-n boules non blanches.
n
E ( X )=
p
22
nq
V ( X )= 2
p
Une urne contient des boules dont des blanches en proportion p. On y tire successivement une boule
avec remise et on s’arrête lorsqu’on a tiré n boules blanches.
0n a: X ( Ω ) =N−{0 ,1 , 2 ,3 … n−1 }
n −1 n k−n
P X ( X =k )=C k−1 p (1− p) avec k ≥ n
Schématisation
… B B B B B B B B B B … ]B
Avant le dernier tirage de la boule B, on tire n-1 boules blanches et k-n boules non blanches.
n
E ( X )=
p
nq
V ( X )= 2
p
2.11. APPROXIMATIONS
23
3.1 : La loi uniforme continue
3.1.1 : Fonction densité de probabilité de la loi uniforme continue
Une variable aléatoire X suit une loi uniforme continue si sa densité est une constante sur un
intervalle fermé [a, b]
{
1
si x ∈[a , b]
f ( x )= b−a
O sinon
On note
X ↝U (a , b)
On a:
+∞ +∞ b
1 1 1
∫ f ( x ) dx= ∫ ∫ dx= b−a [ x ]a= b−a =1
b
dx=
−∞ −∞ b−a b−a a b−a
{
x
0 si x< a
F ( x )=P X ( X ≤ x )= ∫ f ( t ) dt= x−a sia ≤ x <b
−∞ b−a
1 si x ≥ b
[ ]
+∞ +∞ b b
x 1 1 x2 1 a+ b
E ( X )=∫ xf ( x ) dx= ∫ ∫ 2 2
dx= xdx= = (b −a )=
−∞ −∞
b−a b−a a b−a 2 a 2( b−a) 2
[ ]
+∞ +∞ b b 2 2
x2 1 1 x3 b3 −a3 ( b−a ) (b + ab+a ) b2 +ab+ a2
E ( X ) =∫ x ² f ( x ) dx= ∫
b−a ∫
2
dx = x ² dx= = = =
−∞ −∞
b−a a
b−a 3 a 3 (b−a) 3(b−a) 3
2 2 2 2 2 2
b +ab+ a a+ b 4 b ²+ 4 ab+ 4 a ²−3 (a +2 ab+ b ) b ²−2 ab+a ² (b−a)
V ( X )=E ( X 2 )−E ( X )2= −( )= = =
3 2 12 12 12
24
3.1.5 : Forme de la loi uniforme continue
3.1.5.1 : Densité de probabilité
f(x)
1
b−a
a b x
F(x)
a b x
{
−θ x
f ( x )= θ e si x ≥0 On note
0 si x< 0
X ↝ ε (θ)
+∞
Vérifions que ∫ f ( x ) dx=1 . On a :
−∞
+∞ +∞ +∞
θ −θ x +∞
∫ f ( x ) dx= ∫ θ e −θ x
dx=¿ θ ∫ e
−θ x
θ x→+ ∞
−θx
dx=¿− [e ]0 =1− lim e =1¿ ¿
−∞ −∞ 0
25
x
∫ f ( t ) dt=¿ 0 si x <0 ¿
−∞
x x
Ona :
+∞ +∞ +∞
E ( X )=∫ xf ( x ) dx=∫ θx e dx=¿ θ ∫ x e
−θ x −θ x
dx ¿
−∞ 0 0
+∞
−1 −θx
E ( X )=θ[ xe ] +θ ¿
θ 0
+∞ +∞
−1 −θx 1
] +∫ e
−θx +∞ −θ x
¿ [−xe 0 dx ¿=¿[ e ] =
0 θ 0 θ
1
E( X )=
θ
+∞ +∞ +∞ +∞
−θ −2 −θ x 2 2 2
x ² e ] −θ ∫ x e dx=¿ 2 ∫ x e dx = ∫ θx e dx= E ( X )= 2 ¿
−θx −θ x −θ x
E ( X ² )=[
θ 0 0 θ 0 θ 0 θ θ
2 2 1 1
V ( X )=E ( X )− [ E ( X ) ] =
2
2
− 2= 2
θ θ θ
26
3.2.4. Forme de la loi exponentielle (θ=1)
3.2.4.1. Fonction densité de probabilité
1.2
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10 12
La variable aléatoire X est souvent utilisée pour modéliser une durée de vie
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9 10
On note X ↝ ℵ ( m , σ ) , σ >0
27
2
+∞ −1 x−m
( )
NB : ∫ e 2 σ
dx=σ √ 2 π
−∞
+∞ −1 x−m
2
1 ( )
Ainsi, ∫ e 2 σ
dx=1
−∞ σ √2 π
Le graphe de la densité de f est une courbe en cloche se présentant de la manière qui suit :
NB : f(2m-x)=f(x)
2 2 2
−1 2 m−x−m −1 m−x −1 x−m
1 ( ) 1 ( ) 1 ( )
En effet, f ( 2 m−x )= e2 σ
= e2 σ = e 2 σ =f ( x)
σ √2 π σ √2 π σ √2 π
On a :
E(X)=m
et V(X)= σ²
3.3.2. La loi normale centrée réduite
X−m
La loi normale centrée réduite s’obtient en faisant le changement de variable U =
σ
dans une loi normale de paramètres m et σ.
E(U)=0 et V(U)=1
28
En effet,
E ( U ) =E ( σ )
X−m E ( X )−m m−m
=
σ
=
σ
=0
V ( U )=V ( X−m
σ ) 1 σ²
= V ( X )= =1
σ σ²
2
√2 π
La fonction de répartition est définie par :
2
u −t
1
Π ( u )= ∫e
√ 2 π −∞
2
dt
NB :
iii) De même, P(|U|<a)= P(-a<U<a) = Π ( a ) −Π (−a )=Π ( a )−[ 1−Π ( a ) ] =2 Π ( a )−1 avec a>0
iv) La somme de deux lois normales indépendantes est encore une loi normale
X 1 + X 2 ↝ ℵ ( m1+ m2 , √ σ 21 +σ 22 )
29
Table de la fonction de répartition de la loi normale centrée
30
3.4. Autres lois associées à la loi normale
3.4.1. Loi de Pearson ou Loi de Chi-Carré
Quelle est la probabilité P pour que X appartienne à un intervalle du type I= [m-tσ, m+tσ] ?
C'est-à-dire pour que |X-m| ≤ tσ avec t > 0 ?
Le raisonnement se fera dans le cas où X est continue mais il est valable également dans le
cas des variables aléatoires discrètes. Soit I l’ensemble des points extérieur à I
On a:
+∞ ❑ ❑ ❑ ❑
σ =∫ ( x−E ( X ) ) f (x )dx=∫ ( x−E ( X ) ) f ( x)dx +∫ ( x−E ( X ) ) f ( x )dx ⟹ σ ≥∫ ( x−E ( X ) ) f (x )dx ⟹ σ ≥∫
2 2 2 2 2 2 2
−∞ I I I I
1
C’est-à-dire, Prob ( {| X−E ( X )|≤ tσ })≥ 1− 2
t
31
1
Prob ( {| X−E ( X )|≤ t σ X })≥1− 2
t
{
Prob ( | X−E ( X )|≤
tσ
√n }
1
)≥ 1− 2
t
Ainsi, il suffit, lors d’un sondage, de tirer un échantillon de taille n suffisamment élevée dans
la population pour que la moyenne d’une variable X observée sur l’échantillon soit presque
sûrement très proche de son espérance mathématique (c'est-à-dire de la véritable moyenne de la
1
population (avec une probabilité au moins égale à 1− 2 ) : c’est la loi des grands nombres.
t
C'est-à-dire chaque variance est faible par rapport à la somme de toutes les autres variances.
n
Soit Sn=∑ X i
i=1
n n
E ( Sn ) =∑ E ( X i ) =∑ mi=mS n
i=1 i=1
n n
V ( S n ) =∑ V ( X i )=∑ σ ²i=σ 2S n
i=1 i=1
S n−E ( Sn ) S n−mS
L ℵ (0 , 1) c’est-à-dire, n
L ℵ (0 ,1)
√ V (S )
2
n
→ σ Sn
→
2
On a : E ( Sn ) =nm et V ( S n )=n σ ❑ et le théorème central-limite donne :
S n−nm
L ℵ (0 , 1)
√ n σ 2❑ →
32
Comme Sn=n X n, on a :
Ainsi,
√ n(X n −m) L ℵ (0 , 1)
σ →
4.4. Applications
4.4.1. Approximation d’une loi binomiale
Soit (Xi), i=1 jusqu’à n, n variables aléatoires indépendantes telles que
X i ↝ B ( 1, p ) ∀ i
n
On sait que Sn=∑ X i suit une loi binomiale de paramètres n et p
i=1
S n−np
L ℵ (0 , 1)
√npq →
n
On sait que Sn=∑ X i suit une loi de Poisson de paramètre λ
i=1
S n−λ
L ℵ (0 , 1)
√λ →
33
4.5. Ajustement d’une distribution observée à une loi théorique
Supposons que l’on dispose du tableau suivant donnant la distribution statistique suivante :
x1 n1 f1
x2 n2 f2
. . .
. . .
. . .
xi ni fi
. . .
. . .
. . .
xk nk fk
Total N 1
On voudrait savoir si l’on peut ajuster une loi théorique donnée à cette distribution
statistique c’est-à-dire voir si ce tableau est « proche »ou non de la distribution théorique dont la loi
de probabilité est la suivante :
Valeurs Probabilité
x1 p1
x2 p2
. .
34
. .
. .
xi pi
. .
. .
. .
xk pk
Total 1
x1 p1 n’1=np1
x2 p2 n’2=np2
. . .
. . .
. .
xi pi n’i=npi
. . .
. . .
. . .
xk pk n’k=npk
Total 1 N
NB :
k
1°) On doit avoir n=∑ ni .
'
i=1
35
2°) De même, on veille à ce que les n i et n’i soient toujours supérieurs ou égaux à 5. Sinon, on fait des
regroupements.
k ' 2 k ❑ 2
(ni−ni) (n i−npi )
χ =∑ =∑
2
i=1
'
ni i=1 np❑
i
Cette distance suit une loi du Khi-deux à l=k’-r-1 degrés de liberté avec
2 2
Si χ > χ lu , les deux distributions ne sont pas considérées comme proches et on rejette l’ajustement.
NB :
i) Pour ajuster une loi de poisson de paramètre m, on estime m par la moyenne de la distribution
statistique.
Attention : cet ajustement ne peut se faire que si la moyenne est proche de la variance.
ii) Pour ajuster une loi normale, on estime m par la moyenne et l’écart type de la loi théorique par
celle de la distribution statistique.
iii) pour ajuster une loi binomiale de paramètres n et p, deux cas se présentent :
X
1er cas : n est connu : on estime p par p=
n
36
37
TRAVAUX DIRIGES
Solution
xi 0 1
pi 2/3 1/3
b) * Espérance mathématique :
E(X) = P = P(X=1) 1/3
* Ecart-type :
38