Introduction à la probabilité
PpΩq “ tA, A Ă Ωu
A X B “ tω, ω P A et ω P Bu.
A Y B “ tω, ω P A ou ω P Bu
.
On peut géneraliser ces définitions à une famille quelconque de parties de Ω. Soit I un
ensemble quelconque d’indices (fini ou infini) et pAi qpiPIq une famille de parties de Ω.
— On définit l’intersection des Ai notée XiPI Ai par
XiPI Ai “ tω, @i P I, ω P Ai u.
YiPI Ai “ tω, Di P I, ω P Ai u.
1
2 Introduction à la probabilité
n!
Akn “ npn ´ 1qpn ´ 2q...pn ´ k ` 1q “ pn´kq!
.
Proposition 2 Dans un arragement avec répétition les k objets de la liste ne sont pas
nécessairement distincts.
Le nombre d’arrangement avec répétition de k élèments parmi n est nk .
Exercice
1. Combien de nombre de 6 chiffres peut-on former avec les chiffres 1,2 et 3 ?
2. Quel est le nombre de manières de placer 5 convives autour d’une table ronde ?
3. Combien de mots de 3 lettres distinctes peuvent être formés dans un alphabet de
26 lettres ?
4. 12 candidats se présentent aux éléctions au conseil d’administration comportant 8
places. La liste des élus est publiée selon le nombre de voix. Combien y-t-il de listes
possibles ?
Exercice :
1. De combien de manières peut-on choisir une délègation de 3 hommes et 2 femmes
pris parmi un groupe de 7 hommes et5 femmes ?
2. En jouant au pocker contanant 52 cartes, combien de main de 5 cartes peut-on
tirer ?
Proposition 5 Soient n P N et k ď n, on a
Cnk “ Cn´1
k´1 k
` Cn´1 , @1 ď k ď n ´ 1.
Proposition 6 Soient x, y P R et n P N, on a
n
ÿ
n
px ` yq “ Cnk xk y n´k .
k“0
Définition 5 1. On appelle évènement une partie de l’ensemble des issues d’une ex-
périence aléatoire.
2. L’évènement est dit élementaire s’il ne correspond qu’à une seule et unique issue.
3. L’ensemble de tous les évènements possibles s’appelle univers (espace d’échantillo-
nage), noté Ω.
Exemple 2 On considère l’expérience aléatoire "le lancement d’un dé". Il vient que
— les résultats : 1,2,3,4,5 et 6 sont des éventualités (issues, possibilités).
— Ω “ t1, 2, 3, 4, 5, 6u est l’univers de cette expérience.
— A ’Obtenir un nombre pair’“ t2, 4, 6u est un évènement
— B ’obtenir la face 1’ “ t1u est un évènement élèmentaire.
4 Introduction à la probabilité
Définition 8 On suppose que Ω est un ensemble fini. On dit qu’on se trouve dans un cas
équiprobable si tous les évènements élèmentaires ont la même valeur de probabilité. On
parle aussi de probabilité uniforme.
Théorème 2 (Formule des probabiltés totales) Soient pA1 , A2 , .., An q un système complet
d’évènements et B un évènement quelquonque, alors
Exercice 3 Une compagnie estime que les gens peuvent être répartis en 2 classes.
— Ceux qui sont enclins au accidents à haut riques, soit 30% de la population.
— Les autres sont dits à rique modéré.
Les statistiques montrent q’un individu à haut rique a une probabilité de 0.4 d’avoir un
accident en l’espace d’un an de la signature de son contrat. cette probablité tombe à 0.2
pour les gens à rique modéré.
1. Quelle est la probabilité qu’un nouvel assuré soit victime d’un accident durant l’année
qui suit la signature du contrat ?
2. Un nouveau signataire a eu un accident dans l’année qui suit la signature de son
contrat ? Quelle est la probabilité qu’il fasse parti à la classe haut risque ?
Exercice 4 Une entreprise utilise trois machine A,B et C pour fabriquer des pièces. 40%
sont fabriquées par A, 30% par B et 30% par C. La machine à produit 2% de pièces
défectueses, B : 4% et C5%.
1. Si on prélève une pièce au hasard, quelle est la probabilité qu’elle soit défèctueuse ?
2. Si on prélève une pièce défèctueuse, quelle est la probabilité qu’elle vienne de A ?
3. Si on prélève une pièce saine, quelle est la probabilité qu’elle vienne de C ?
1.4.1 Indépendance
PpB{Aq “ PpBq.
1.4. Probabilités conditionelles 7
Proposition 9 Soient A, B telles que PpAq et PpBq sont non nulles. Alors on a l’équi-
valence
1. PpA{Bq “ PpAq.
2. PpB{Aq “ PpBq.
3. PpA X Bq “ PpAqPpBq.
Exemple 5 Une urne contient 12 boules numérotées de 1 à 12. On tire une boule au
hasard. Soit A = Tirage d’un nombre pair et B = Tirage d’un multiple de 3.
1. Calculer PpAq, PpBq et PpA X Bq. A et B sont-ils indépendants ?
2. Répondre aux mêmes questions si on rajoute dans l’urne une boule numérotée 13.
8 Introduction à la probabilité
Chapitre 2
2.1 Introduction
On lance une pièce de monnaie deux fois de suite et on tient compte à l’ordre de lancé.
Il vient que l’univers Ω “ tpp, pq, pp, f q, pf, f q, pf, pqu. Soit X le nombre d’apparition de
pile. C’est une variable aléatoire définie par
$
& 2, si ω “ pp, pq ;
Xpωq “ 1, si ω P tpp, f q, pf, pqu ;
0, si ω “ pf, f q.
%
Définition 10 Soit pΩ, PpΩq, Pq un espace probabilisé. Une variable aléatoire est une
fonction de Ω dans R
Définition 11 Le support d’une variable aléatoire X est l’ensemble de ses valeurs pos-
sibles. On le note SpXq ou SupppXq
Dans toute la suite de cette section on considère les variables aléatoires discrètes X (resp
Y ) définies sur l’espace pΩ, PpΩq, P q telle que XpΩq “ txi , i P Iu, où I Ă N( resp Y pΩq “
tyj ; j P Ju où J Ă N).
9
10 Les variables aléatoires
pi “ P pX “ xi q; i P I,
Remarque: Donner la loi de X c’est donner pi pour tout i dans I. Remarque: Soit X
une variable aléatoire discrète.
1. Pour tout x P XpΩq, l’ensemble tX “ xi u “ tω P Ω; Xpωq “ xi u est un événement.
2. La famille d’évènements tX “ xi , xi P XpΩqu est une partition de Ω.
ř
3. On a xi PXpΩq P pX “ xi q “ 1.
Remarque: Deux v.a. peuvent avoir même loi sans être égales. Par exemple, on jette deux
dès, l’un bleu et l’autre rouge. Notons X le numéro indiqué par le dé bleu et Y celui indiqué
par le dé rouge. Les variables X et Y sont définies sur le même espace de probabilité.
Ω “ t1, ..., 6u et XpΩq “ Y pΩq “ t1, ..., 6u et @k P t1, ..., 6u; P pX “ kq “ P pY “ kq “ 1{6.
Donc les deux variables X et Y ont la même loi. Pourtant les deux variables ne sont pas
égales. En effet, l’égalité entre X et Y signiferait que Xpωq “ Y pωq, @ω P Ω. On peut voir
que PpX “ Y q ‰ PpX “ Y q.
Définition 15 Soit
C : Ω Ñ R2
ω ÞÑ pXpωq, Y pωqq.
On dit que C “ pX, Y q est un couple de variable aléatoire discrète.
2.2. Les variables aléatoires discètes 11
Remarque: La loi conjointe du coulpe détermine complètement les lois marginales mais
la réciproque est fausse.
Définition 19 Soit X une v.a.d et f une fonction réelle dont le domaine de définition
contient XpΩq. Alors si Epf pXqq existe on a
ÿ
Epf pXqq “ f pxi qP pX “ xi q.
iPI
La variance d’une v a
Définition 21 Variance Soit X une variable aléatoire qui possède un moment d’ordre 2
fini. On appelle la variance de X le réel donnée par
` ˘
VarpXq “ E pX ´ EpXqq2 “ EpX 2 q ´ EpXq2 .
VarpXq
@t ą 0, P p|X ´ EpXq| ě tq ď .
t2
Définition 23 On suppose que les deux variables aléatoire X et Y possèdent des va-
riances. On appelle covariance de X et Y notée
` ˘
CovpX, Y q “ E pX ´ EpXqqpY ´ EpY qq
“ EpXY q ´ EpXqEpY q
2.3. Loi discrète usuelles 13
On réalise une expérience aléatoire qui a deux résultats possibles, le" succés S de proba-
1, si succés ;
bilité p et l’echec E de probabilité 1 ´ p. La variable aléatoire X “ est
0, si echec.
une v.a de Bernouilli. On note X ” Bppq.
Exemple 8 On effectue n tirages avec remise dans une urn contenant des boules blanches
(avec proportion p) et des boules noires (avec proportion (1 ´ p)). X le nombre de boules
blanches tirées est une variable aléatoire binomiale de paramètre n et p.
14 Les variables aléatoires
X suit la loi géometrique de paramètre Gppq si elle est égale au nombre d’épreuves de Bppq
indépendantes, qu’il faut réaliser pour obtenir la première fois l’évènement de probabilité
p.
Proposition 20 — XpΩq “ N.
— P pX “ xq “ pp1 ´ pqx .
— EpXq “ 1{p.
— VarpXq “ 1´p
p2
.
λk
XpΩq “ N et P pX “ kq “ exp´λ .
k!
On la note Ppλq.
Proposition 21 — EpXq “ λ.
— VarpXq “ λ.
Remarque: Lorsqu’un évènement a une faible probabilité d’apparition lors d’une épreuve
de Bernouilli et si l’on répète un grand nombre de fois. Le nombre total de réalisation de
l’évènement consodéré suit à pau près une loi de poisson de paramètre λ “ n ˆ p. C’est
la loi des phénomènes rares. En pratique n ě 30 et p ď 0.1
Exemple 10 Lors d’un sondage portant un grand nombre de personnes. On sait que 20%
de personnes acceptent de ne pas être anonymes. Sachant qu’on a intérrogé 250 personnes,
calculer la probabilité
1. que ces 250 personnes souhaitent rester anonymes.
2. 3 personnes acceptent de ne pas rester anonymes.
3. plus que 10 personnes acceptent de ne pas être anonymes.
Chapitre 3
3.1 Introduction
Soit pΩ, PpΩq, Pq un espace probabilisé et X une application de Ω dans R. Une variable
aléatoire X est dite continue si l’ensemble XpΩq est une intervalle ou une réunion d’inter-
valle de R. La description d’une loi continue diffère de celles des lois discrètes puisque pour
une variable aléatoire continue X, la probabilité que X prenne une valeur bien précise
x est nulle, PpX “ xq “ 0 . Il y a, en effet, une infinité de valeurs dans R ou dans un
intervalle, et au regard de toutes ces valeurs précises, le poids de la valeur particulière est
tellement insignifiant qu’il en est nul.
Exercice 5 Si X=la taille d’un individu dans une population. Alors PpX “ 1, 8522692q “
0.
Définition 24 Une variable aléatoire X est dite à densité s’il existe une fonction positive
f : R Ñ R` , telle que
żb
Ppa ď X ď bq “ f ptqdt, pour tout a ď bR.
a
15
16 Les variables aléatoires continues
Définition 27 Soit f une densité définit sur R2 . On dit que le coulpe C “ pX, Y q est un
couple de densité f si pour tout couple px, yq on a
ż y ´ż x ¯
` ˘
P X ď x, Y ď y “ f pu, vqdv du.
´8 ´8
3.3 Indépendance
Définition 30 Les variables aléatoires continues X et Y sont dites indépendantes si pour
tout couples px, yq P R2 on a
3.4.1 Espérance
Cette loi modélise un phénomène uniforme sur un intervalle donné. Une variable aléatoire
X suit la loi uniforme sur l’intevalle borné ra, bs si elle a une densité f constante sur cet
intervalle et nulle en dehors. Elle est notée Upra, bsq. Sa densité est alors,
" 1
b´a
, si x P ra, bs ;
f pxq “
0, sinon.
Proposition 30 Soit X une variable aléatoire qui suit la loi uniforme sur l’intevalle
ra, bs.
— EpXq “ a`b
2
.
pb´aq2
— VarpXq “ 12 .
Soit λ ą 0, une variabla aléatoire X suit une loi exponentielle de paramètre λ et notée
Exppλq si elle admet pour densité la fonction
"
λ expp´λxq, si x ě 0 ;
f pxq “
0, sinon.
Les lois exponentielles sont souvent utilisées pour modéliser des temps d’attente ou des
durées de vie. Par exemple, les temps d’attente à partir de maintenant du prochain trem-
blement de terre, de la prochaine panne d’un appareil, de la prochaine désintégration
dans un réacteur nucléaire suivent des lois exponentielles. Le paramètre λ désigne alors
l’inverse du temps d’attente moyen.
3.6. La loi normale 19
Remarque: Si m “ 0 et σ 2 “ 1 alors X suit la loi normale centrée réduite. Elle est notée
N p0, 1q.
Corollary 1 Soit Sn une variable aléatoire qui suit la loi Bpn, pq alors
Sn ´ np
? N p0, 1q.
npq
Ceci peut également s’écrire ainsi
L ?
Sn Ñ N pnp, npqq.
La loi De khi-deux
řn
Si Xi , .., Xn sont n v.a indépendantes de loi N p0, 1q alors X “ i“1 Xi est une v.a khi-
deux à n degré de liberté. On la note χ2n et on a
— EpXq “ n
— VarpXq “ 2n.
La loi de Fisher
Si X1 et X2 sont deux v.a indépendantes telles que X1 suit χ2n1 et X2 suit χ2n2 . Alors
X1 {n1
F “ X 2 {n2
suit une loi de Fisher à n1 , n2 degré de liberté. Elle est notée Fn1 ,n2 . On a de
plus
— EpF q “ n2n´2 2
si n2 ą 2,
2n22 pn1 `n2 ´2q
— VarpF q “ n1 pn2 ´2q2 pn2 ´4q
. si n2 ą 4.
La loi de Student
Si X et Y sont deux v.a indépendantes telles que X suit N p0, 1q et Y suit χ2n . Alors
S “ ?X est une variable de Student à n degré de liberté. Elle est notée Sn , on a
Y {n
— EpSq “ 0 si n ą 1
n
— VarpSq “ n´2 si n ą 2.
Chapitre 4
Estimation Ponctuelle-Estimation
par intervalle
4.1 Introduction
Exemple 12 Considérons les X réponses de N individus à une question qui admet deux
réponses :
Soit p la fréquence des oui dans l’ensemble des réponses. On a deux cas
1. Effectuer un rescencement : p est alors determiné mais avec un coût trés élevé.
2. Il est possible d’effectuer ce rescencement et alors p est inconnu. Dans ce cas on
extrait une partie de l’ensemble n ă N . Apartir de cette partie on extrait des infor-
mations sur p.
A ce stade on se pose pleins de question :
‚ Comment choisir l’échantillon ?
‚ Comment estimer p ?
‚ Comment mesurer la précision de p ?
‚ Comment tester une hypothèse telle que p soit supérieure à une valeure donnée ?
21
22 Estimation Ponctuelle-Estimation par intervalle
4.2 Définitions
Soit X une variable aléatoire dont la loi dépend d’un paramètre θ P I.
Définition 35 Un échantillon de taille n d’une variable aléatoire X est le vecteur pX1 , X2 , .., Xn q
où les tXi u1ďiďn sont des variables aléatoires indépedentes de même loi que X.
Moyenne empirique :
Soit pX1 , X2 , .., Xn q un échantillon de la variable aléatoire X tel que EpXq “ m et
VarpXq “ σ 2 . On appelle la moyenne empirique de X la variable aléatoire définie par
n
1ÿ
Xn “ Xi .
n i“1
On a
— EpX n q “ m.
— VarpX n q “ σ 2 {n.
Variance empirique :
Soit pX1 , X2 , .., Xn q un échantillon de la variable aléatoire X tel que EpXq “ m et
VarpXq “ σ 2 . On appelle la variance empirique de X la variable aléatoire donnée par
n
1ÿ
Sn2 “ pXi ´ X n q2 .
n i“1
On a
— EpSn2 q “ p n´1
n
qσ 2 .
2 2
— EpSn´1 q “ σ .
4.3. Proprietés d’un estimateur 23
Remarque: Soit ΦpX1 , .., Xn q un estimateur de l’éspérance de X. Il est clair que diffé-
rente réalisatin de T mènent à des estimations différentes de θ. On a besoin d’avoir des
critères de qualité qui permettent de choisir le meilleur parmi les estimateurs.
Remarque:
‚ Si l’estimateur est sans biais alors plus VarpT q est petite plus les valeurs de l’estimateur
sont autour de θ.
‚ Pour deux estimateurs T1 et T2 , le choix est porté pour celui qui a la plus petite variance.
‚ Plus généralement, pour deux estimateurs T1 et T2 , on dit que T1 est préferable à T2 si
Théorème 5 Tout estimateur sans biais ou asymptotiquement sans biais dont la variance
tend vers zéro lorsque n tend vers l’infini, est un estimateur convergent
24 Estimation Ponctuelle-Estimation par intervalle
Exemple 16 Soit X „ BpN, pq où N est un entier connu. Soit pX1 , .., Xn q un echantillon
de X. On considère n
1ÿ
T “ Xn “ Xi .
n i“1
On a
N pp1 ´ pq
EpT q “ N p, VarpT q “ .
n
1
On considère T 1 “ N
T, alors
pp1 ´ pq nÑ`8
EpT 1 q “ p, VarpT 1 q “ ÝÑ 0.
Nn
T 1 est un estimateur sans biais convergent.
logrLpx1 , . . . , xn , θqs.
Exemple 17 Le nombre de pannes d’un appareil éléctrique est une variable aléatoire qui
suit une loi de Poisson de paramètre θ inconnu. Vérifier que l’estimateur T “ X n est
efficace.
L’idée qui est à l’origine de l’estimation d’un paramètre θ par la méthode des moments est
d’une grande simplicité. Considérons une loi Lθ dont les moments théoriques sont requis,
et dont on veut estimer le paramètre θ. La méthode des moments consiste à calculer
les moments empiriques et de les égaler avec les moments théoriques, et ensuite choisir
comme estimateur de θ la valeur de θ qui est solution de cette égalité. Ceci correspnd à
résoudre l’équation en θ de
n n
1ÿ k 1ÿ
mk “ Xi , ou µk “ pXi ´ X n qk .
n i“1 n i“1
Remarque: La solution de cette équation,si elle existe, elle est unique, et sera appelé
estimateur obtenu par la méthode de vraisemblence.
Remarque:
‚ Lors de l’estimation d’un paramètre θ avec la méthode des moments, on peut utiliser le
moment théorique non centré d’ordre 1 (espérance) řet l’égaler au moment empirique
non centré d’odre 1 (moyenne empirique : X n “ n1 ni“1 Xi q.
‚ On peut également utiliser le moment théorique centré d’orde 2 et l’égaler dans
ř ce cas
avec le moment empirique centré d’ordre 2 (variance empirique : Sn2 “ n1 ni“1 pXi ´
X n q2 q.
‚ Cette méthode se justifie par la convergence (quand n augumente) des moments empi-
riques vers les moments théoriques correspondants.
‚ Tout estimateur d’un paramètre obtenu par la méthode des moments est un estimateur
convergent.
26 Estimation Ponctuelle-Estimation par intervalle
2 2
Sn Xn
p2q{p1q donne p̃ “ 1 ´ Xn
. En le remplaçant dans l’équation p1q donne ñ “ 2.
X n ´Sn
Remarque:
Lorsqu’on veut estimer un paramètre θ, on peut, généralement, l’exprimer en fonction de
EpXq et/ou V pXq. Poue cela, si on peut estimer EpXq et V pXq on peut construire un
estimateur de θ.
Les estimations proposées par la méthode des moments reposent sur l’idée intuitive qu’un
moment inconnu d’une variable aléatoire ou d’une population peut être approché ou estimé
par le moment équivalent calculé sur un échantillon. Ainsi, le moment d’ordre 1, c’est à dire
l’espérance mathématique ou la moyenne dans une population est habituellement estimé
par la moyenne des observations issues d’un échantillon. Cette méthode d’estimation par
les moments ne convient pas dans toutes les applications pratiques et dans certains cas,
elle ne fournit pas les meilleures estimations. C’est pour cette raison que le statisticien
Ronald Fisher proposa, vers les années 1920, la méthode du maximum de vraisemblance.
Remarque: Cette fonction de renseigne en aucune façon sur l’existence ni l’unicité d’un
tel estimateur.
Remarque:
‚ L’estimation du maximum de vraisemblance est la valeur θ̃n qui, substituée à θ dans la
fonction de vraisemblance Lpx1 , x2 , ..., xn ; θn q, rend celle-ci maximum.
‚ On appelle les hypothèses de la vraisemblance les deux hypothèses suivantes :
— Lpx1 , x2 , ..., xn ; θn q ą 0.
— La vraisemblance est deux fois dérivable par rapport à θ.
‚ Sous ces hypothèses, on peut calculer le logarithme de la vraisemblance pour simplifer
les calculs puisque le logarithme est une fonction strictement croissante, et par
conséquent, la vraisemblance est maximale ssi le logarithme de la vraisemblance est
maximale.
Remarque: θ̃ est une estimation du maximum de vraisemblance de θ ssi θ̃ vérifie les
conditions de maximisation suivantes
" B
Bθ
logL “ 0,
B2
Bθ2
logL ă 0
PpT1 ď θ ď T2 q “ 1 ´ α.
PpZ ď z1 q “ α1 , PpZ ď z2 q “ 1 ´ α2 , et α1 ` α2 “ α.
ICpθq ď θ ď ICpθq,