Vous êtes sur la page 1sur 67

PROBABILITES - STATISTIQUE

V 1.6

Marc MENOU
Janvier 2012

TABLE DES MATIERES

RAPPELS MATHEMATIQUES

2 NOTIONS SUR LES ENSEMBLES

2.1 ENSEMBLE :

2.2 CARDINAL :

2.3 INCLUSION :

2.4 SOUS-ENSEMBLE :

2.5 EGALITE DENSEMBLES :

10

2.6 COMPLEMENTAIRE :

10

2.7 REUNION :

10

2.8 INTERSECTION :

11

2.9 DIFFERENCE :

12

2.10 ENSEMBLE DES PARTIES D'UN ENSEMBLE :

12

2.11 PRINCIPE DE DUALITE :

13

2.12 PARTITION D'UN ENSEMBLE E :

13

2.13 PRODUIT CARTESIEN :

14

3 DENOMBREMENTS OU ANALYSE COMBINATOIRE


3.1 ANALYSE COMBINATOIRE SANS REPETITION (N P)

15
15

3.1.1Arrangements :

16

3.1.2 Permutations :

16

3.1.3 combinaisons :

17

3.2 ANALYSE COMBINATOIRE AVEC REPETITION

19

3.2.1 Arrangements

19

3.2.2 Permutations

19

3.2.3 combinaisons

20

EN PRATIQUE :

M. MENOU / PROBABILITES ET STATISTIQUE

21

4 LES PROBABILITES

22

4.1 EPREUVE ALEATOIRE :

22

4.2 RESULTAT D'UNE EPREUVE :

22

4.3 UNIVERS DES POSSIBLES :

23

4.4 EVENEMENTS :

23

4.5 CORRESPONDANCE ENTRE ENSEMBLES ET EVENEMENTS

24

4.6 PROBABILITE ET FREQUENCE :

25

4.7 DEFINITION AXIOMATIQUE DES PROBABILITES :

25

4.7.1 AXIOMES DES PROBABILITES :

26

4.7.2 PROPRIETES DES PROBABILITES :

26

4.8 EQUIPROBABILITE :

26

4.9 PROBABILITES CONDITIONNELLES :

27

4.10 INDEPENDANCE :

28

4.11 THEOREME DE BAYES :

29

4.12 THEOREME DES PROBABILITES TOTALES :

30

4.13 FORMULE DE POINCARE

31

4.14 EXERCICES

32

5 VARIABLES ALEATOIRES REELLES

5.0.1 DEFINITION DUNE VARIABLE ALEATOIRE :


5.1 VARIABLES ALEATOIRES DISCRETES

35

35
36

5.1.1 LOI DE PROBABILITE :

36

5.1.2 FONCTION DE REPARTITION :

37

5.1.3 MOMENTS

38

5.1.3.1 esprance mathmatique :

39

5.1.3.2 variance

39

5.1.3.3 autres moments

40

5.2 VARIABLE ALEATOIRE CONTINUE

41

5.2.1 FONCTION DE REPARTITION

42

5.2.2 PROPRIETES DE LA FONCTION DE REPARTITION

42

5.2.3 VARIABLE ALEATOIRE ABSOLUMENT CONTINUE

43

5.2.4 DENSITE DE PROBABILITE

43

5.2.5 PROPRIETES DE LA FONCTION DENSITE

44

5.2.6 PROBABILITE D'UN INTERVALLE

44

5.2.7 MOMENTS

44

5.2.7.1 esprance mathmatique :

44

5.2.7.2 variance :

45

5.2.7.3 autres moments

45

6 PRINCIPALES LOIS DE PROBABILITES

6.1 PRINCIPALES LOIS DISCRETES

49

49

6.1.1 LOI CERTAINE

49

6.1.2 LOI UNIFORME

50

6.1.3 LOI DE BERNOULLI

50

6.1.4 LOI BINOMIALE

51

6.1.5 LOI DE POISSON

52

6.1.6 LOI MULTINOMIALE

53

6.1.7 LOI GEOMETRIQUE

54

6.1.8 LOI HYPERGEOMETRIQUE

55

6.2 PRINCIPALES LOIS DE VARIABLES CONTINUES

56

6.2.1 LOI UNIFORME CONTINUE

56

6.2.2 LOI NORMALE

57

6.2.12 LOI DU KHI-DEUX

61

6.2.13 LOI DE STUDENT (W. S. GOSSET)

62

6.2.15 LOI DE FISHER-SNEDECOR

63

M. MENOU / PROBABILITES ET STATISTIQUE

1 INTRODUCTION

La ralit est trop complexe pour tre directement intelligible par l'tre humain. Aussi, le rle de
la statistique est-il de permettre lhomme la comprhension du rel. Elle constitue, en effet, un
ensemble de techniques intermdiaires entre le concret et l'abstrait. Elle cherche vacuer
objectivement le culturel qui filtre mdiatiquement la perception.
De ce fait, elle peut tre sujette caution, car, comme le remarque P. VALERY : "Ce qui est
simple est faux, ce qui ne l'est pas est inutilisable".
Cependant, comme la dmarche statistique, dans la recherche de la simplification, est
relativement rationnelle, il est possible d'affirmer qu'il n'y a de vrit que statistique, que tout le
reste n'est que littrature.
La ralit se traduit par des objets caractriss par des distributions d'effectifs (absolus) et de
frquences (relatives). L'observation, le classement, la reprsentation et la simplification de ces
donnes constituent l'objet des statistiques descriptives tudies en premire anne.
Les statistiques descriptives permettent la connaissance. Mais le but de la connaissance c'est
l'action.
Agir, dans un contexte conomique caractris par la raret, c'est faire des choix qui prsentent
des cots alternatifs. Ce choix a toujours un caractre inter-temporel. Or, le futur est inconnu et
donc source d'incertitude. Pour agir, il faut lever l'incertitude.
Le corps de connaissances accumules par les sciences permet cependant d'envisager et d'valuer
un certain nombre d'hypothses quant ce futur. Les probabilits fournissent une mthode
d'valuation des choix alternatifs par anticipation. Elles servent donc de base aux techniques
d'estimation et de dcision.
L'objet de ce cours est donc, de prparer la statistique infrentielle.

M. MENOU / PROBABILITES ET STATISTIQUE

NOTE IMPORTANTE :
Ce mmento a pour objet dviter la prise de notes en cours, il ne dispense en aucun cas de
l'assiduit. Le cours sera enrichi d'exemples, de dmonstrations et d'exercices. Lexamen porte
sur le cours dispens.

RAPPELS MATHEMATIQUES

2 Notions sur les ensembles


Ce chapitre rappelle les notions : densemble (2.1), de cardinal (2.2), dinclusion (2.3), de sousensemble (2.4), dgalit (2.5), de complmentaire (2.6), de runion (2.7), dintersection (2.8), de
diffrence (2.9), densemble des parties dun ensemble (2.10), de principe de dualit (2.11), de
partition dun ensemble (2.12) et de produit cartsien (2.13).

2.1 Ensemble :
Un ensemble est une collection d'objets, appels lments, possdant au moins une
caractristique commune tous.
Un ensemble est dfini lorsqu'il est possible pour tout objet de prciser s'il appartient ou non
l'ensemble considr. Dfinir un ensemble c'est crer une enveloppe distinguant un dedans et un
dehors.
Un ensemble est dfini en extension lorsque ses lments sont cits, en comprhension lorsqu'une
proprit caractristique permet de prciser l'appartenance l'ensemble.
Remarque : ce mode binaire de dfinition d'un ensemble peut cependant tre remis en question.
La thorie des sous-ensembles flous1 (fuzy sets) module le degr d'appartenance des lments.
Les ensembles sont reprsents par des diagrammes de VENN.

BOUCHON-MEUNIER B., La logique floue, Que sais-je ?, PUF, 1993.

M. MENOU / PROBABILITES ET STATISTIQUE

2.2 Cardinal :
Le cardinal d'un ensemble E, not card E, est le nombre d'lments de l'ensemble.

Lorsque le cardinal est :


0 l'ensemble est dit vide not ou { }
1 il est appel singleton
2 il forme une paire
3 un triplet
n c'est un n-uplet

2.3 Inclusion :
Un ensemble F est strictement inclus dans l'ensemble E, F E, si et seulement si tout lment de
F est lment de E.

2.4 Sous-ensemble :
Un sous-ensemble, ou partie, F de E est un ensemble d'lments inclus dans E.

2.5 Egalit densembles :


Des ensembles sont gaux lorsqu'ils ont les mmes lments, et non lorsquils ont le mme
nombre dlments. Lgalit est ici qualitative.
E = F <==> E F et F E

2.6 Complmentaire :
Le complmentaire dans E du sous-ensemble A est l'ensemble des lments de E qui
n'appartiennent pas A. Il est souvent not non A ou A .
E est appel le rfrentiel
Complmentaire

A
E

EXEMPLE : E = a, e, i, o, u, y

A = i, y

non A = a, e, o, u

2.7 Runion :
La runion de deux ensembles, note A B, est l'ensemble form des lments appartenant l'un
ou (non exclusif) l'autre ensemble.
La runion est :
Commutative A B = B A

M. MENOU / PROBABILITES ET STATISTIQUE

10

Associative A B C = A (B C) = (A B) C
Distributive par rapport l'intersection
A (B C) = (A B) (A C)
B

EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4
A B = 0, 1, 2, 3, 4, 6, 8

2.8 Intersection :
L'intersection de deux ensembles, note A B, est l'ensemble form des lments communs
l'un et l'autre.
L'intersection est
Commutative A B = B A
Associative A B C = A (B C) = (A B) C
Distributive par rapport la runion
A (B C) = (A B) (A C)
Si des ensembles n'ont aucun lment commun, si lintersection est vide, ils sont dits disjoints.

11

EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4
A B = 0, 2, 4

2.9 Diffrence :
L'ensemble de tous les lments de A qui n'appartiennent pas B est appel diffrence de A et B
not A - B.
B
A

EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4
A - B = 6, 8

2.10 Ensemble des parties d'un ensemble :


C'est l'ensemble form par tous les sous-ensembles de E quil est possible de constituer avec les

M. MENOU / PROBABILITES ET STATISTIQUE

12

lments de E.
si card E = n ==> card P(E) = 2n
Lensemble des parties dun ensemble peut se dterminer facilement et exhaustivement en
utilisant un arbre dichotomique.

EXEMPLE : E = a, b, c
P(E) = , a , b , c , a , b , a , c , b , c , E
card E = 3 ==> card P(E) = 23 = 8

2.11 Principe de dualit :


Tout rsultat vrai relatif des ensembles est galement vrai si l'on remplace les runions par des
intersections, les intersections par des runions, les ensembles par leurs complmentaires et si
l'on renverse les symboles d'inclusions.

Les lois de DE MORGAN en constituent un exemple.


AU B = AI B
AI B = AU B

2.12 Partition d'un ensemble E :


C'est un ensemble de parties de l'ensemble E tel que ces parties soient disjointes deux deux et
que leur runion corresponde E.
A i I Aj = !

UA

=E

13

2.13 Produit cartsien :


A X B (lire A croix B) est l'ensemble des couples (a,b) o a A et b B.
card (A X B) = card A x card B
Ex : A X B
B

(a , 1)

(a , 2)

(a , 3 )

(b , 1)

(b , 2)

(b , 3)

Le produit cartsien nest pas commutatif. A X B B X A

M. MENOU / PROBABILITES ET STATISTIQUE

14

3 Dnombrements ou Analyse combinatoire


Les dnombrements constituent la base des statistiques.
Les dnombrements s'effectuent :

Soit par des comptages directs, partir d'ensembles ou de leurs reprsentations


(arbres)(cas simple)

soit par l'utilisation des concepts de l'analyse combinatoire. (cas complexe)

L'analyse combinatoire est base sur l'tablissement d'applications entre deux ensembles, un
d'objets, l'autre de cases. Ainsi, tout problme de dnombrement se ramne la disposition de n
objets dans p cases.

Il est possible de distinguer l'analyse sans (3.1) ou avec rptition ( 3.2).


Rappels :
Factorielle n : n! = 1 x 2 x 3 x ... x (n-1) x n
3! = 1 x 2 x 3 = 6
4! = 1 x 2 x 3 x 4 = 3! x 4 = 6 x 4 = 24
n! = (n-1) ! x n
0! = 1 par convention
Approximation de STIRLING : n!= 2!

n +1 2

e " n (si n grand)

3.1 Analyse combinatoire sans rptition (n p)

Chaque objet ne peut tre utilis qu'une fois. Il ne peut figurer que dans une seule case. Cela
correspond des tirages dans une urne sans remise.
Il existe trois concepts : les arrangements (3.1.1), les permutations (3.1.2) et les combinaisons

15

(3.1.3).
3.1.1Arrangements :
Un arrangement de n objets dans p cases est toute suite ordonne obtenue en plaant les p objets
choisis parmi les n dans les p cases.
Un arrangement est donc une application injective de l'ensemble des cases dans celui des objets.
Deux choix successifs sont effectuer : il faut d'abord choisir les p objets retenir parmi les n, et
ensuite choisir leur place (case). La place des objets a donc de l'importance, ce qui peut
s'exprimer en disant que les cases sont repres (numrotes par exemple), ou quelles reprent
les objets.
Les p lments objets sont tirs successivement.
Le nombre d'arrangements est donn par :
n!
Anp = n(n "1)(n " 2)...(n " p + 1) =
(n " p)!

!
EXEMPLE : On considre lensemble E = , , Indiquer toutes les possibilits
darrangements de deux lments. , , , , , ,
Vrifier le nombre darrangements.

On cherche dnombrer toutes les possibilits darrive dun tierc de 20 chevaux dans lordre.
6840 possibilits

3.1.2 Permutations :
Une permutation est un cas particulier darrangement de n lments dans n cases (p = n). Tous les
objets sont utiliss, il n'y a donc pas de choix effectuer parmi les objets, seule leur place
importe.
M. MENOU / PROBABILITES ET STATISTIQUE

16

Une permutation est donc une application bijective de l'ensemble des cases dans celui des objets.

Le nombre de permutations est donn par :


Pn = Ann =

n!
n! n!
= = = n!
(n " n)! 0! 1

EXEMPLE : On considre lensemble E = , ,


Indiquer toutes les possibilits de permutations.
, , , , , , , , , , , , Vrifier le nombre de
permutations.
3! = 6
Quatre enfants ont leur disposition 4 dguisements, combien de cas de figure peut-on trouver ?
4! = 24

3.1.3 combinaisons :
Une combinaison de n lments est constitue de tout sous-ensemble de p lments.
Ce sont les arrangements, de n objets dans p cases dont la place n'a pas d'importance. Il faut donc
de ces arrangements dduire toutes les permutations de p objets. Les cases jouent toutes le mme
rle, elles ne se distinguent pas, le seul problme est celui du choix des objets retenir.
Les p lments objets sont tirs en une fois, ce sont des tirages simultans.
Le nombre de combinaisons est donn par :
Ap
n!
Cnp = n =
p! (n " p)! p!

17

Triangle de PASCAL :
1
11
121
1331
14641
1 5 10 10 5 1
C 00
C10 C11
C 02 C12 C22
C30 C13 C23 C33
p
proprits de Cn (cf. le triangle de PASCAL):
p
n-p
Cn = Cn
Symtrie
p
p
p-1
Cn = Cn-1 + Cn-1
formule du binome :
n n k k n-k
(a + b) = Cn a b
k=0

EXEMPLE : On considre lensemble E = , , Indiquer toutes les possibilits de


combinaisons de deux lments. , , , , , ,
Vrifier le nombre de combinaisons.
Dnombrer le nombre de tiercs dans le dsordre dune course de 20 chevaux.
1140 possibilits

M. MENOU / PROBABILITES ET STATISTIQUE

18

3.2 Analyse combinatoire avec rptition


Les mmes concepts se retrouvent : les arrangements (3.2.1), les permutations (3.2.2) et les
combinaisons (3.2.3).

Le mme objet peut tre rutilis (il peut se trouver dans plusieurs cases). Cela correspond des
tirages avec remise.

3.2.1 Arrangements
Le nombre de tels arrangements est donn par :
p

EXEMPLE : On considre lensemble E = , ,


Indiquer toutes les possibilits darrangements de 2 lments avec rptition.
, , , , , , , , ,
Vrifier le nombre darrangements.

3.2.2 Permutations
Ici, ce nest pas vritablement une permutation avec rptition car, si on dispose dautant dobjets
que de cases, comme le veut la dfinition des permutations, il ny a pas de place pour les
rptitions. Si n objets sont distinguables en r groupes de tailles respectives n1 ... nr, il faut
considrer que chaque permutation des objets d'un mme groupe ne constitue pas une
permutation diffrente de l'ensemble. Ces permutations-l doivent donc tre dduites.

19

BBRV
B R B V en permutant le 2me et le 3me lment cela change
B B R V en permutant le 1er et 2me lment il ny a pas de changement
Le nombre de permutations est donn par :
n!
n2
nr
= Cnn1 Cn"n
...Cn"n
1
1 "..."n r "1
n1!n 2!...n r!
De cette expression se dduit la formule multinomiale.
!
EXEMPLE : On dispose de 3 et de 2 Quelles sont toutes les dispositions possibles.


3.2.3 combinaisons
Le mme objet pouvant se rpter p - 1 fois au maximum, cela revient disposer de n+p-1 objets
dont il s'agit d'en choisir p. Il faut rajouter p - 1 objets aux n existants et considrer alors que lon
est dans le cas des combinaisons sans rptition.
Le nombre de combinaison est donn par :
p
p
C
Kn = n+p-1

EXEMPLE : On considre lensemble E = , ,


Indiquer toutes les possibilits de combinaisons de 2 lments avec rptition.
, , , , , ,
Vrifier le nombre de combinaisons.

M. MENOU / PROBABILITES ET STATISTIQUE

20

En pratique :

Pour comprendre les exercices, il est conseill de visualiser le problme avec des ensembles plus
simples (cardinaux n et p infrieurs), de constituer des modles rduits.
Pour effectuer tout dnombrement, il est ncessaire de chercher adopter un dispositif matriel
susceptible de permettre d'obtenir l'vnement, dont on cherche valuer tous les cas, tous les
coups.

21

4 LES PROBABILITES
Lintrt des probabilits en statistique repose sur le fait que :
Lobservation est entache derreurs ;
Les phnomnes observs sapparentent des modles mathmatiques de lois alatoires ;
La composition des chantillons dpend du hasard.

Seront successivement passs en revue les concepts : dpreuve alatoire (4.1), rsultat dune
preuve (4.2), univers des possibles (4.3), vnement (4.4), correspondance entre ensembles et
vnements (4.5), probabilit et frquence (4.6), dfinition axiomatique des probabilits (4.7),
quiprobabilit (4.8), probabilits conditionnelles (4.9), indpendance (4.10), thorme de Bayes
(4.11), thorme des probabilits totales (4.12) et formule de Poincar.

4.1 Epreuve alatoire :


Tous les actes des humains, ou de leur environnement, ont des consquences dont l'issue n'est pas
toujours trs certaine. Ainsi, tout peut tre interprt en termes d'exprience alatoire, mme si,
toutes les causes ne sont pas matrises.

Exemple : la face qui rsulte du jet d'un d, le chiffre d'affaires d'une entreprise.

4.2 Rsultat d'une preuve :


Ce qui se produit rellement est appel rsultat de l'preuve, ou ralit.

Exemple : le "6", 36 800

M. MENOU / PROBABILITES ET STATISTIQUE

22

4.3 Univers des possibles :


C'est l'ensemble de tout ce qui est susceptible de se produire dans le cadre dune exprience
alatoire. Il est gnralement dsign par .
peut tre fini, infini dnombrable ou infini non dnombrable.
Un ensemble est fini quand son cardinal est dfini.
Un ensemble est infini dnombrable s'il a la puissance de IN l'ensemble des entiers naturels,
infini non dnombrable s'il a la puissance de IR l'ensemble des nombres rels.

Exemple : {1,2,3,4,5,6}, [0 ; 200 000K]

4.4 Evnements :
Un vnement est une partie (et non un lment) de l'univers des possibles. Il est ncessaire de
bien distinguer les vnements lmentaires des vnements tout court .

Un vnement lmentaire est un lment de ou un singleton de P().

Exemple : { 6 }

Un vnement tout court est un lment de l'ensemble des parties de .

Exemple : "un nombre pair" = { 2,4,6 }

Un vnement est ralis si la ralit est un lment de cet vnement, cest--dire de cette partie
de .

23

Exemple : { 2,4,6 } est ralis si c'est 6 qui est obtenu.

Evnement certain : un vnement est certain s'il correspond , c'est--dire la partie pleine de
P().

Evnement impossible : un vnement impossible correspond l'ensemble vide, qui ne peut


comprendre dlment.

Evnements incompatibles : des vnements sont incompatibles si la ralisation de lun exclut la


ralisation des autres.

4.5 Correspondance entre ensembles et vnements


Univers des possibles
rsultat possible a
rsultat ralis r

Rfrentiel
lment a de
lment r (ralit)

vnement A de

partie A de

vnement A ralis

rA

vnement certain
vnement impossible

ensemble
ensemble vide

vnement contraire de A

complmentaire A de A

vnement B non ralis

r B ou r B

vnement A ou B
vnement A ou B ralis
vnement A et B
l'vnement A et B est ralis

AUB
rAUB
AB
rAB

les vnements A et B sont incompatibles A B =


M. MENOU / PROBABILITES ET STATISTIQUE

24

l'vnement A implique l'vnement B


systme complet d'vnements

AB
partition de

4.6 Probabilit et frquence :


Les probabilits peuvent tre rapproches de la notion de frquence. Une probabilit est la
frquence obtenue lors d'un grand nombre d'essais. J. BERNOULLI nona au XVIIIe sicle la
loi des grands nombres ainsi : lorsque n augmente indfiniment, la frquence fn tend vers une
limite f qui est gale la probabilit p. Cette loi est parfois considre comme une tautologie, car
c'est justement ainsi que peut tre dfini la probabilit. Cette approche est dite a posteriori. Une
frquence est une probabilit empirique.
Un raisonnement a priori peut permettre d'valuer la probabilit d'un vnement en rapportant le
nombre de faons de raliser l'vnement au nombre d'ventualits totales.

4.7 Dfinition axiomatique des probabilits :


Une dfinition axiomatique2 des probabilits, due KOLMOGOROV, peut tre donne pour
viter les difficults des approches a priori et a posteriori.
Une probabilit est une application, de l'ensemble des parties de dans l'intervalle [0, 1] de IR,
qui vrifie certains axiomes.
Une probabilit constitue une mesure densemble.

IR

Un axiome est une vrit non dmontrable qui simpose avec vidence

25

P(A)

4.7.1 Axiomes des probabilits :


P(A) 0 A P()
P() = 1
P( U An ) = P(An) o les An constituent une suite d'vnements deux deux incompatibles.

4.7.2 Proprits des probabilits :


A B ==> P(A) P(B) et P(B - A) = P(B) - P(A)
P() = 0
_
P(A) = 1 - P(A)
0 P(A) 1

4.8 quiprobabilit :
Lorsque le bon sens indique qu'aucun vnement lmentaire ne semble devoir tre plus favoris
qu'un autre, ces vnements sont dits quiprobables. Cela signifie que chaque vnement
lmentaire a la mme probabilit, la distribution de probabilits est dite uniforme.

Exemple : Un d non pip.

M. MENOU / PROBABILITES ET STATISTIQUE

26

Si le cardinal de est n, comme P() = 1, la probabilit d'un vnement lmentaire est 1/card
= 1/n.
Tout vnement A correspondant la runion d'vnements lmentaires, sa probabilit est card
A / card .
Ce thorme permet de dfinir, de faon oprationnelle, la probabilit d'un vnement comme
tant le rapport d'un nombre de cas favorables sur un nombre de cas galement possibles. Il est
cependant ncessaire de ne pas oublier que les vnements lmentaires doivent tre
quiprobables.
Si p est la probabilit dun vnement, sa cote est p / q (p contre q), cest le rapport de p sur q.

4.9 probabilits conditionnelles :


Une probabilit conditionnelle est une probabilit pour laquelle une information partielle sur le
rsultat est donne.
EXEMPLE : la probabilit d'avoir obtenu 6 sachant que le nombre obtenu est pair.

Il s'agit de dterminer la probabilit d'un vnement A sachant que l'vnement B est ralis.
Le fait que B soit ralis apporte une information plus ou moins grande quant la ralisation de
A. Quoi qu'il en soit, l'univers des possibles peut alors se restreindre du fait de cette information.

Le possible est mme connu puisqu'il s'agit de B qui remplace .

27

Exemple : = { 1,2,3,4,5,6 } ----> B = { 2,4,6 }

P(A/B) = Nombre cas favorables / Nombre cas possibles =

cardA ! B
cardB

En divisant par card haut et bas :


P(A/B) = P(A B) / P(B)

Exemple : P(6 / nombre pair) = 1 / 3

Ceci peut aussi s'crire :


P(A B) = P(A/B) x P(B)

Comme l'intersection est commutative :


P(A B) = P(B/A) x P(A)

4.10 Indpendance :
Deux vnements sont indpendants si la ralisation de l'un n'agit pas sur la ralisation de l'autre.
Si A et B sont indpendants, la connaissance de la ralisation de l'un n'apporte aucune
information, sur la probabilit de l'autre.

M. MENOU / PROBABILITES ET STATISTIQUE

28

P(A/B) = P(A) ==> P(A B ) = P(A) x P(B)


A et sont indpendants
A et sont indpendants
A et B sont indpendants si et seulement si A et non B sont indpendants

Lindpendance se distingue de lincompatibilit.


Supposons A et B la fois indpendants et incompatibles :
P(A B ) = P(A) x P(B) (Indpendance)
P(A B ) = P() = 0 (Incompatibilit)
donc P(A) ou P(B) = 0
A et B sont compatibles et indpendants :
P(A B) = P(A) + P(B) - P(A).P(B)
A et B sont compatibles et dpendants :
P(A B) = P(A) + P(B) - P(A).P(B/A)

Exemple : P(6 / le d est blanc) = P(6)

4.11 Thorme de BAYES :


Le thorme de BAYES est encore appel thorme des probabilits des causes.
Soient deux causes incompatibles, il est gnralement possible d'valuer leurs effets et de
dterminer a priori les probabilits des effets connaissant les causes. Le thorme de BAYES
permet de calculer, alors, la probabilit des causes sachant que les effets se sont produits.

29

E
C

non E

P(E/C)

non C

P(C)
1 - P(C)

nombre de cas favorables


nombre de cas egalement possibles
P(E ! C)
P(E ! C)
P(C / E) =
=
P( E)
P(E ! C) + P(E ! C)
P(C / E) =

_
__
P(C/E) = (P(E/C).P(C)) / (P(E/C).P(C) + P(E/C).P(C))

EXEMPLE : Lquipe de France de rugby gagne (E) 8 fois sur 10 quand il fait beau (C) et 4 fois
sur 10 quand il pleut (non C). La mto indique quil fait beau une fois sur 3. Sachant que les
Franais ont gagn, quelle est la probabilit quil ait fait beau ?
8 x1
8
8
10
3
p(C/ E) = 8
= 1630 =
= 0,5
1
4
2
10 x 3 + 10 x 3
30 16

4.12 Thorme des probabilits totales :


Un axiome, de la dfinition des probabilits, supposait que si A et B taient des vnements
incompatibles, la probabilit de A B tait la somme des probabilits de A et de B. Le thorme
suivant gnralise l'axiome au cas o A et B sont quelconques.
P(A B) = P(A) + P(B) - P(A B)
si A B = alors P(A B) = P(A) + P(B)

M. MENOU / PROBABILITES ET STATISTIQUE

30

EXEMPLE : Au jet dun d, quelle est la probabilit dobtenir 6 (A) ou un nombre pair (B).
P(A B) = P(A) + P(B) - P(A B)
= 1/6 + 3/6 - 1/6 = 3/6 = 1/2

4.13 Formule de POINCARE


La formule de POINCARE gnralise le thorme des probabilits totales au cas de n
vnements. Soit un ensemble E fini, soit A1, A2, ..., An des parties de E
P(Ai) = P(Ai) - P(AiAj) + P(AiAjAk) - ...
i
i<j
i<j<k
Cette formule donne la probabilit de (A1 ou A2 ou ... ou An)

EXEMPLE : Dans un bal 4 couples dansent le rock. Une coupure dlectricit spare les couples.
Chaque cavalier choisit alors une partenaire au hasard. Quelle est la probabilit quil y ait au
moins un cavalier qui retrouve sa cavalire du dpart ?
P(Ai) = 0,25 = 1/4
P(Ai Aj) = 0,25 x 0,33 = 0,0825 = 1/4 x 1/3
P(Ai Aj Ak) = 0,04125 = 1/4 x 1/3 x 1/2
P(AI Aj Ak Al) = 1 / 4! = 0,04125 = 1/4 x 1/3 x 1/2 x 1/1
! 4 $
p## U Ai && = C41O, 25 ' C42 0, 0825 + C43 0, 04125 ' C44 0, 04125
" i =1 %
= 4x0, 25 ' 6x0, 0825 + 4x0, 04125 ' 0, 04125 = 1 ' 0, 495 + 0,165 ' 0, 04125 = 0, 6283

31

4.14 Exercices

EXERCICE : On jette une pice de monnaie 3 fois de suite. Soit A lvnement : le mme ct
apparat trois fois et lvnement B : le ct face apparat au moins deux fois.
Donner la composition de lunivers des possibles

Avec larbre dichotomique :


PPP
PPF

PFP
PFF

FPP
FPF

FFP
FFF
1er jet

2me jet

3me jet

M. MENOU / PROBABILITES ET STATISTIQUE

32

Autre mthode : Avec le produit cartsien


= P, F

(P, P)

(P, F)

(F, P)

(F, F)

PP

PPP

PPF

PF

PFP

PFF

FP

FPP

FPF

FF

FFP

FFF

2 = x
x

3 = x X
Donner le cardinal de .
Card 3 = 23 = 8

Avec lanalyse combinatoire :


Anp = np = 23 = 8 (arrangement avec rptition)
Donner la composition des vnements A, B, A B

A = PPP, FFF

Card A = 2

B = FFP, PFF, FPF, FFF Card B = 4


A B = FFF

Card A B = 1

En dduire la probabilit de chacun des trois vnements.


33

P(A) = 2 / 8 = 0,25
P(B) = 4 / 8 = 0,5
P(A B) = 1 / 8 = 0,125

EXERCICE : On tire 8 cartes dun jeu de 32


Probabilit davoir 2 as ?
Probabilit davoir k as ?
Probabilit davoir au moins 1 as ?
C04 xC 828
P(1 as ou 2 as ou 3 as ou 4 as) = 1 - P(0 as) = 1 !
C832
Probabilit davoir au plus 1 as ?
C14 xC728 C04 xC 828
P(1 as ou 0 as) =
+
C 832
C832
Probabilit davoir 2 as et 3 piques dont las de pique ?

C11 xC13 xC27 xC 421


C832
EXERCICE : Un sac contient 4 billes rouges et 6 billes noires. On tire 2 billes successivement et
on sintresse la probabilit de lvnement : la premire bille tire est rouge et la seconde est
noire. Quelle est la probabilit de (R1 et N2) ?

P(R1 et N2) = P(R1 N2) = P(N2/R1) x P(R1)


a) si on remet la premire bille tire dans le sac avant le deuxime tirage ?
P(R1 et N2) = P(R1 N2) = P(N2) x P(R1) = 6/10 x 4/10 = 24/100
b) si on ne la remet pas ?
P(R1 et N2) = P(R1 N2) = P(N2/R1) x P(R1) = 6/9 x 4/10 = 24/90

M. MENOU / PROBABILITES ET STATISTIQUE

34

5 VARIABLES ALEATOIRES REELLES


5.0.1 Dfinition dune variable alatoire :
Une variable alatoire est, en fait, une application dtermine. Il ne s'agit, en effet, ni d'une
variable, ni d'une quantit alatoire. C'est une application de dans IR qui, chaque vnement,
fait correspondre un nombre rel. Il s'agit, en fait, d'une sorte de codage plus ou moins arbitraire.
L'objectif poursuivi est de permettre d'appliquer le calcul numrique des vnements dont la
dfinition, ou lexpression, est souvent littraire.

ex : P(face du d comprend 3 points) se traduit par P(X = 3)


Les variables alatoires sont gnralement reprsentes par X, ou par une autre lettre majuscule,
les minuscules tant rserves aux valeurs certaines prises par les v. a.
ei ------> X(ei) = xi IR
IR

ei

P(X = xi)

X(ei)=xi

IR

EXEMPLE : A la belote le valet datout correspond X = 20

35

Deux cas sont distinguer :


- Les valeurs prises par l'application sont en nombre fini ou infini dnombrable, la
variable est dite discrte.(lments distinguables)
- Les valeurs sont en nombre infini non dnombrable, la variable est dite continue.
(lments fusionns)

Il est donc toujours ncessaire de dfinir X et X(), l'ensemble des valeurs thoriquement prises
par la variable alatoire.

Deux types de variables alatoires sont distinguer : les variables discrtes (5.1) et les variables
continues (5.2).

5.1 Variables alatoires discrtes

Il y a deux types de variables alatoires discrtes :


- les v.a. discrtes finies : l'ensemble des valeurs possibles est fini.
- les v.a. discrtes infinies : l'ensemble des valeurs possibles est infini, mais dnombrable.

Les points suivants sont abords : loi de probabilit (5.1.1), fonction de rpartition (5.1.2) et
moments (5.1.3).

5.1.1 loi de probabilit :


c'est l'ensemble des couples (xi, pi), qui, chaque vnement i reprsent par la valeur de la
variable alatoire associ xi, fait correspondre sa probabilit, pi.
pi = P(X = xi)

M. MENOU / PROBABILITES ET STATISTIQUE

36

pi = 1
i

xi

pi = P(X = xi)

0,10

0,50

0,35

0,05

Pi

xi

5.1.2 fonction de rpartition :


c'est l'application F de IR dans IR dfinie par :

-1
F(x) = P(X x) = P(X ] -, x [)
(dfinition anglo-saxonne)
37

La dfinition franaise est F(x) = P(X < x) = pi


i
Il s'agit donc d'effectuer le cumul des probabilits pour les valeurs de X infrieures ou gales x.

xi

P(X xi)

0,10

0,60

0,95

P(X xi)

xi

Proprits :
F est une fonction en escalier croissante de 0 1, continue droite.

5.1.3 moments
Les moments sont des valeurs caractristiques de la variable. Ils renseignent sur son ordre de

M. MENOU / PROBABILITES ET STATISTIQUE

38

grandeur, sa dispersion, sa symtrie, etc.

5.1.3.1 esprance mathmatique :


Lesprance mathmatique correspond la moyenne arithmtique tudie en statistique
descriptive. Cest le moment non centr dordre 1.
E(X) = xi P(X = xi) = pi xi
i
i
proprits de l'esprance :
E(a) = a
E(aX) = a E(X)
E(X+a) = E(X) + a
E(X) = E(X)

xi

pi

xi pi

0,10

0,1

0,50

0,35

1,05

0,05

0,2
E(X) = 2,35

5.1.3.2 variance

faible E(X)

forte

E(X)

La variance est le moment centr dordre 2 :


2
2
2
V(X) = E[X-E(X)] = E(X ) - (E(X)) (KOENIG)
2

2
39

V(X) = pi xi - (E(X))
i
xi

pi

xi2 pi

0,10

0,1

0,50

0,35

3,15

0,05

0,8
V(X) = 6,05 - (2,35)2 = 0,53

proprits de la variance :
V(a) = 0
2
V(aX) = a V(X)
V(X + a) = V(X)
V(X) V(X) en gnral sauf si les variables sont indpendantes
Ecart type :
Pour se ramener la mme unit que la variable, on calcule lcart type. La variance faisant
intervenir le carr de la variable, lcart type se calcule en prenant la racine carre de la variance.
ET(X) = 0,728
5.1.3.3 autres moments
moments non centrs d'ordre r :
r
r
mr = E(X ) = pi xi
i
r = 1 esprance mathmatique
moments centrs d'ordre r :
r
r
r = E[X - E(X)] = pi [xi - E(X)]
i
r = 2 variance
Les moments n'existent que si les sries convergent.

M. MENOU / PROBABILITES ET STATISTIQUE

40

EXERCICE : On a plac dans une urne 4 pices de 0,1 et 6 pices de 0,5 . On tire
simultanment 2 de ces pices. On dfinit une variable alatoire X par le total des pices tires.
a) Quelles sont les valeurs possibles de X ?
b) Loi de probabilit de X ?
c) Fonction de rpartition de X ?
d) Esprance mathmatique de X ?
e) Variance de X ?
a) X() = 0,2 ; 0,6 ; 1
b) P(X = 0,2) = 12/90 = 0,13
P(X = 0,6) = 48/90 = 0,53
P(X = 1) = 30/90 = 0,34
C) P(X x)
P(X 0,2) = 12/90 = 0,13
P(X 0,6) = 60/90 = 0,66
P(X 1) = 90/90 = 1
d) E(X) = 0,13 x 0,2 + 0,53 x 0,6 + 0,34 x 1 =
E(X) = 0,026 + 0,318 + 0,34 = 0,684
e) E(X2) = 0,0052 + 0,1908 + 0,34 = 0,536 2
V(X) = 0,13 x 0,22 + 0,53 x 0,62 + 0,34 x 12 - 6,842 =
V(X) = 0,536 - 6,842 = 0,068144 2
ET(X) = 0,261044

5.2 variable alatoire continue


L'ensemble des valeurs possibles pour une variable alatoire relle continue est infini non
dnombrable ce qui leur donne un caractre de continuit. Les valeurs ne sont plus distinguables.
41

Les vnements de la forme X = x sont de probabilit nulle, non parce qu'ils sont impossibles,
mais parce qu'ils exigent une trop grande prcision. En revanche, se situer proximit de x cest-dire dans un voisinage ([x- ; x+]) proche de X = x est probable.
Pour une variable alatoire continue, il est dit quil nexiste pas de probabilit ponctuelle. En
gomtrie, le point est rput tre sans dimension, il ne peut donc tre lobjet dune mesure. Or,
la probabilit est prcisment une mesure densemble.

Les concepts sont les suivants : fonction de rpartition (5.2.1), proprits de la fonction de
rpartition (5.2.2), variable alatoire absolument continue (5.2.3), densit de probabilit (5.2.4),
proprit de la fonction densit (5.2.5), probabilit dun intervalle (5.2.6), moments (5.2.7).

5.2.1 fonction de rpartition


Puisque les probabilits ponctuelles sont nulles, les variables continues seront dfinies par la
probabilit d'intervalles.
Ainsi, peuvent tre considrs des vnements de la forme :
X ] - , x [ ou X < x
La probabilit de tels vnements est la probabilit cumule jusqu' x.
F(x) = P(X < x)
Tout intervalle [x- ; x+] peut tre considr comme la diffrence entre deux vnements du
type ] - , x [ :
] - , x+ [ - ] - , x- [
F(x) est appele fonction de rpartition.

5.2.2 Proprits de la fonction de rpartition


F est continue, croissante au sens large sur IR

M. MENOU / PROBABILITES ET STATISTIQUE

42

lim F(x) = 1 quand x --> +


lim F(x) = 0 quand x --> -
F est drivable sur IR sauf, peut tre, sur un ensemble fini de points, o elle est drivable
gauche et droite.
F est continue gauche en tout point.
F a une drive continue

F(x)
1

5.2.3 variable alatoire absolument continue


X est absolument continue si, et seulement si :
- F admet, sauf peut tre en certains points en nombre fini, une drive f 0 qui possde
certaines proprits.
x

F(x) =

# f (t)dt

!"

5.2.4 densit de probabilit


La fonction f(x) reprsente une densit de probabilit de X.
Cest ce qui correspond, dans le cas continu, la loi de probabilit, dans le cas discret.
43

L'lment diffrentiel f(x) dx est appel probabilit lmentaire, c'est ce qui, par abus de langage,
correspond la probabilit pi (car la probabilit ponctuelle n'existe pas).
f(x) dx = P(x X < x + dx)
f(x) est la drive de la fonction de rpartition F(x).

5.2.5 proprits de la fonction densit


f est positive ou nulle
f est continue par morceaux sur IR
f admet une limite finie gauche et droite l o elle est discontinue
+"

# f (x) dx = 1

!"

5.2.6 probabilit d'un intervalle

P(a X b) = F(b) - F(a) =

! f(x)dx = ! f(x)dx " ! f(x)dx


a

"#

"#

P(a X b) = P(a < X < b)

5.2.7 moments
5.2.7.1 esprance mathmatique :

M. MENOU / PROBABILITES ET STATISTIQUE

44

+"

E(X ) =

# xf (x)dx

!"

Lesprance mathmatique a, bien entendu, les mmes proprits que dans le cas discret.

5.2.7.2 variance :

+"

+"

+"
$
'
2
2
&
V( X) = # (x ! E(x )) f(x)dx = # x f(x)dx ! # xf(x)dx)
% !"
(
!"
!"
V(X) = E(X2)-E2(X)
La variance a, bien entendu, les mmes proprits que dans le cas discret.
A partir de la variance, on calcule lcart type. Lcart type est la racine carre de la variance.

5.2.7.3 autres moments


non centr d'ordre r :
+"
r
r

E(X ) =

#x

f (x)dx

!"

centr d'ordre r :

45

+"
r

E(X r ) = # ( x ! E(x) ) f (x)dx


!"

EXERCICE :
k
pour
x
= 0 sinon

f(x) =

x ! [1, 4]

a) Calculer k pour que f soit une densit


b) Etudier la fonction
c) Dterminer la fonction de rpartition
d) Calculer lesprance mathmatique
e) Calculer la variance
4

k
dx = 1
x

!
1

"1

k! x 2 dx = 1
1

# 12 &
a) 2k % x ( = 1
$ '
1

2k( 4 " 1 ) = 1
k=

1
2

b)
!3

1 1
f' (x) = ! " x 2 < 0
2 2
x

1/2

M. MENOU / PROBABILITES ET STATISTIQUE

46

1/4
0

1/2

1/4

c)
x

1
" 12 %
F( x) = !
dt = $ t ' = x 2 ( 1
2
t
# &1
1

d)
4

4
1
3
3
3
- 1
1
1 2# &
1*
7
E(x) = !
dx = ! x 2 dx = " % x 2 ( = , 4 2 ) 12 / = (8 ) 1) =
2 x
21
2 3 $ '1 3 +
. 3
3
1

e)

47

3
5
5
5
2
x2
14 2
1 2 ( 2 + # 7 % 2 1 #. 2
% # 7% 2
# 7%
2
2/
V(x ) = !
dx " E (x) = ! x dx " $ & = ' x
"
=
4 "1 " $ &
2 x
21
3
2 5 *) -,1 $ 3 &
5$
3
&
1
4

1
49 31x9 49x5 279 " 245 34
"
=
=
(32 " 1) " =
5
9
45
45
45
45

M. MENOU / PROBABILITES ET STATISTIQUE

48

6 PRINCIPALES LOIS DE PROBABILITES


Les lois de probabilits se distinguent en lois discrtes (6.1) et lois continues (6.2).
6.1 Principales lois discrtes

Les diffrents types de distributions empiriques de frquences peuvent se ramener des


distributions relatives un certain nombre d'expriences alatoires types. Ces phnomnes types
sont appels des lois thoriques. Les modles d'urne permettent d'illustrer de telles expriences.
Le problme consiste gnralement reconnatre la loi suivie par un phnomne empirique
alatoire observ.
La description des principales lois tant par la dfinition de l'preuve, que par le graphe du
rsultat, permet, par la comparaison avec les observations empiriques, de rsoudre ce problme.

Les principales lois discrtes sont : loi certaine (6.1.1), loi uniforme (6.1.2), loi de Bernoulli
(6.1.3), loi binomiale (6.1.4), loi de Poisson (6.1.5), loi multinomiale (6.1.6), loi gomtrique
(6.1.7) et loi hypergomtrique (6.1.8).

6.1.1 loi certaine


Une variable certaine est une v.a. X constante. Lurne ne contient quune catgorie dlments.
X() = { a }
loi de probabilit :
P(X = a) = 1
moments :
E(X) = a
V(X) = 0
49

6.1.2 loi uniforme


Cette v.a. correspond au numro d'un objet choisi au hasard parmi n, numrots de 1 n
(quiprobabilit). Lurne contient des boules numrotes. On tire une boule au hasard. On note
son numro.
X() = [1 , n] IN X prend n valeurs, n tant fini.
loi de probabilit :
P(X = xi) = 1/n
P(x)

F(x)

moments :
E(X) = (n + 1) / 2
V(X) = (n2 - 1) / 12
Coefficient d'asymtrie 0
Coefficient d'aplatissement -6/5 (n2+1)/(n2-1) + 3

EXEMPLE : On jette un d non pip.

6.1.3 loi de BERNOULLI


Une v.a. X de BERNOULLI est une v.a. qui ne prend que les valeurs 0 et 1 avec des probabilits
non nulles.

M. MENOU / PROBABILITES ET STATISTIQUE

50

Cette v.a. correspond au rsultat d'une exprience comportant deux issues E et S. Elle est aussi
dnomme variable indicatrice, car elle permet d'indiquer si un vnement s'est produit ou pas.
Lurne contient deux catgories de boules en proportion p et q. On effectue un tirage, et on note
si cest un succs ou un chec.
X() = { 0 , 1 } O pour chec, 1 pour succs

loi de probabilit :
P(X = 1) = p

P(X = 0) = q = 1 - p

moments :
E(X) = p
V(X) = pq

6.1.4 loi binomiale


Une loi binomiale correspond la rptition de n preuves indpendantes de BERNOULLI.
Cela correspond n tirages, avec remise, dans une urne comprenant deux catgories d'lments
en proportion p et q.
La variable X reprsente le nombre k de succs obtenus.
X() = [0 , n]
loi de probabilit :
Son nom provient du dveloppement de la puissance d'un binme :
2 2
2
0 2
1
2 2
( p + q ) = p + 2 pq + q = C2 p + C2 pq + C2 q
k k n-k
P(X = k) = Cn p q

moments :
Esprance E(X) = np

51

Variance V(X) = npq


Coefficient d'asymtrie (q - p) / (npq)
Coefficient d'aplatissement ((1 - 6pq) / npq) + 3

somme :
La somme de variables alatoires indpendantes suivant des lois binomiales de paramtres (n1 ,
p) et (n2 , p), donc de mme probabilit de succs p, est une variable alatoire suivant une loi
binomiale de paramtres (n1 + n2 , p).

comportement asymptotique :
La loi binomiale peut tre approxime par une loi de POISSON si n 30, p 0,1 , np 10.
La loi binomiale peut tre approxime par une loi normale si n > 20, p et q voisin de 0,5 , np et
nq > 15.

EXEMPLE : On prlve au hasard 50 spcimens dans une chane de mise en botes de conserve
et lon en pse le contenu. On sintresse au nombre de botes qui ont un poids suprieur ou gal
au poids indiqu.

6.1.5 loi de POISSON


La loi de POISSON concerne des phnomnes caractre accidentel, soit de faible probabilit.
Elle concerne des tirages avec remise dans une urne comprenant deux catgories dlments.
X suit une loi de POISSON de paramtre si X IN
X() = IN
loi de probabilit :
e" # #k
P(X = k) =
k!
moments :
!

M. MENOU / PROBABILITES ET STATISTIQUE

52

E(X) =
V(X) =
Coefficient de symtrie 1/
Coefficient d'aplatissement 3 + (1/)
somme :
La somme de deux variables alatoires indpendantes suivant des lois de POISSON est une
variable de POISSON dont le paramtre est la somme des paramtres.

comportement asymptotique :
La loi de POISSON est la limite d'une loi binomiale. Le paramtre (esprance de la loi de
Poisson) est gal np (esprance de la loi binomiale).
Les conditions vrifier pour que l'approximation soit relativement correcte sont :
n 30 , p 0,1 , np 10

La loi de POISSON peut tre approxime par une loi normale si np > 15.
(X - ) / suit une N(0,1) pour grand

EXEMPLE : Une nuit dt, on observe en moyenne une toile filante toutes les 10 minutes.
Quelle est la probabilit den observer 2 en un quart dheure ?
6 par h. donc = 1,5 par quart dh. P(X = 2) = 0,25

6.1.6 loi multinomiale


Gnralisation de la loi binomiale.
Tirages avec remise (donc indpendants) de n lments dans une urne m catgories d'lments
en proportion p1, ..., pm.
On cherche la probabilit dobtenir un Nombre nj d'lments de type j.
53

loi de probabilit :
n1 nm
P(N1 = n1, ..., Nm = nm) = n! / (n1! ... nm!) p1 ... pm
moments :
E(Nj) = n pj
V(Nj) = n pj qj
Cov(Nj,Nk) = - n pj pk j = k

EXEMPLE : On dispose de 3 livres en franais, 2 en anglais et 1 en espagnol. On tire avec remise


deux livres au hasard. Quelle est la probabilit de tirer 1 livre en anglais et celui en espagnol ?
p1 = 3/6 = 1/2 p2 = 2/6 = 1/3 p3 = 1/6
2! ! 1 # 0 ! 1# 1 ! 1 # 1 1
P=
= % 11%
1!1! " 2 $ " 3$ " 6 $
9

6.1.7 loi gomtrique


Tirages, avec remise, dans une urne comprenant deux catgories d'lments en proportion p (S) et
q (E).
La variable correspond au rang x du premier succs.
Cette loi correspond une loi de PASCAL d'ordre 1.
X() = IN*

loi de probabilit :
x-1
P(X = x) = q
p
moments :
E(X) = 1 / p
2
V(X) = q / p

M. MENOU / PROBABILITES ET STATISTIQUE

54

EXEMPLE : Un tireur larc atteint le centre de la cible 1 fois sur 4. Quelle est la probabilit
quil russisse pour la premire fois au deuxime tir ?
p = 0,25

q = 1 0,25 = 0,75

P(X = 2) = q p = 0,75 x 0,25 = 0,1875 = 18,75 %

6.1.8 loi hypergomtrique


Tirages, sans remise, donc dpendants, dans une urne de N lments rpartis en deux catgories
d'lments de proportion p (S) et q (E).
La variable X est le nombre x de succs en n tirages.
X() inclus dans [0 , n]
loi de probabilit :
CNk p CNn"k
q
P(X = k) =
n
CN
moments :
!

E(X) = n p
V(X) = npq (N - n) / (N - 1)

comportement asymptotique :
La loi hypergomtrique peut tre approxime par une loi binomiale si :
N est grand et si n/N < 0,1

EXEMPLE : On tire 8 cartes dun jeu de 32, quelle est la probabilit davoir 4 as ?

55

6.2 Principales lois de variables continues


Les principales lois de probabilits sont : la loi uniforme continue (6.2.1), loi normale (6.2.2),
loi du khi-deux (6.2.12), loi de student (6.2.13) et la loi de Fisher Sndcor (6.2.15).
6.2.1 loi uniforme continue
Une loi uniforme est dfinie par :
X() = [a,b]
fonction densit :
f(x) = constante sur [a , b]
f(x) = 0

ailleurs

Du fait de la proprit de la fonction densit :


f(x) = 1 / (b - a) 1I[a,b] (x)
fonction de rpartition :
F(x) = 0

xa

F(x) = (x - a) / (b - a)
F(x) = 1

a<xb

x>b

M. MENOU / PROBABILITES ET STATISTIQUE

56

S
a

1
S

moments :
E(X) = (a + b) / 2
V(X) = (b - a)2 / 12
Coefficient d'asymtrie 0
Coefficient d'aplatissement 9/5

6.2.2 Loi normale


La loi normale ou de LAPLACE-GAUSS est une des lois les plus importantes car elle sert
reprsenter de nombreux phnomnes.
Lorsquun phnomne rsulte de multiples causes alatoires indpendantes, dont aucune ne
domine, il suit une loi normale.
X est une variable alatoire relle absolument continue suivant une loi normale de paramtres :
esprance et cart type .
X() = ] -,+ [
fonction densit :

57

$1

(x$ )2
1
2
f (x) =
e 2"
" 2#
X est symtrique par rapport . E(X) = est aussi mdiane.

fonction de rpartition :
x

P(X x) =

F(x) =

# f (t)dt

!"

de mme :

b
P(a X b) =

! f (x)dx
a

Le calcul de ces intgrales tant peu facile, les valeurs de la fonction de rpartition sont
rpertories dans une table, tabules. Mais, le nombre de couples (,) tant infini, il devrait
exister un nombre infini de tables. Afin de pallier cet inconvnient, il est dfini une loi dite
normale standard. Cette loi normale est aussi appele loi centre rduite, car ses paramtres sont
= 0 et = 1.

fonction densit :

#1

(x )2
1
f (x) =
e2
2"
Pour passer d'une variable X, suivant une loi normale quelconque, une variable Z suivant la loi
M. MENOU / PROBABILITES ET STATISTIQUE

58

centre rduite, il faut effectuer le changement de variable


X "
Z=
#
La table de la loi normale centre rduite ne reproduit gnralement les valeurs de P(Z < z),
!

notes (z), que pour les valeurs de Z 0. Un certain nombre de relations sont donc utiles pour se
servir des tables :
P(Z > z) = 1 - P(Z < z)
P(Z < - z) = 1 - P(Z < z)
P(Z > - z) = P(Z < z)
P(|Z| z) = 2 P(Z < z) - 1
P(|Z| z) = 2 ( 1 - P(Z < z) )
P(a < Z < b) = P(Z < b) P(Z < a)
Quelques valeurs sont intressantes :
P(-1<Z<+1) = 0,6827 P(-2<Z<+2) = 0,9545 P(-3<Z<+3) = 0,9973
moments :
E(X) =
V(X) = 2 agit sur la largeur de la distribution et sur la hauteur.
coefficient de symtrie 0
coefficient d'applatissement 3

comportement asymptotique :
approximation d'une loi binomiale :
X suit une loi binomiale (n,p)
si n --> (X - np)/(npq) suit une loi normale (0,1)
conditions : n grand, p proche de 0.5 (0,1 < p < 0,9)
soit np > 15

59

en pratique n > 50 (fin des tables binomiales)

correction de continuit :
Comme la loi Normale est une loi continue, la probabilit ponctuelle nexiste pas.
Donc P(X = xi) = 0

f(xi)

xi-0,5

xi

Xi+0,5

La largeur du rectangle est 1 donc la surface est f(xi).

f(xi)

xi-0,5

xi

Xi+0,5

Les deux triangles tant approximativement gaux, la surface est toujours f(xi).
M. MENOU / PROBABILITES ET STATISTIQUE

60

P(X = xi) = P(xi - 0.5 X xi + 0.5)

somme algbrique de variables normales indpendantes:


X1 suit une loi normale (1 ,1)
X2 suit une loi normale (2 ,2)
X1 + X2 suit une loi normale [(1 + 2);(12 + 22)]
X1 - X2 suit une loi normale [(1 - 2);(12 + 22)]

EXEMPLE 1: La capacit respiratoire de 400 hommes suit une loi normale de paramtres 3,7 l en
moyenne et de 0,7 l dcart type. Quel est le nombre de personnes qui ont une capacit
respiratoire infrieure ou gale 3,21 l.
P(Z < - 0,7) = 1 - P(Z < 0,7) = 1 - 0,75804 = 0,24196
n = 400 x 0,24196 96

EXEMPLE 2 : La dure de vie de 2000 lampes suit une loi normale N(1000, 200). Aprs
combien dheures dutilisation peut-on estimer que 10 % des lampes sont hors dusage.
P(X x) = 0,1
1 - P(Z ?) = 0,9
table : P(Z 1,285) = 0,9
1,285 = -

x ! 1000
200

X = 1000 - 1,285 x 200 = 743 h

6.2.12 loi du khi-deux


La loi du khi-deux (de PEARSON), n degrs de libert est la loi suivie par une variable
61

alatoire gale la somme des carrs de n variables alatoires indpendantes suivant toutes la loi
normale N (0,1).
X() = [0,+ [
fonction densit :
f(x) = (2 n/2 (n/2))-1 e-x/2 x(n/2)-1 1IIR+(x)
fonction de rpartition:
voir table
moments :
E(X) = n
V(X) = 2n
somme :
La variable alatoire, forme par la somme de deux variables alatoires indpendantes suivant
des lois du khi-deux n et m degrs de libert, suit une loi du khi-deux n+m degrs de libert.
comportement asymptotique :
X "n
converge en loi vers une N(0,1) quand n -->
2n
En pratique n > 100
!

Cette loi est utile pour les tests dindpendance entre deux variables, les tests dadquation dune
distribution empirique une loi thorique, etc.

6.2.13 loi de STUDENT (W. S. GOSSET)


La variable alatoire : T =

X
Y
n

suit une loi de STUDENT n degrs de libert si X suit une N(0,1) et Y un khi-deux n degrs
de libert, X!
et Y tant indpendantes.

M. MENOU / PROBABILITES ET STATISTIQUE

62

X() = ] -,+ [
fonction de rpartition:
voit table
moments :
E(T) = 0
n
n>2
n "2
comportement asymptotique :
V (T) =

T converge en loi vers une N(0,1) lorsque n --> (n > 30)


!
Cette loi est utile pour ltablissement dintervalles de confiance, pour les tests de signification de
coefficients de rgression, etc.

6.2.15 loi de FISHER-SNEDECOR


X
La variable : F = n
Y
m
suit une loi de FISHER-SNEDECOR n et m degrs de libert si X et Y sont deux variables
alatoires
indpendantes suivant des khi-deux respectivement n et m degrs de libert.
!

fonction de rpartition :
voir table
moments :
E(X) = n / (n - 2)

n>2

V(X) = 2 n2 (m+n-2) / m (n-2)2 (n-4)

n>4

F1-p,n,m = 1/Fp,m,n

63

Cette loi est utile pour ltablissement dintervalles de confiance, pour les tests dhypothses, etc.

M. MENOU / PROBABILITES ET STATISTIQUE

64

BIBLIOGRAPHIE
ANDERSON D. R. SWEENEY D. J. WILLIAMS T. A., Statistiques pour lconomie et la
gestion, De Boeck Universit, 2001.
AUDROING J.-F. ABBOUD N., Probabilits et infrence statistique, Nathan.
AULIAC G., Probabilits et statistique. Cours et exercices corrigs, Ediscience international,
1995.
AVENEL M. RIFFAULT J.-F., Mathmatiques appliques la gestion, Foucher, 2005.
BENICHOU P. et R. BOY N. POUGET J.-P., Statistique et probabilits, Dunod, 1992.
BERRUNDO-AGRELL M. FOURASTIE J., Pour comprendre les probabilits, Hachette, 1994.
BOREL E., Probabilit et certitude, P.U.F., 1969.
BOUGET D. VIENOT A., Traitement de linformation : statistiques et probabilits, Vuibert,
1995.
BOURSIN J.-L., Comprendre les probabilits, Cursus, Armand Colin, 1989.
BOURSIN J.-L., Les structures du hasard. Les probabilits et leurs usages, Seuil, 1986.
BOUZITAT C. BOUZITAT P. PAGES G., Statistique : probabilits - estimation ponctuelle,
Cujas, 1991.
BOY C. NIZARD A., Exercices corrigs de probabilits, Armand colin, 1995.
CALOT G., Cours de calcul des probabilits, Dunod, 1989.
CALOT G., Exercices de calcul des probabilits, Dunod, 1989.
COMTE M. GADEN J., Statistiques et probabilits pour les sciences conomiques et sociales,
PUF, 2000.
CORNUEL D. DERREUMAUX, Calcul des probabilits, exercices corrigs, rappels de cours,
Sirey, 1976.
DAGNELIE P., Thorie et mthodes statistiques, Presses agronomiques de Gembloux, 1985
DEGRAVE C. DEGRAVE D. BOULANGER, Probabilits Statistiques, Bral.
DEGRAVE C. DEGRAVE D. BOULANGER, Problmes rsolus de Probabilits Statistiques,
Bral.
DEGRAVE BOULANGER, Prcis de mathmatiques tome 3 : Probabilits Statistiques,
(prparation HEC) Breal.
65

DEHEUVELS P., La probabilit, le hasard et la certitude, QSJ 3, PUF, 1990.


DEVINAT H. POULOS D. RABINO P., Statistique et probabilits - Problmes et corrigs,
Economica, 1989.
DUBOS J., Collecte des traitements statistiques de l'information conomique et sociale : 1
Echantillonnage - Estimation, Cujas, 1987.
DUGACHEV V., Thorie des probabilits et statistiques mathmatiques, Mir 1982
DUSSAIX A.-M. GROSBRAS J.-M., Les sondages : principes et mthodes, QSJ 701, PUF,
1993.
FAVRO E., Statistique et probabilits, Dunod, 1991.
FOURASTIE J. SAHLER B., Probabilits et statistique, Dunod, 19.
FOURASTIE J. LASLIER J.F., Probabilit et statistique, Srie J. QUINET, Dunod, 1990.
FOURGEAUD C. FUCHS A., Statistique, Dunod, 1972.
GHORBANZADEH D., Probabilits. Exercices corrigs, Technip, 1998.
GRAIS B., Mthodes statistiques, Dunod, 1992.
HAMMAD P., Cours de probabilits, Cujas, 1985.
HAMMAD P. TARANCO A., Exercices de probabilits, Cujas, 1985.
HARARI J. PERSONNAZ D., Cours de mathmatiques -3 probabilits, Belin, 1984
HARTHONG J., Probabilits et Statistiques. De lintuition aux applications, Diderot
multimdia, 1996.
JACQUARD A., Les probabilits, QSJ 1571, PUF, 1992.
LABROUSSE C., Statistique. Exercices corrigs t2 t3, Dunod, 1991.
LAPRESTE J.T., Probabilits 92 exercices corrigs, Dunod.
LEBOEUF C. ROQUE JL. GUEGAND J., Cours de probabilits et de statistiques, Marketing,
1983
LECOUTRE JP. LEGAIT S. TASSI P., Statistiques exercices corrigs avec rappel de cours,
Masson, 1987
LIPSCHUTZ S., Probabilits. Cours et problmes, Srie SCHAUM, McGraw-Hill, 1990.
MARCEIL Aide mmoire de probabilits et statistiques, Ellipses.
MASIERI W., Statistique et calcul des probabilits, Sirey
MASIERI W., Statistique et calcul des probabilits, travaux pratiques : noncs et solutions,
M. MENOU / PROBABILITES ET STATISTIQUE

66

Sirey
MONFORT A., Cours de probabilits, Economica, 1980
MONFORT A., Cours de statistique mathmatique, Economica, 1982
MONINO J.-L. SOL J.-L., Statistique et probabilits, Dunod, 1994.
MORONEY "Comprendre les statistiques"
PELLAUMAIL J., Probabilits, Statistiques, Files d'attente. Cours et exercices rsolus, Dunod,
1989.
PUPION G., Statistiques descriptives et dcisionnelles appliques l'conomie et la gestion,
P.U.F., 1988.
RAFFIN C., Statistiques et probabilits, Armand Colin, 1987
REAU J.P. CHAUVAT G., Probabilits et Statistiques, Flash U, Armand Colin, 1988.
RENAULT J., Formulaire de probabilits et de statistiques, Dunod, 1992.
Revue de statistique applique "Aide mmoire pratique des techniques statistiques", CERESTA,
1986
ROBERT C., L'analyse statistique baysienne, Economica, 1992.
SANDERS H.D. MURPH A.F. ENG R.J., Les statistiques une approche nouvelle, Mac Graw
Hill, 1984
SANDRETTO R., Probabilits. Exercices corrigs et rappels de cours, Dunod, 1992.
SAPORTA G., Probabilits, analyse des donnes et statistique, Technip, 1990.
SPIEGEL MURRAY R., Thorie et applications de la statistique, Srie SCHAUM, McGrawHill, 1972.
TAGUSHI
TASSI P., Mthodes statistiques, Economica, 1985.
TRIGNAN J., Probabilits statistiques et leurs applications. cours et exercices rsolus, Bral,
1991.
VERLANT BIGOT, Statistiques et probabilits, Foucher.
VESSEREAU A., La statistique, QSJ 281, PUF 1992.
VO KHAC, Estimation et tests paramtriques et non paramtriques, Ellipses.
WONNACOTT T.H. WONNACOTT R.J., Statistique, Economica, 1984

67