Vous êtes sur la page 1sur 114

1

2
Introduction
La théorie des probabilités est une
branche des mathématiques qui permet
de modéliser des expériences où le
«hasard » intervient et d'en faire l'étude
théorique.
3
Modélisation d'une expérience aléatoire

 Expérience aléatoire :
Une expérience est dite aléatoire lorsque
son résultat est déterminé par le hasard.
Il ne peut donc pas être prévu à l'avance
avec certitude. 4
Modélisation d'une expérience aléatoire (suite)
Exemple : Le lancer d’un dé ordinaire est une
expérience aléatoire car le résultat de
l’expérience est inconnu au départ.
Par contre, le lancer d’un dé tel que toutes les
faces portent le numéro 1, ce ne serait pas une
expérience aléatoire; car le résultat serait
connu: il est certain que le numéro 1 sortirait.
5
Modélisation d'une expérience aléatoire (suite)
 Univers: On représente le résultat de cette
expérience comme un élément w de l´ensemble
Ω (prononcer « oméga ») de tous les résultats
possibles. Ω est appelé l'ensemble fondamental
ou encore l’univers des possibles (i.e. : Ω
représente tous les états possibles dans
l’expérience). 6
Exemples :
1) Lancer un dé : Ω ={1,2,3,4,5,6}
2) Lancer une pièce de monnaie: Ω={P,F} .
3) Considérer une urne dans laquelle il y a deux
boules blanches (B1, B2) et une boule rouge
(R). Alors l’épreuve consiste à tirer
simultanément deux boules. Dans ce cas la
l’univers Ω ={{B1, B2},{B1, R} ; {B2, R}}
7
Exemples (suite):
L'univers peut contenir un nombre infini
d’éléments.

4) On note le revenu mensuel d'un individu


choisi au hasard d’une population donnée.
Ω = [ 0 DH, 7 000DH ]
(En admettant que le revenu mensuel ne peut
excéder 7 000DH.) 8
Modélisation d'une expérience aléatoire (suite)
 Evénement: Un sous-ensemble de l’ univers,
Ω, est appelée événement. Il est constitué par
des issues (ou des résultats) d'une expérience
aléatoire.
Exemple: A=«La somme des points est
supérieur à 10 » est un événement que l'on
peut obtenir en lançant deux dés. 9
Modélisation d'une expérience aléatoire (suite)
 Evénements particuliers:
L’événement Ω est appelé événement
certain. Il se réalise toujours.
Exemple :

« Tirer un nombre entre 1 et 6 » en lançant un


dé numéroté de 1 à 6 est l'événement certain.
10
Evénements particuliers (suite)
 L’événement , ensemble vide, est appelé
événement impossible. Il ne se réalise jamais.
Exemple : «Tirer un 7 » est un événement
impossible lorsque l'on lance un dé numéroté de
1 à 6.
 On appelle événement élémentaire une partie
de Ω réduite à un seul élément (i.e : un
singleton de Ω ). Il se réalisé d’une seule façon.
11
Evénements particuliers (suite)
 Soit un évènement contraire de A qu’on

note par ( ), est l’ ensemble des


éventualités (événements élémentaires) de
Ω n’appartiennent pas à A. Autrement
dit c’est le complémentaire de A dans Ω.
12
Exemple:
On lance un dé et on regarde
le nombre obtenu. On considère
l’événement A : "Le résultat est
impair". Son événement contraire
est :«Le résultat est pair».
13
Evénements particuliers (suite)
Deux événements A et B sont incompatibles
s’ils ne peuvent pas se réaliser en même temps,
c’est-à-dire si AB=.
Exemple: On tire un dé.
Soient l’événement A est « obtenir 2, 4 ou 6 » et
l’événement B «obtenir 1». Les événements A et
B sont incompatibles (ou disjoints).
14
Opérations sur les événements
Les événements étant des ensembles,
on utilisera trois operateurs définis sur
les ensembles:
 L’union, « »
 L’intersection, «∩»
 Le complémentaire, «\»
Soient A et B deux événements d’un
univers, . 15
Opérations sur les événements (suite)
AB (prononcer A inter B)= événement « A
et B »: signifie que A et B se réalisent
simultanément.
AB (prononcer A union B)= événement «A
ou B» : signifie qu’au moins un des
événements A ou B se réalise.
 A\B = A : signifie que A se réalise seul.
16
Loi de Morgan
 E et F étant des événements de Ω, on a :
 
 Généralisation, soient A1, A2, …, An des
événements de Ω alors on a:
n n
  Ai   Ai
i=1 i=1
n n
  Ai   Ai
i=1 i=1
Tribu (ou algèbre) d’événements
Quand Ω est infini non dénombrable on
ne peut plus en général considérer que
tous les éléments de (Ω) sont des
événements.
Définition: On appelle tribu ou
algèbre (lire sigma-algèbre) sur Ω toute
partie, , de (Ω) telle que :
Définition (suite)

1)  ;
2) A; (=\A);
3) Si (An)n est une suite
d’éléments de  alors:
 A n et  A n sont dans .
n  n
Exemples :
 Tribu grossière ={, }

 Tribu des parties (appelée aussi tribu discrète) = ()

 Tribu des boréliens ={]a,+[, a (ou )}, lorsque = 

 Tribu des boréliens ={]a,b[, a<b, (a,b)  ²}, lorsque =I


intervalle de .

 Autres exemples de tribus ={A, , , }; ={a,b,c,d},


={,{a},{b,c,d}, }
Choix d’une tribu :
Le Choix d’une tribu se fait en fonction de
l’information qu’on a sur le problème.
Lorsque l’univers est fini ou dénombrable,
on travaille généralement avec la tribu
discrète (= ()). Lorsque l’univers est
infini (=  ou I) on travaille avec la
tribu borélienne.
II Espaces probabilisés
L’idée est de construire un cadre
mathématique (un modèle probabiliste) où on
cherche à remplir les conditions suivantes :
Attribuer une probabilité à toute partie de .
Respecter quelques règles simples de calcul.
Dans la pratique, on attribue une probabilité,
non pas à toute partie de , mais seulement
II Espaces probabilisés (suite)

aux parties appartenant à une certaine


classe , en général contenue dans
l’ensemble P(), où  est l’ensemble des
événements élémentaires.
Le but est de construire un triplet
(,,P) avec lequel on peut étudier
(modéliser) toute expérience aléatoire.
A) Espace probabilisable

Définition :
On appelle espace probabilisable
(,) tout couple formé d’un
ensemble non vide 
.
B) Espace probabilisé

Définition :
On appelle "espace probabilisé"
tout triplet (,,P), où P est
une probabilité sur (,).
C) Probabilité
Définition
On appelle probabilité (ou mesure de
probabilité) sur algèbre  toute
application
P:  [0; 1]
AP(A)
vérifiant les deux axiomes suivants :
C) Probabilité (suite)
1) P() = 1.
2) Pour toute suite A1,A2, . . ., Ai,… d’événements
de  disjoints ( i.e. pour tout i  j, AiAj=), on
a:

Dès lors que P est définie, le triplet (, , P)


s’appelle un espace probabilisé.
Interprétation
Quand une expérience aléatoire est répétée
un très grand nombre de fois, la fréquence
relative, n(A), de réalisation d'un événement se
rapproche d'une valeur particulière : C’est la
probabilité de réalisation de cet événement. En
effet, Blaise Pascal (1623-1662), Pierre Fermat
(1601-1665) Avec N répétitions d’une expérience aléatoire,
n(A) le nombre de fois que l’événement A s’est
produit. P(A) est la probabilité de l’événement
A. C’est la loi des grands nombres.
Propriétés
Soit P une probabilité définit de  vers [0,1],
nous pouvons établir les propriétés suivantes:
1)P()=0 ;
2)P( )=1P(A) ( 
3)AB alors P(A) P(B) (P est croissante) ;
4)P(AB)= P(A)+ P(B)P(AB).
Probabilités discrètes
(probabilité en univers fini ou dénombrable)
On suppose que l'ensemble des événements
possibles est fini ou dénombrable. On note
(= {0,…,n,…}= {n, n} où les points
i sont distincts) l'ensemble des résultats
dénombrable.
 On définit la probabilité pi=p{i} de chaque
résultat élémentaire i tels que : 0 ≤ pi ≤ 1 et
=1

 La probabilité de l’événement quelconque A,

est: p(A)= i
Cas d’un univers fini équiprobable
C’est le cas où cardinal de  est fini, égal à N,
et où tous les pi sont égaux (forcément à 1/N).
On notera que si A est une partie de  , on a
alors : cardinal A A
p(A)  
cardinal  
Cette probabilité est appelée probabilité uniforme sur Ω.
Exemples:
 Dans l’exemple précédent du lancer de dé, on a nomme A
l’événement « obtenir 2 ou 5 », donc A={2,5}.
On a: card (A) 2
P(A)= 
card () 6
 On tire avec une pièce non truquée jusqu’à obtenir
pile. L’univers est *, et pour n*, on a évidemment
1
P(n )= n .
2
III Conditionnement et Indépendance
a) Probabilité conditionnelle
Définition:
Si P(B)>0, on appelle probabilité conditionnelle de A sachant B,
le réel :

PB(A) = P(A|B) =

b) Formule des probabilités composées


Il est courant de connaître directement P(A|B), ce qui permet de
calculer la probabilité conjointe par la formule de probabilités
composées
= P(A|B)×
c) Indépendance d’événements
Définition:
Soit (; ; P) un espace probabilisé. On dit que deux événements A et
B sont indépendants si l’on a la relation :
P(AB)=P(A)×P(B)
Théorème :
Si A et B sont deux évènements indépendants et que P(B)≠ 0 alors ceci
équivaut à affirmer que
PB(A) = P(A|B) = P(A)
Interprétation: Lorsque deux évènements sont indépendants, le fait que
l’un des évènements soit réalisé, n’apporte aucune information sur la
réalisation de l’autre
Propriété:
Soient A et B deux événements tels que P(B)>0, alors

P(B|A)
P(A|B) =

Cette formule permet de lier les probabilités


conditionnelles P(A|B) et P(B|A).
D) Partition Probabilités totales
D.1) Partition
Les événements B1, B2, …, Bn,... forment une
partition de  signifié qu’ils sont deux á deux
incompatibles et que leur réunion est .
D.2) Formule de probabilités totales
Si les événements B1, B2, …, Bn,... forment une
partition de , alors pour tout événement A :
Cette formule permet de calculer la probabilité d'un événement
A en le décomposant suivant une partition de l’univers.
Exemple :
On dispose de 3 urnes U1, U2, U3, chacune contient 10 boules; parmi
elles, U1 contient 1 blanche, U2 contient 2 blanches, et U3 contient 6
blanches. On tire au hasard une boule. Quelle est la probabilité
d'obtenir une blanche?
On note A l'événement "on obtient une boule blanche" et Bi
l'événement "on tire la boule dans l'urne Ui". {B1, B2, B3} forme une
partition de , et :
e) Théorème de Bayes
Un corollaire au théorème des probabilités totales est connu
sous le nom de formule de Bayes.
Théorème (Formule de Bayes):
Si les événements A1, A2,….,Ai,…..,An forment une
partition de , et quel que soit l’évènement B tel que
P(B) ≠ 0, alors:

P(B | A i )p(A i )
P( A i | B ) 
P(B | A 1 )p(A 1 )  P(B | A 2 )p(A 2 )    P(B | A n )p(A n )
Formule de Bayes (suite)
Cette dernière formule s’utilise souvent aussi avec
l’événement A et son contraire . On obtient :

P(A|B) =
41
2.1 Introduction
Soit un espace de probabilité (, , P) associé
à une expérience aléatoire envisagée. Ce triplet
n’est en général pas formé d’éléments réels et
ne se prête donc pas à des calculs. Pour
remédier à cet inconvénient, on lui associé un
espace probabilisé dont tous les éléments sont
réels grâce à l’introduction de la notion de
variable aléatoire réelle.
42
2.2 Généralités sur les variables aléatoires
Soit (, , P) un espace de probabilité et  un
corps des nombres.
Définition:
On dit qu’une application X: 
  X()
telle que á chaque événement élémentaire fait
correspondre un nombre réel, est une variable aléatoire
si, pour tout nombre réel x, A={| X()x }  , c’est
à dire A est un événement.
43
Remarques :
Afin de simplifier l’écriture, nous noterons
pour la suite {| X()x }={Xx}.
(Aucun risque de confusion n’est d’ailleurs
à craindre : X désigne une fonction et x
un réel !)
L’ensemble des valeurs prise par X, noté
X(), est appelé univers image.
44
Exemples:
1) On jette deux dés distincts et on
s’intéresse à la somme des points.
On note X cette variable aléatoire, elle est
définie par X:  
(1, 2)  1+ 2
avec = {(1,1) , (1,2), …, (6,5), (6,6)}
Si: (X x )={(1, 2)/ 1+ 2 x }  ,
 x .

L’ensemble des valeurs possibles prises par X est


X()={2, 3, . . . , 12}.
2) On observe deux bactéries et on s’intéresse à la
durée de vie T de la
bactérie qui disparaîtra la première.
L’ensemble fondamental (univers) =[0,+[×[0,+
[. La variable aléatoire
T s’écrit alors T:   
(1, 2)  inf{1, 2}
Si: (Tx )={(1, 2)/ inf{1, 2} x }  ,  x .
L’ensemble des valeurs possibles prises par T est T() =
[0,+[.
2.3 Propriétés:

1) Puisque A est un événement, il a une


probabilité bien définie, et par conséquent,
nous pouvons obtenir la probabilité que le
variable aléatoire prend des valeurs
inférieures à un x donné : P(A)=P(X≤x)
47
2) On peut aussi obtenir la probabilité
qu'une variable aléatoire prend des
valeurs dans un intervalle
P(a<X≤b)=P(X ≤b)P(X ≤a)
Puisque (a<X≤b)={|a<X()b}

={|X()b}{|X()a}

est aussi un événement.


3) La loi de probabilité aussi appelée
distribution de probabilité et notée PX
d'une variable aléatoire X a pour but
de décrire quelles sont les valeurs
possibles prises par la variable X et
avec quelle probabilité ces différentes
valeurs sont prises. Elle est définie
comme suite :
49
Autrement dit, est la mesure image de par

Définition:
On appelle loi (de probabilité) de
X, la fonction:
PX :   [0, 1]
A  PX(A)=P(X A)
Autrement dit PX est la mesure image de
P par X.
2.4 Fonction de répartition:
Une variable aléatoire est entièrement caractérisée
par sa distribution de probabilité PX ou de manière
équivalente par sa fonction de répartition notée F.
Définition : La fonction de répartition d’une
variable aléatoire réelle X est la fonction définie
par: F:  [0, 1]
x  P(X  x)
(Remarque: On peut aussi définir F par :F(x) = P(X < x),x )
51
Propriétés:
1) 0≤ F(x) ≤ 1,  x  

3) F est monotone croissante si : xy  F(x)  F(y)


4) P(x < X  y)=F(y)F(x)
5) F est continue à droite en tout point x de  : c. à. d
Variables aléatoires discrètes
Définition: Soit  un univers et  une probabilité sur
P(). On appelle variable aléatoire discrète toute
application X de  dans une partie finie ou dénombrable
de  :

X :   X()
  X()

avec X() fini (i.e. X() ={a1, ..., an}) ou dénombrable


(i.e. X() = {a1, ..., an, ...}).
Exemple: Si  est l’ensemble des
étudiants d’une classe, on peut à
chaque étudiant  associer le
nombre X() de ses frères et sœurs.
X est alors une fonction à valeur
dans un ensemble fini (finitude
imposée par la nature) : X est une
variable aléatoire discrète.
Loi de probabilité:
Définition: Etant donnée une
variable aléatoire X telle que
X()={a1, ..., an}, on appelle loi de
probabilité ou distribution de
probabilité de X une expression des
probabilités : pi=(X=ai), i=1,…,n.
Remarques:
1) Les probabilités pi trouvées vérifient alors :

2) Cette définition s’étend bien sûr au cas d’une variable


aléatoire à valeurs dans un ensemble infini dénombrable.
Dans la suite, on se limite au cas des variables aléatoires
discrètes à valeurs dans un ensemble fini. Les notions et
propriétés étudiées s’étendent bien sûr au cas des
variables aléatoires discrètes à valeurs dans un ensemble
dénombrable infini.
Exemple:
On lance deux pièces de monnaie. L’univers
 comprend 4 événements élémentaires
notés PP; PF; FP; FF, de probabilité
chacun 1/4. On note X la variable aléatoire
qui compte le nombre de piles obtenus. X
prend les valeurs 0; 1; 2,
(X=0)=1/4, (X=1)=1/2 et (X=2)=1/4
On représente souvent la loi de probabilité à l’aide d’un tableau :
X(w)=a 0 1 2 Total
(X=a) 1/4 1/2 1/4 1

Fonction de répartition (Cas discret)


Définition: Soit X une variable aléatoire discrète
sur  telle que X()={a1,...,an} avec
a1<a2<...<an. On appelle fonction de répartition
de X la fonction F définie par :
F :   [0, 1]
x  P(X  x)
telle que:

 0 si x  a1



 P(X  a1) si a1  x  a2



   

F(x )  


P(X  a1)    P(X  ak ) si ak  x  ak 1



   



 1 si x  an


Remarque:
Connaissant la fonction de répartition
F d’une variable aléatoire discrète X
on peut retrouver la distribution de
probabilité de X :
j j-1
pj  pi  pi  F (a j )  F (a j-1 ), j  2
i=1 i=1
Exemple:
Si l’on considère la constitution d’une fratrie de deux
enfants, l’univers est constitué des évènements
élémentaires suivants :  = {GG, GF, FG, FF}
Les valeurs possibles prises par la variable aléatoire
X=«nombres de filles dans la famille» sont :
X()={0,1,2}.

Si l’on fait l’hypothèse que la probabilité d’avoir un


garçon est égale à celle d’avoir une fille (1/2), alors la
distribution de probabilité ou loi de probabilité du
nombre de filles dans une fratrie de deux enfants est :
Probabilités
Univers
Univers associées à la
image F(x)
 variable X :
X()
P(X=ai) ou pi

0 1/4 0 si x < 0
G et G
1 1/2 1/4 si 0x <1
F et G ou G et F
2 1/4 3/4 si 1x <2
F et F
1 si x2
La loi de probabilité est les couples
suivants : (0, 1/4), (1, 1/2) et (2, 1/4).

Remarque:
Pour visualiser la distribution de
probabilités, on utilise un diagramme en
bâtons et une fonction en escalier pour la
fonction de répartition.
Caractéristiques d’une variable aléatoire discrète
La théorie des probabilités vise à évaluer le
comportement des variables aléatoires (mode, espérance,
variance, Ecart-type,...) étant donnée la distribution de
probabilité.
a) Le mode:
Le mode correspond à une valeur, de X, ayant une
probabilité maximale de se réaliser; si m est le mode
alors P(X=m)  P(X=a) ;  a  X().
b)Espérance
L’espérance de X représente la valeur moyenne
prise par X. Elle est notée E(X) et calculée
ainsi :
E(X)=a1P(X=a1)+a2P(X=a2)+…+anP(X=an)

n
E(X )  a .
i= 1
i
P (X  a i )
c) Variance
La variance exprime à quel point les valeurs
prises par X sont dispersées autour de la
moyenne. Une grande variance indique une
grande dispersion. A l'inverse, une variance nulle
révèle que X est en fait non-aléatoire. On note la
variance Var(X) et on la calcule ainsi :
Var(X) (a1 E(X))2P(Xa1)(a2 E(X))2P(Xa2) (an E(X))2P(Xan)
n n
soit Var(X) (ai E(X))2P(Xai) ai2.P(Xai)E(X)2
i=1 i=1
d) Ecart-type :
L'écarttype fournit la même information. On le note
(X) et on le calcule ainsi :
 (X )  V a r (X )
Lois discrètes:
a) Loi de Bernoulli
Définition: Soit un univers Ω constitué de deux
éventualités, S pour succès et E pour échec Ω = {E, S}
sur lequel on construit une variable aléatoire discrète,
X="nombre de succès" telle que au cours d’une expérience
aléatoire, si S est réalisé, X = 1 si E est réalisé, X=0
Définition (suite):
On appelle variable de Bernoulli ou variable indicatrice,
la variable aléatoire X telle que :
X : Ω → , X(Ω) = {0,1}
La loi de probabilité associée à la variable de Bernoulli
X telle que, P(X= 0) = q, P(X =1) = p avec p+q = 1
est appelée loi de Bernoulli notée B(p).
Espérance et la variance:
E(X) = p Var(X) = p.q
Utilisation:
(i) Succès dans un jeu binaire
Exemple 1: pile/face. X = 1 si pile, X = 0 sinon  X~B(1/2)
Exemple 2: jeu de dé. X = 1 si résultat = 3, X = 0 sinon
 X ~B(1/6)
(ii) Réponse oui/non dans un sondage
Exemple: X = 1 si une personne approuve la réforme des
retraites, X = 0 sinon  X ~ B(p), avec p inconnu
b) Loi Binomial
C nk

Définition: On dit qu'une variable X suit une loi


binomiale de paramètres n et p, notée Bin(n; p),
lorsqu'elle prend ses valeurs parmi {0, …, n} avec les
probabilités suivantes pour k  {0,…, n} :

P(X = k) = pk(1-p)n-k, k=0,1,…,n


X représente le nombre de fois où un
évènement se réalise en n répétitions
indépendantes de l'expérience.
Espérance et variance :
E(X)= n.p Var(X)=n.pq (q=(1-p))
Remarque:
Si Y1,…, Yn est une suite de variable indépendantes
de loi de Bernoulli de même paramètre p, B(p),
alors Y= Y1+…+Yn suit une loi Bin(n;p).
Utilisation:
(i) Nombre de succès dans une épreuve de Bernoulli
répétée n fois indépendamment
Exemple: On lance un dé 9 fois. X = « nombre de 3
obtenus » X~Bin(9,1/6), P(X=2)= 0.28

(ii) Comptage d’un caractère dans un tirage avec remise

Exemple: lot de 1000 pantalons dont 10% défectueux.


On tire 15 pantalons avec remise.
X = «nombre de pantalons défectueux obtenus» 
X~Bin(15, 1/10)
c) Loi de Poisson
Définition : Soit X la variable aléatoire
représentant le résultat d'un comptage
effectué sur une durée fixée. On dit que X suit
une loi de Poisson de paramètre , (),
lorsqu'elle prend ses valeurs dans
={0,1,…,n,…} (infinité de valeurs possibles)
avec les probabilités suivantes pour k  :
k 
P(X  k )  e où  est une constante
k! positive.
c) Loi de Poisson (suite)

E(X)=Var(X)=

Utilisation de la loi de Poisson (exemples):


 X compte le nombre d'arrivées de clients à un guichet de
banque en une semaine,
 le nombre de véhicules passant par un péage donné en une
journée,
 le nombre de pannes en un an...
Approximation de la distribution binomiale par la distribution
de Poisson
Soit Xn une variable aléatoire binomiale de paramètres n et p. Faisans
tendre n vers l’infini et p vers 0, mais de forme que le produit n.p
tende à une constante >0. Donc, il est vérifié:

Xn=k)= = 

 
la distribution binomiale converge en loi vers la distribution de Poisson
de paramètre . Cela signifie que nous pouvons approcher la loi
binomiale par la loi de Poisson si n est grand et p petite, en prenant
comme paramètre  = n.p.
(En pratique si n> 30 et p <0.1).
d) Loi hypergéométrique
Définition : Soit une population de N individus, parmi
lesquels une proportion p (ce qui correspond à Np individus)
possède un certains caractère A. On prélève n individus
parmi cette population (tirage sans remise) et on note X le
nombre aléatoire d'individus de l'échantillon possédant la
propriété envisagée. X suit une loi dite Hypergéométrique.
C Np
k
C Nn kNp
P (X  k ) 
C Nn
Où;
• est le nombre d'échantillons possible de taille n.

• est le nombre de groupes possibles de k individus


possédant le caractère A .

• est le nombre de groupes possibles de nk


individus ne possédant pas le caractère A .

• E(X)= n.p et Var(X)=np(1p) ; p=«la


proportion ».
e) Loi géométrique
Définition : La loi géométrique est la loi du nombre
d’essaies nécessaires pour faire apparaître un
événement de probabilité p :
P(X = k) =p(1p)k-1, k=1,…,
En posant q = 1p , on trouve aisément :
E(X)= 1/p et Var(X)= q/p2
On notera X G(p).
2.6 Variables aléatoires continues
Définition :
Une variable aléatoire X sur  est dite
continue si elle peut prendre toutes valeurs
dans un intervalle donné (borné ou non-
borné). En générale, toutes les variables qui
résultent d’une mesure sont de type continues.
Exemple : taille, poids, volume, ...
Entre les distributions continues, les plus faciles
d'étudier ce sont les absolument continues, ou
abusivement, continue, dont la fonction de
distribution peut s'exprimer en forme d'intégral:

F(x )   x f(t )dt,  x  



La fonction de répartition F(x) est la primitive de
la fonction densité de probabilité f(t), et permet
d’obtenir les propriétés suivantes:
1) f(x)0; x 

2) =1

3) , si est continue en x

4) P(a<X ≤ b)=
Probabilité en un point et en un intervalle
Si X est une variable aléatoire absolument
continue, alors
• En tout point x, on a P(X = x) = 0 et
P(X<x)=P(X  x)

• Pour tout a < b, on a : P(a < X  b)=


P(a<X< b)= P(a  X  b)= F(b)F(a)
 L’aire hachurée en rouge correspond à la
probabilité P(0 X 300).
L’aire hachuré en vert correspond à la probabilité:
P(X>400)=1P(X400)= 1 F(400)
 Quantile:
Définition :
On appelle quantile d’ordre p de la variable X la
valeur xp telle que FX(xp)=p.

 Espérance mathématique:
Définition :
Soit X v.a continue de densité f(x) si
Propriétés
Les propriétés de l’espérance valent aussi bien pour une
variable aléatoire discrète ou une variable aléatoire
absolument continue.
Si X et Y sont deux variables aléatoires définies sur un même
univers Ω, admettant une espérance, alors :
 E(X+Y)=E(X)+E(Y)
 E(aX)=aE(X), a  
 Si X0 alors E(X)  0
 Si X est un caractère constant tel que :  w  ,
X(w)=k alors E(X)=k.
Variance
Si X est une variable aléatoire ayant une
espérance E(X), on appelle variance de X le
réel :
Var(X) = E([X - E(X)]2)=
= E(X) =
C’est l’espérance mathématique au carré de
l’écart à l’espérance mathématique.
Propriétés
Si X est une variable aléatoire
admettant une variance alors :
• a  , Var(aX) = a2 Var(X)
• (a, b)  2, Var(aX +b) = a2Var(X)
•Var(X) = 0  X = E(X)
Lois de probabilités continues « célèbres »
Loi Uniforme
Définition:
On dit que la variable aléatoire continue X suit une loi
uniforme sur l’intervalle [a, b], avec a<b si elle admet pour
densité de probabilité.

 0 si x  a

 1
fX (x )   si a  x  b
b  a
 0 si x  b

Propriété
Les paramètres caractéristiques d’une loi
uniforme sur l’intervalle [a, b] avec a<b sont:

b  a 
2
a b
E (X )  et Var (X ) 
2 12
Loi Normale
C'est une loi très importante pour plusieurs raisons :
a) Elle apparaît dans de nombreux
problèmes courants (pour les modéliser),
b) Bien souvent, on peut approcher une loi
par une loi normale,
c) De plus, on dispose de la table de ses valeurs à
laquelle on se réfère pour des calculs
approchés.
Synonymes pour cette loi : loi gaussienne, loi de Gauss.
Définition :
On dit qu'une variable X suit une loi normale
de paramètres  et 2, notée N(; 2),
lorsqu'elle prend ses valeurs dans  avec la
densité suivante pour x  :
1 (x  ) 2
f, (x )  exp(  )
2 2
2 2

Son espérance est E[X] = . Sa variance est Var(X)= 2.


La densité est symétrique par rapport à la
droite verticale d'abscisse x = .
 D'une manière générale, si X suit une loi
N(; 2), alors aX + b suit une loi
N(a.+b,a2.2).
 Si X1 et X2 sont normales N(1, 12) et
N(2,22) et indépendantes, alors X=X1+X2 ;
est aussi normale N(1+2, 12+22)
Proposition
Si la v.a. X suit une loi N(; 2), alors
X   suit la loi N(0;1).
Y

La v.a. Y s'appelle la v.a. centrée réduite associée à X.
En fait, pour faire des calculs effectifs de probabilité,
grâce à ce résultat, on commencera systématiquement
par se ramener d'une loi normale quelconque N(; 2)
à la loi normale standard N(0; 1). On pourra alors
utiliser la table des valeurs pour cette loi.
Règle de calcul de probabilités
• Dans l'utilisation de la table de la loi normale standard
N(0; 1), on aura des calculs de probabilités a faire. On
les fera avec les règles suivantes :
P(X=a)=0
P(X<a)= P(Xa)
P(X>a)= 1 P(Xa)
P(X a)= P(Xa)=1 P(X<a)
P( aXa)= 2P(Xa) 1.
Table de la loi N(0; 1) (Voir TD)
Représentation graphique:
La représentation graphique de montre
l’influence de la moyenne, tel que l'allure de la
courbe se conserve si on change de moyenne.
La courbe s'aplatit lorsque la variance augmente,
elle se resserre si la variance diminue, le maximum
s'ajuste pour que la surface valle 1, le maximum
peut dépasser 1.
Approximations de lois:
 Pour n grand (n30) et p n’est pas très petite (en pratique:
p 0.1), on approxime la loi binomiale Bin(n; p) par la loi
normale (np;npq).

 Pour  grand (>5), on approxime la loi de Poisson () par


la loi normale (; ).
Correction de continuité

Lorsque l’on approche une loi discrète par une


loi continue, il convient de faire une correction
de continuité que l’on peut résumer avec la
formule suivante: pour toute les valeurs xi de X,

discrète(X= xi) continue(xi 0,5X  xi +0,5)


Lois dérivées de la loi normale
Parfois d’autres lois que la loi normale sont utiles dans les
approximations (exemple: dans les calculs des intervalles de
confiances, des tests d’hypothèses, etc…).
Parmi ces lois, le plus fréquent c’est la loi de χ2 (lire khi-deux), la
loi « t » de Student et la loi « F » de Fisher. Ces lois
dépendent d’un paramètre n entier, appelé degré de liberté
(d.d.l.).
De même que pour la loi normale N(0, 1), on disposera de tables
pour ces lois.
Les mêmes règles de calcul que pour la loi normale s’appliqueront pour
reexprimer les probabilités qu’on cherchera en des probabilités disponibles
Loi du « khi-deux »
Soit n un entier positif. Une variable aléatoire, absolument continue Xn
est dite suivre une loi de 2 («khi-deux») à n degrés de liberté
(abréviation d.d.l.), notée 2(n), si sa densité de probabilité fn est définie
pour chaque x>0 par:
n
1 x
fn (x )  Dn x 2
exp( ).
2
où Dn est une constante (positive).

L’ espérance mathématique et l’écart type de X sont


respectivement: E(Xn )  n, var(Xn )  2n .
Propriétés:

 Si X1, …, Xn sont n variables centrées réduites (N(0,1))

de Gauss indépendantes, alors la variable


suit une loi de  à n degrés de liberté.
Si  et  sont indépendantes avec n et m
d.d.l., alors  = +  .
Pour m>30 , Y=
 
 
 

approximativement N(0,1).
  0; cette loi n’est donc pas symétrique.
Allure de la densité d’un 
Loi de Student:
Soit Y une v. a. de loi N(0,1) et  une autre variable aléatoire de loi
de khi-deux avec m d.l.l. Supposons que Y et  sont indépendantes.
Posons:
Y
t=
2
 m
m
Par définition, la v. a. t suit une loi de student à m degrés de liberté.
 t est une fonction continue de densité:
 [m  1 / 2]
 
  m  1 / 2
f(t)= 1t m
2
   t  
m   m / 2 
Avec,

 (y )   x e dx
y 1  x
0
est la fonction gamma d’Euler. Elle vérifie :

1
( )   , (y  1)  y (y )
2

(1)  1, (n  1)  n ! si n  * .
Propriétés:
 L’espérance et la variance existent si m>1 et m>2
respectivement: E (t )  0 si m  1
m
var(t )  si m  2
m 2
 Pour m 30, t(m) peut être suit approximativement une loi
normale N(0,1).
 La table t donne, pour différentes valeurs de m, la valeur t telle
que: P(|t|> t)=.
Allure de la densité de Student
Loi F de Fisher-Snedecor:
Soit U une v. a. de loi de  à m d.d.l. et V une autre v.a de loi de 
avec n d.d.l. Supposons que U et V sont indépendantes. On défini la
distribution F de m d.d.l dans le numérateur et n d.d.l dans le
dénominateur comme rapport:

U/m
F=
V /n
On la note Fm,n.

 F est une variable aléatoire continue de densité:

f(x )=
m n 
m2 n2

2
m n

x (m / 2)1
si x  0
m
  
n (mx  n ) (m  n ) / 2
 
2 2
Propriétés:
 L’espérance existe pour n>2 et la variance pour n>4:
n 2n 2 (m  n  2)
E (F )  var(F ) 
n 2 m(n  2)2 (n  4)

 Si F admet la distribution Fn,m alors 1/F a la distribution Fm,n . La


relation entre Fn,m et Fm,n est:

P (Fm ,n  x )  1  P (Fn ,m  1/ x )  P (Fn ,m  1/ x )

 La table F donne les valeurs F telles que: P(F> F)=.


Allure de la densité de Fisher-Snedecor
C. Loi exponentielle
Définition : On dit qu'une variable X suit une loi
exponentielle de paramètre , notée (), lorsqu'elle
prend ses valeurs dans + = [0;+[ avec la densité et
la fonction de répartition suivantes pour x  :
  e x p (   x ) s i x  0
f ( x )  
 0 s in o n


 1  e x p (  x ) si x  0

F (x )= 

 0 s in o n

1 1
E(X )  et V ar(X )= 2
 
En fiabilité cette loi est très
utilisée pour représenter la durée
de vie de circuits électroniques.
L´espérance 1/ est souvent
appelé le MTBF (Mean Time
Between Faileure) et  le taux de
défaillance.
Forme générale d’une fonction de distribution
Toute fonction de distribution F(x) peut être décomposée en:

F(x)= F1(x)+(1- ) F2(x) 0   1 (1)

où F1(x) est une fonction de distribution continue et F2(x) est une


fonction de distribution discrète.
Les cas continue et discret restent un cas particulier de (1) pour =1 et
=0 respectivement. Si 0<  <1 on dit que la distribution est mixte.
Aussi on peut exprimer (1) comme:

f1 (t )dt  1    f2 (x i )
x
F (x )   

x i x


f1 (x )  F1' (x ) et f2 (x i )  F2 (x i )  F2 (x i 1 )

Vous aimerez peut-être aussi