Vous êtes sur la page 1sur 31

PROBABILITÉ ET STATISTIQUES

NIVEAU 1

SEMESTRE 1

VOLUME HORAIRE : 30 heures

EQUIPE PEDAGOGIQUE :
Pr. TAMBA
Dr. SAKAROS
(CM=18H;TD=6H;TP=00H; TPE=6H)
UE IUT GCI12 : SCIENCES DE BASE
GCI122 : PROBABILITÉ ET STATISTIQUES
DUREE : 30 HEURES

OBJECTIFS GENERAUX :

 Permettre à tous les scientifiques de trouver des résultats rigoureux et bien expliqués,
mais sans avoir à rentrer dans des explications compliquées.
 Les futurs étudiants des sciences (physique, mécanique, électronique …) trouveront là
la plupart des outils de calcul de probabilité et de statistique dont ils pourront avoir
besoin. Pour les étudiants qui feront des mathématiques, cet ouvrage leur permettra
d'avancer rapidement et avec précision dans la découverte de ces outils, sur lesquels ils
reviendront éventuellement plus tard lorsqu'ils éprouveront le besoin de
« tout démontrer ».
 Permettre à un étudiant isolé d'acquérir, de comprendre et de dominer par lui-même
toutes les notions abordées.

OBJECTIFS SPÉCIFIQUES :

 Faire le lien rapidement avec la pratique dans un domaine bien précis.


 Se mettre à la place de l’élève pour comprendre ses erreurs.
 Faire le calcul de probabilités et prévoir la réalisation d’un évènement.
 Analyser les caractéristiques statistiques d’un échantillon ou d’une population donnée.
 Analyser des problèmes de mathématiques :
– En fonction des connaissances préalables des apprenants,
– En lien avec les savoirs en jeu,
– Pour prévoir les erreurs des apprenants.

2
FICHE DE PROGRESSION DU COURS
SEQUENCES THEMES DEVELOPPES DUREE
SEQUENCE 1 1.1 Le langage des ensembles
RAPPELS 1.2 L’analyse combinatoire
1.3 Fonction génératrice CM : 04 H
1.4 Quelques sommes finies
classiques.
SEQUENCE 2 2.1 Modéliser une expérience
PROBABILITE ET aléatoire.
ANALYSE 2.2 Espace probabilisé fini.
COMBINATOIRE 2.3-Espace probabilisé quelconque CM : 04 H
2.4- Probabilité conditionnelle.
2.5-Indépendance en probabilité

SEQUENCE 3 3.1-Variables aléatoires


VARIABLES
ALEATOIRES réelles et discrètes.
CM : 05 H
3.2 Moments et fonctions
génératrices d’une variable aléatoire
discrète.
SEQUENCE 4 4.1-Loi discrètes usuelles finies.
LES LOIS EN 4.2-Lois discrètes usuelles infinies.
PROBABILITE 4.3 Loi normale ou de Laplace-
Gauss
4.4-Lois dérivées de la loi normale. CM : 05 H
4.5-Lois continues

TRAVAUX DIRIGES DE PROBABILITES 6H

SOURCES DOCUMENTAIRES
[1] André Giroux, Initiation au calcul de probabilités - Cours et exercices corrigés, Ellipses,
2014.

3
[2] Ernst Hairer et Gerhard Wanner, Les probabilités au fil de l'histoire, Springer, 2000.

[3] Jacques Harthong, Cours d'analyse mathématique, Strasbourg, 2005.

[4] CIAM terminale SM

[5] Dimitri Latsis Université de Caen. Mathématiques pour l’étudiant de première année

[6] P. GUINIM ; F. AUSONNET ; E. JOPPEN. ANALYSE 1 Précis de


MATHEMATIQUES. Cours et exercice résolus

[7] François LIRET. Maths en pratique. A l’usage des étudiants cours et exercices.

[8] www.bibmaths.net

[9] J.F. Lièvre & E. Mazoyer. L’épreuve de mathématiques au concours de ENSEA

[10] www.bibmaths.net.

4
Table des matières
FICHE DE PROGRESSION DU COURS3
SOURCES DOCUMENTAIRES3
7
7
7
8
9
9
10
11
12
13
13
14
14
15
16
16
16
17
17
17
17
17
18
18
19
19
19
19
20

5
20
22
22
22
22
22
23
23
23
23
23
23
24
26
4.4.1 Loi du Khi-deux χ2(p)26
26
27
29
29
29

6
CHAPITRE 1 : RAPPELS

1.1-Le langage des ensembles


1.1.1- Opérations sur les ensembles
 La réunion
La réunion des deux ensembles A et B est notée et est défini par :
.
 L’intersection
L’intersection des deux ensembles A et B est notée et définie par :
.
Deux ensembles A et B sont disjoints si .
 Complémentaire
Soit A une partie d’un ensemble E, le complémentaire de A dans E est noté ou et est
défini par :
 Différence
Soient A et B deux parties de E, on note l’ensemble défini par :
Par conséquent on a l’égalité
 Différence symétrique
Soient A et B deux parties de E on note l’ensemble défini par :
et . Par conséquent on à l’égalité
.

 Produit cartésien
Le produit cartésien des deux ensembles E et F est noté . Il est défini par :

 Partition
Une famille de partie d’un ensemble est une partition de
.
 Ensemble des parties
L’ensemble des parties d’un ensemble E est noté , est l’ensemble de tous les sous-
ensembles de E, .
Règles
Soient A, B et C trois parties de E :
1.
2.

7
3.
4.

5.

1.1.2 Ensemble et fonction


a) images et images réciproques
L’ensemble des applications d’un ensemble E est noté Soit f de , A une
partie de E et B une partie de F :
 L’image de A par f est l’ensemble
 L’image réciproque de B par f est l’ensemble
Règle
Soit f une application de E dans F et, A et B deux parties de F :
1.
2.
3.

4. où est le complémentaire de A dans F et est le complémentaire

de dans E.
b) fonction caractéristique d’une partie
Soit A une partie de l’ensemble E. La fonction caractéristique de A, ou fonction indicatrice de
A notée , est une fonction définie sur E et à valeur par :

Soit A et B deux parties de l’ensemble E et le complémentaire de A dans E.


 Inclusion.

 Complémentaire.

 Différence.

 Intersection.

En particulier

 Réunion.

8
 Différence symétrique.

Propriété
L’ensemble des parties de est une bijection avec l’ensemble des fonctions de E dans
, .
Devoir (voir fiche)

1.2-L’analyse combinatoire
1.2.1-L’ensemble finis
Définition
Un ensemble E est fini s’il est vide ou s’il existe un entier naturel n et une
bijection , n est appelé cardinal de E, noté Card(E) ou . Le cardinal
de l’ensemble vide est égale à zéro (Card( ).
Propriétés
 Soit E un ensemble fini. Si F est un ensemble tel qu’il existe une bijection de E dans F,
alors F est un ensemble fini et Card(F) = Card(E).
 Soit E un ensemble fini. Toute partie A de E est finie et Card(A) Card(E). une partie
A de E est égale à E ssi le cardinal de A est égale à celui de E.
 Soit A et B deux parties de l’ensemble fini E, et le complémentaire de A dans E.
1. Si A et B sont disjoints , Card = Card(A) Card(B).
2. Card(A\B) = Card (A) .
3. Card Card(E) .
4. Card = Card(A) Card(B) .
5. Card Card (A) Card (B) .
 Formule du crible ou du Poincaré.
Si la famille est une famille de partie de l’ensemble fini E, alors

 Soit E et F deux ensembles finis on a : Card (E )= Card (E) Card (F)


Card

9
 Soit E un ensemble fini. On a: Card Card

1.2.2 Dénombrement
a) Nombre de permutation de n objets :
On appelle factorielle la fonction notée !, de définie par : n!=1 . Par
convention 0!=1. Le nombre des bijections d’un ensemble E à n éléments sur lui-même, c'est-
à-dire le nombre de perturbations des n objets vaut n!
b) Nombre d’arrangements de n objets m à m :
Soient E et F deux ensemble finis tels que Card (E) = m Card (F). Alors le nombre des
applications injectives de E dans F est

On appel nombre d’arrangements de n objets m à m. est le nombre de suites distinctes


à m éléments sans répétition qu’il est possible de former avec un ensemble de n éléments.
c) Nombre de combinaisons de n objets p à p :
Soit E un ensemble fini de cardinal n et p tel que p . Le nombre des parties A de E
comportant p éléments est égale à :

Ce nombre noté des combinaisons de n objets p à p. est le


nombre de choix possibles de p éléments différents pris dans une collection de n objets,
indépendamment de l’ordre dans lequel les éléments sont choisis on a :



Le triangle de pascal basé sur la relation = permet un calcul récursif de .
d) La formule du binôme de Newton
Soit deux éléments d’un anneau tel que alors :

On a les deux égalités suivantes :

10
Devoir (voir fiche)

1.3 Fonction génératrice


Définition

On appel fonction génératrice d’une suite entiers naturels, la série formelle notée

et défini par : c'est-à-dire

Propriétés
Soit une fonction génératrice de ( , ) : et la fonction
génératrice de ( , .
 sont égales ssi pour tout entier naturel n, on a
 , ).

 Décalage vers la gauche. .

 Mise à l’échelle. , .

 Addition. ( ,…).

 Multiplication par l’indice. .

 Division par l’indice. .

 Différence. ( …)

 Convolution (

11
 Somme partielle

Devoir (voir fiche)


Devoir rechercher les fonctions génératrices usuelles

1.4 Quelques sommes finies classiques


 Somme des n premiers entiers

 Somme des carrés des n premiers entiers

 Somme des cubes des n premiers entiers

 Somme des puissances quatrièmes des n premiers entiers

 Somme des premiers termes d’une suite géométrique


Soit :

12
CHAPITRE 2 : PROBABILITE ET ANALYSE COMBINATOIRE
Certaines expériences entraînent des résultats aléatoires, c-a-d qui dépendent directement du
hasard. Nous les appelons des expériences aléatoires. Dans la suite désignera une
expérience aléatoire.
2.1 Modéliser une expérience aléatoire
Le terme modélise désigne l’opération qui consiste à associé à trois objets mathématiques ;
l’univers , l’ensemble des éléments et la probabilité P.
On appelle univers associé à . L’ensemble de tous les résultats possibles de .
Pour représenter les éléments, il est d’usage d’utiliser la théorie des ensembles. Un événement
est donc associé à un sous-ensemble de l’univers , l’ensemble des résultats pour lesquels
l’événement est réalisé. Terminologie des événements :
 est appelé événement impossible
 est appelé événement certain
 Tout singleton , ou est appé évènement élémentaire.

On appelle ensemble des évènements associé à tous sous ensemble de dans


vérifiant les propriétés suivant :
 et
 alors Ā
 Soit I une partie finie ou infinie de est une suite d’éléments de ,
alors

On appelle espace probabilisable lié à le couple ( où et est l’ensemble des résultats


possibles de et un ensemble des éléments lié à .

On appelle évènement incompatible ou disjoints deux évènements A et B tel que =


c-a-d qu’il est impossible que A et B se réalise simultanément.

On appelle probabilité sur ( une application P de dans vérifiant les deux


propriétés suivantes (axiomes de Kolmogorov ) :
 P ( =1
 Pour toute suite finie ou infinie dénombrable d’éléments de deux à
deux incompatible, nous avons

c-a-d que la probabilité d’un événement qui est la réunion disjointe d’évènements est égale à
la somme des probabilités de ces évènements.
NB : un ensemble d’événement vérifiant les trois propriétés ci-dessus est appelé une -
algèbre ou une tribu
Devoir (voir fiche)

13
Espace probabilisé fini
On appelle espace probabilisé fini associé à une expérience aléatoire le triplet (Ω, (Ω), P),
lorsque l’univers Ω est fini.
Propriétés
Pour tout élément A et B de (Ω), nous avons :

1. ) , d’où P(

2.
3.
4. P(A
5. Si A et B sont incompatibles, alors
sont n événements deux à deux
incompatibles,

6. Formule du crible onde Poincaré : pour toute suite d’évènements , nous avons

Nous disons qu’il y’a équiprobabilité lorsque les probabilités de tous les événements élémentaires
sont égales. Dans ce cas, P est la probabilité uniforme sur (Ω, (Ω)).
Conséquence : s’il y’a équiprobabilité, pour tout évènement A, on a :

2.3 Espace probabilisé quelconque


On appelle espace probabilisé associé à une expérience aléatoire le triplet (Ω, .
Propriété
Pour tout élément A et B de , on a en plus des 4 propriétés précédentes :
5. Si A et B sont incompatibles, alors P (A Si I est une partie finie
ou infinie de et si est une suite d’évènements deux à deux incompatible,
alors on a

14
6. La formule du crible est encore valable

Propriété de la limite monotone de la probabilité P


Soit (Ω, un espace probabilisé :

1. Si est une suite croissante (au sens de l’inclusion) d’évènements de , la suite


converge et

2. Si est une suite décroissante (au sens de l’inclusion) d’évènements de la suite


converge

Devoir (voir fiche)

2.4 Probabilité conditionnelle


Définition
Soit (Ω, un espace probabilisé associé à . Soit A un évènement de probabilité non nulle. Pour
tout évènement B, on pose

L’application qui à un évènement B associe P(B\A) est une probabilité sur (Ω, , appelé
probabilité conditionnelle relative à A ou probabilité sachant A.
Propriétés
1. P (Bc/A)=1- P(B/A)
2. P(B\C/A)=P(B/A)-P(B
3.

15
4. Si B et C sont incompatibles, alors P(B P(B/A)+P(C/A). Plus généralement, si I est

une partie finie ou infinie de et si est une suite d’évènements deux à deux

incompatible

5. La formule du crible ou de Poincaré se généralise en remplaçant P par P (. / A) ;

6. Si est une suite d’évènements, alors nous avons

2.4.1 Formule des probabilités composées

Soit une suite d’évènements de telque

On a l’égalité suivante :

2.4.2 Système complet d’évènements


Soit ( une espace probabilisable. une suite d’évènements de On appelle la famille
un système complet d’évènements lorsque :
3
4

2.4.3 Formule de probabilités totales


Soit un système complet d’évènements de probabilités toutes non nulles. Pour tout évènement
B, nous avons :

16
2.4.4. Formule de bayes
Pour tout système d’évènements de probabilités non nulles et pour tout évènement B de
probabilité non nulle, on a :

Indépendance en probabilité
Soit (Ω un espace probabilisé. On appelle évènements indépendants pour la probabilité P des
évènements A et B qui vérifient :
.
Pour généraliser la notion d’indépendance à plus de deux évènements on utilise la notion de tribut
de -algèbre.
2.5.1 Tribu engendrée par une famille d’évènements
Soit S une famille de Ω. L’intersection de toutes les tribus sur Ω qui contiennent S est une tribu sur Ω
qui contient S. On note (S) et on l’appelle la tribu engendrée par S.

2.5.2 Tribus indépendantes


Soit (Ω, un espace probabilité. Soit une famille de n tribus contenus dans . Les tribus

sur sont indépendantes pour la probabilité P lorsque pour toute famille d’évènements telle

que pour tout i [1, n], on a :

2.5.3 Indépendance mutuelle de n évènements


it n évènements d’un espace probabilisé (Ω, . Les évènements sont
mutuellement indépendants pour la probabilité P lorsque les tribus engendrées par les

familles sont indépendantes.

Théorème
sont mutuellement indépendant ssi pour tous parties I [1, n] l’égalité suivante est vérifiée

17
Propriété
n évènements mutuellement indépendants. Alors les évènements où par tout
i {1,…,n}, ou sont mutuellement indépendants.
2.5.4 Indépendance mutuelle d’une suite infinie d’évènements
Soit une suite infinie d’évènements. Les évènements sont mutuellement indépendants
pour la probabilité P lorsque pour tout n sont des évènements mutuellement
indépendants pour la probabilité P.
Théorème
une famille d’évènements mutuellement indépendants ssi pour tout partie finie I l’égalité
suivante est vérifiée

2.5.5 Impédance deux à deux de n évènements


Soit n évènements d’un espace probabilisé (Ω, . Les éléments sont deux à
deux indépendants pour la probabilité P lorsque tout (i, j) , les évènements et sont
indépendants pour la probabilité P.
NB : Trois évènements A, B et C peuvent être deux à deux indépendants sans que A, B et C soient
mutuellement indépendants.

18
CHAPITRE 3 : VARIABLES ALEATOIRES
3.1 VARIABLES ALEATOIRES REELLES ET DISCRETES
3.1.1 Variables aléatoires réelles
Soit ( , l’espace probabilisée. On appelle variable aléatoire réelle X toute application de
dans telle que pour tous intervalle I de l’ensemble (I) = { I} est un
évènement de .

On note X( l’ensemble des valeurs prises par la variable X définie sur l’espace probabilisé
(

 ({x}) = { X ( = x} se note {X = x}
 ] ={ X(
 ] a<X( se note {a < X .

Soit X une variable aléatoire réelle définie sur l’espace probabilisé ( On appelle
fonction de répartition de la variable aléatoire X la fonction numérique réelle définie par :
,

Propriétés
1. , ;
2. est une fonction croissante sur ;
3. et et est continue à droite et admet une
limite à gauche en tout point de ;
4. Pour tous réels P (a<X .

3.1.2 Variable aléatoire discrète


Soit X une variable aléatoire réelle sur un espace probabilisé ( . On appelle variable
aléatoire discrète X si l’ensemble de ses valeurs X( est au plus dénombrable (un ensemble E
est au plus dénombrable s’il existe une application bijective de E dans une partie de . S’il
existe injection de E dans , alors E est au plus dénombrable. De même s’il existe une
surjection de sur E.).

Soit X une variable aléatoire réelle définie sur l’espace probabilisé ( . On appelle loi de
la variable aléatoire discrète X la donnée d’une suite numérique (P(x = k) = telle que :

1. ;
2. ;
3. où désigne la sommation sur l’ensemble de
inférieure ou égale à x.

Devoir (voir fiche)

19
3.2-MOMENTS ET FONCTIONS GENERATRICES D’UNE VARIABLE
ALEATOIRE DISCRETE
( Désigne un espace probabilisé et X une variable aléatoire discrète défini sur Ω. X(Ω)
= avec I une partie de ou de .On pose P = .

3.2.1 Moments d’une variable aléatoire discrète


La variable aléatoire X admet une espérance mathématique lorsque I est fini ou lorsque la
série est absolument convergente. L’espérance mathématique de X est la
moyenne pondérée notée E(X) :

( désigne l’ensemble des variables aléatoires discrètes définies sur et admettant


une espérance mathématique.
3.2.1.1 Espérance d’une fonction d’une variable aléatoire
Théorème du transfert :
Soit g une fonction définie sur X( ) à valeur dans lorsque g(X) admet une espérance
mathématique c.-à-d. g(X) ( , on a :

3.2.1.2 Linéarité de l’opérateur E(.)


L’espérance est une forme linéaire soit ( pour tous réels a et b et pour toutes
variables aléatoires discrètes X et Y admettant une espérance mathématique (moyenne) on a :
E(

3.2.1.3 Moment simple et moment centré d’ordre r


Soit r . On appel moment simple d’ordre r de la variable aléatoire X la valeur.

On appel moment centré d’ordre r de X le réel.

3.2.1.4 Variance et écart-type


La variable aléatoire discrète X admet une variance lorsque X admet un moment centré
d’ordre 2. La variance de X est :

Var(X) = E (( =

20
L’écart type :

Théorème : la formule de Huygens s’écrit : Var(X) = E (

Propriétés :
Pour tous les réels a et b et pour tout variable aléatoire discrète X admettant une variance on
a:
Var(

 si E (X) = 0, X est une variable aléatoire centré.


 Si Var (X) = 1, X variable aléatoire réduite.
 Si X admet une variance non nulle, la variable est appelée centrée et
réduite associée à X.

3.2.1.5 Moments d’ordre 3 et 4

Permet de fournir le coefficient d’asymétrie.

Permet de fournir le coefficient d’aplatissement.

3.2.2 Fonctions génératrices de la variable aléatoire discrète X


On appelle fonctions génératrices de la variable aléatoire discrète X à valeur dans la série
entière :
,t [-1 ;+1].

21
CHAPITRE 4 : LES LOIS EN PROBABILITE
4.1 Loi discrètes usuelles finies
4.1.1 Loi de Bernouilli
Soit p ∈ [0,1].Une variable aléatoire X suit une loi de Bernoulli de paramètre p, notée
B(1,p), si la variable aléatoire X prend la valeur 1 avec la probabilité p et la valeur 0 avec la
probabilité 1 − p = q.
Propriétés
L'espérance et la variance d'une variable aléatoire X suivant une loi de Bernoulli de paramètre
p sont égales respectivement à :
E(X) = p et Var(X) = p(1 − p) = pq où q = 1 − p.
4.1.2 Loi uniforme discrète
Soit n ∈N*. Une variable aléatoire X suit une loi uniforme discrète si la variable aléatoire X
prend n valeurs possibles k1,k2,. . . ,knavec la probabilité égale à 1/n pour n'importe quelle
valeur ki.
Propriétés
Si X suit une loi uniforme discrète sur [a,b], alors nous avons :

La loi uniforme discrete sur [1,n] s’écrit :

4.1.3 Loi binomiale


Soit n un entier naturel et p ∈ [0,1]. Une variable aléatoire X suit une loi binomiale de
paramètres n et p, notée B(n,p), si la variable aléatoire X prend la valeur k avec la probabilité
égale à:

Notons q le nombre 1- p.
Cette loi caractérise le nombre de boules blanches obtenues dans un tirage avec remise de n
boules dans une urne.
Propriétés
L’espérance et la variance d’une variable aléatoire X suivant une loi binomiale de paramètres
n et p sont égales respectivement à :

22
4.1.4 Loi hypergéométrique
Soit N et n deux entiers naturels tels que n N et p ∈ [0,1] tel que Np soit entier. Une variable
aléatoire X suit une loi hypergéométrique de paramètres N, n et p, notée H(N,n,p), si la
variable aléatoire X prend la valeur k avec la probabilité égale à :

Notons q le nombre 1- p.
Propriétés
L'espérance et la variance d'une variable aléatoire X suivant une loi hypergéométrique de
paramètres N,n,p sont égales respectivement à :

4.2 Lois discrètes usuelles infinies


4.2.1 Loi géométrique
Soit p ∈ ]0, 1[. Une variable aléatoire X suit une loi géométrique de paramètre p, notée
G(p), si la variable aléatoire X prend la valeur k 1 avec la probabilité égale à :

Propriétés
L’espérance et la variance d’une variable aléatoire X suivant une loi géométrique de
paramètre p sont égales respectivement à :

4.2.2 Loi de poisson


Soit λ>0. Une variable aléatoire X suit une loi de Poisson de paramètre λ, notée P(λ), si la
variable aléatoire X prend la valeur k, k ∈N avec la probabilité égale à :

Propriétés
L’espérance et la variance d’une variable aléatoire suivant une loi de Poisson de paramètre
λsont égales respectivement à :

4.3 Loi normale ou de Laplace-Gauss


4.3.1 La loi normale centrée- réduite
Une variable aléatoire X à valeurs dans R suit une loi normale centrée-réduite, notée
N(0,1), si X est une variable continue et admet pour densité de probabilité la fonction
fXsuivante :
23
Propriétés
1. Le graphe de fXa l'allure d'une courbe en cloche assez aplatie. Voir la courbe noire de la
figure 1.
2. La fonction de répartition de la loi normale N(0,1), notée généralement , est égale à :

Le graphe de a l'allure d'une courbe en S assez étalée et est symétrique par rapport au point
(0,1/2)et la pente de la tangente en ce point est . Voir la courbe noire de la figure 2.

Figure 1 : Densité de lois normales Figure 2 : Fonction de répartition de


lois
pour σ fixé normales pour σ fixé
3. Soit X une variable aléatoire qui suit la loi normale N(0,1). Nous avons : E(X) = 0 et Var(X)
= 1. C'est la raison pour laquelle la loi est appelée centrée-réduite et est notée N(0,1).
4. La fonction génératrice des moments de la loi normale N(0,1) est égale, pour tout t ∈R à :

5. Nous avons, pour tout n ∈N :

6. En particulier, le coefficient d'asymétrie de la loi normale N(0,1) est nul et le coefficient


d'aplatissement de la loi normale N(0,1) est égal à 3.
4.3.2 La loi normale de paramètres μ et σ
Une variable aléatoire X à valeurs dans R suit une loi normale de paramètres μ∈Ret σ>0,
notée N(μ,σ), si X est une variable continue et admet pour densité de probabilité la fonction
fμ,σsuivante :

24
Propriétés
1. Le graphe de fμ,σa l'allure d'une courbe en cloche symétrique par rapport à x = μ, très
pointue pour σpetit, très aplatie pour σgrand. Voir la figure 1 pour σ= 1 et différentes valeurs
de μet figure 3 pour μ= 0 et différentes valeurs de σ.
2. La fonction de densité d'une loi normale N(μ,σ) vérifie fμ,σ (μ+ u) = fμ,σ (μ− u).
3. La fonction de répartition d'une loi normale N(μ,σ) est égale à :

Son graphe a l'allure d'une courbe en S, très pentue pour σpetit, très étirée pour σgrand. Voir
la figure 2 pour σ= 1 et différentes valeurs de μet figure 4 pour μ= 0 et différentes valeurs de
σ.
4. La fonction de répartition d'une loi normale N(μ,σ) vérifie Fμ,σ(μ− x) = 1 −Fμ,σ (μ+ x).
5. Soit X une variable aléatoire qui suit une loi normale N(μ,σ). Nous avons : E(X) = μet
Var(X) = σ2.
6. La fonction génératrice des moments d'une loi normale N(μ,σ) est égale, pour tout t ∈R à :

7. Il en résulte de la forme de la fonction génératrice des moments que si (X1,X2) est un couple
de variables aléatoires indépendantes de lois respectives N(μ1,σ1) et N(μ2,σ2), avec μ1,μ2 des
réels et σ1>0,σ2>0, alors la somme X = X1 + X2 suit une loi normale N(μ,σ) où μ= μ1 + μ2 et σ2
= σ21
+ σ22.

Figure 3 : Densité de lois normales Figure 4 : Fonction de répartition de


lois
pour μ fixé normales pour μ fixé

25
4.4 Lois dérivées de la loi normale
4.4.1 Loi du Khi-deux χ2(p)
Soit p un entier positif. Une variable aléatoire X suit une loi de Pearson ou loi du Khi-deux à
p degrés de liberté, notée χ2(p) , si X est une variable continue et admet pour densité de
probabilité la fonction fXsuivante :

où est la fonction gamma d’Euler.

La figure 5 montre le graphe de la densité de probabilité fXpour différentes valeurs du


paramètre p.
Propriétés
1. La fonction de répartition ne s’explicite pas. Cependant, il existe des tables de la fonction
de répartition. La figure 6 montre le graphe de la fonction de répartition pour différentes
valeurs du paramètre p.
2. Soit X une variable aléatoire qui suit une loi du Khi-deux χ2(p). Nous avons : E(X) = p et
Var(X) = 2p.
3. Soit X1,. . . ,Xnune suite de variables aléatoires indépendantes et identiquement distribuées
qui suit la loi normale N(0,1). Alors la variable aléatoire suit la loi du Khi-deux χ2(n)
.
4. Soit une variable aléatoire X1 qui suit une loi du Khi-deux χ2(n1) et X2 une variable
aléatoire qui suit indépendamment de X1 une loi du Khi-deux χ2(n2) . Alors la variable
aléatoire X1 + X2 suit une loi du Khi-deux χ2(n1 + n2).

Figure 5 : Densités Figure 6 : Fonction de répartition


4.4.2 Loi de Student t(n)
Soit n un entier strictement positif. Une variable aléatoire X suit une loi de Student à n degrés
de liberté, notée t (n), si X est une variable continue et admet pour densité de probabilité la
fonction fXsuivante :

26
La figure 7 montre le graphe de la densité de probabilité fXpour différentes valeurs du
paramètre n.

Figure 7 : Densités Figure 8 : Fonction de répartition


Propriétés
1. La fonction de répartition ne s’explicite pas. Cependant, il existe des tables de la fonction
de répartition. La figure 8 montre le graphe de la fonction de répartition pour différentes
valeurs du paramètre n.
2. Soit X une variable aléatoire qui suit une loi de Student t (n). Nous avons :

3. Soit une variable aléatoire U qui suit une loi normale N(0, 1) et X une variable aléatoire qui
suit indépendamment de U une loi du Khi-deux χ2(n). Alors la variable aléatoire
suit une loi de Student t(n).
4. Pour n = 1, la loi est la loi de Cauchy. La loi de Cauchy est en fait la loi du rapport de deux
variables qui suivent chacune indépendamment la loi normale N(0,1).
4.4.3 Loi de Fischer-Snedecor F(n,p)
Soit n et p deux entiers positifs. Une variable aléatoire X suit une loi de Fisher-Snedecor (ou
loi de Fisher) à n et p degrés de liberté, notée F(n,p), si X est une variable continue et admet
pour densité de probabilité la fonction fXsuivante :

Les figures 9 et 11 montrent le graphe de la densité de probabilité fXpour différentes valeurs


des paramètres n et p.

27
Propriétés
1. La fonction de répartition ne s’explicite pas. Cependant, il existe des tables de la fonction
de répartition. Les figures 10 et 12 montrent le graphe de la fonction de répartition pour
différentes valeurs des paramètres n et p.
2. Soit X une variable aléatoire qui suit une loi de Fisher F(n,p). Nous avons :

3. Soit X et Y étant deux variables aléatoires suivant indépendamment des lois du χ2 à n et p


degrés de liberté respectivement. Alors la variable aléatoire suit une loi de Fisher-
Snedecor à n degrés de liberté au numérateur et p degrés de liberté au dénominateur.

Figure 9 : Densités Figure 10 : Fonction de répartition

Figure 11 : Densités Figure 12 : Fonction de répartition

28
4.5 Lois continues
4.5.1 Loi uniforme continue U[a,b]
Une variable aléatoireX à valeurs dans [a, b], où a et b sont deux réels tels que a < b suit une
loi uniforme continue sur [a, b], notée U[a, b] , si X est une variable continue et admet pour
densité de probabilité la fonction fXsuivante :

TRAVAUX DIRIGES DE PROBABILITE


Exercice 1 :
Soit Ω l’ensemble des couples mariés d’une ville donnée. Nous considérons les événements :
 A : la femme a plus de trente ans ;
 B : le mari a plus de trente ans ;
 C : le mari est plus jeune que la femme.
1. Interprétez en fonction de A, B et C l’événement : la femme a plus de trente ans mais non
son mari.
2. Décrivez en langage ordinaire les événements :
.
3.Vérifiez que .

Exercice 2 :
Calculez la probabilité de l’union de trois événements A, B et C de deux manières
différentes :
1. En utilisant la formule .
2. En appliquant directement la formule du crible.

Exercice 3 :
1. Soit X, Y et Z trois sous-ensembles d’un ensemble E. A l’aide des fonctions
caractéristiques de ces ensembles, montrez que :

2. Nous lançons un dé rouge et un dé bleu à six faces.


a) Combien y a-t-il de combinaisons possibles ?
b) Développez .
c) Considérons la somme des valeurs des dés, quel est le nombre obtenu le plus souvent ?

29
Exercice 4 :
Une urne contient 20 boules blanches et 12 boules rouges. On tire 6.
1. Quelle est la probabilité pour que les 6 boules soient blanches ?
2. Quelle est la probabilité d’avoir au moins une boule rouge ?
3. Quelle est la probabilité pour que les six boules soient de même couleur ?
4. Quelle est la probabilité pour que l’on ait des boules des deux couleurs ?
5. Quelle est la probabilité d’obtenir 4 boules rouges et 2 boules blanches ?
6. Quelle est la probabilité d’obtenir au moins 4 boules rouges ?

Exercice 5 :
Neuf chevaux, 4 blanc et 5 noirs pénètrent un par un sur la piste d’un cirque. Ils sont distincts
les uns par rapport aux autres par leurs harnachement.
1. Combien existe-t-il de façon de les arriver sur la piste ?
2. On appelle X la variable aléatoire : nombre de chevaux blancs précédant le premier cheval
noir. Donner la loi de probabilité de X.
3. Calculer l’espérance mathématique de X et sa variance.

Exercice 6 :
Deux joueurs A et B écrivent simultanément un nombre choisi dans l’ensemble {1, 2, 3}. On
désigne par x le nombre choisi par le joueur A et par y celui choisi par le joueur B. Chaque
joueur écrit à l’insu de l’autre. Si est pair, A reçoit p francs de B et si est impair
A donne q francs à B.
1. Soit X le gain algébrique du joueur A à l’issue de la première partie. Déterminer
l’espérance mathématique de la variable aléatoire X sachant que les joueurs A et B choisissent
les nombres 1, 2 ou 3 avec équiprobabilité.
2. Déterminer un couple d’entiers (p, q) tel que le jeu soit équitable donc d’espérance
mathématique nulle.
3. On suppose que et . Les joueurs A et B jouent trois parties successives.
Déterminer la probabilité pour que à l’issue de ces trois parties, le gain du joueur A soit
positif.

Exercice 7 :
1. Soit X et Y deux sous-ensembles d’un ensemble E. Montrez que l’égalité suivante est
vraie :

2. Soit n un entier naturel inférieur ou égal à 12. Combien y a-t-il de façon de choisir n
beignets de trois saveurs différentes (fraise, vanille et chocolat) s’il doit y avoir au moins deux
beignets de chaque saveur et pas plus de quatre beignets au chocolat.

Exercice 8 :
Deux chasseurs A et B aperçoivent ensemble un lièvre et tire simultanément.
1. Sachant que A atteint et tue d’habitude 5 lièvres sur 6 et B, 4 sur 5 (NB : A et B sont des événements
indépendants).
a) Quelle est la probabilité P(A) ?
b) Quelle est la probabilité P(B) ?
c) Quelle est la probabilité pour que le lièvre soit tué.
2. En fait B a tiré.

30
a) Quelle est la probabilité pour que A tue le lièvre (événement ), sachant que si B tire et
manque (événement ), les chances de A d’atteindre le lièvre se trouvent diminuées de
moitié (événement )?
b) Dans ces conditions B a tiré le premier puis A, quelle est la probabilité pour le lièvre d’en
réchapper (événement )?

Exercice 9 :
On jette successivement et indépendamment sur une table deux dés tétraédriques dont les
faces sont numérotées de 1 à 4. X étant le produit des nombre obtenus.
1. Donner la loi de probabilité de X, son diagramme en bâtons.
2. Donner la fonction de répartition de X et sa courbe cumulative.

Exercice 10 :
1. Une urne contient 8 boules blanches et deux boules noires. On tire sans remise trois de ces
boules. On considère la variable aléatoire X qui est égale au nombre de boules noires tirées à
l’occasion d’un tirage de 3 boules, déterminer la loi de probabilité de X.
2. Une boite contient 20 pièces d’équipement dont 5 sont défectueuses. On y prend au hasard
un lot de 3 pièces. Quelles sont les probabilités des événements suivants :
a) A : le lot a au moins une pièce mauvaise.
b) B : le lot a au moins deux pièces mauvaises.

31

Vous aimerez peut-être aussi