Académique Documents
Professionnel Documents
Culture Documents
1 Analyse Combinatoire 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Principe élémentaire de comptage . . . . . . . . . . . . . . . . 4
1.3 Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Arrangements et Combinaisons . . . . . . . . . . . . . . . . . 5
1.4.1 Arangements . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3 Variables Aléatoires 15
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 16
2
TABLE DES MATIÈRES
Analyse Combinatoire
1.1 Introduction
En théorie des probabilités, on est souvent devant des situations où il est
indispensable de dénombrer les probabilités pour qu’un événement donné
se réalise. Pour cela, nous allons étudier les plus courantes méthodes de
dénombrement.
Avant de parler des permutations et des combinaisons, il est utile d’in-
troduire une technique de comptage assez générale
Résultat 1.2.1. Le nombre total des résultats possible à la fin d’une telle
expérience est égal à :
m = m1 × m2 × ... × mn . (1.1)
4
CHAPITRE 1. ANALYSE COMBINATOIRE
1.3 Permutation
Exemple 1.3.1. Les permutations possible des lettres A, B et C sont : ABC,
ACB, BAC, BCA, CAB et CBA. Soient 6 permutations au total.
n! = n × (n − 1) × ... × 3 × 2 × 1. (1.2)
Définition 1.4.1. Lorsque l’ordre des résultats est pris en compte, on parle
d’ arrangements.
Lorsque l’ordre des résultats n’est pas pris en compte, on parle decombinaisons.
1.4.1 Arangements
Arangements sans répétition
Considérons n objets discernables O1 , O2 , ..., On . Pour former un p−uplet
Oi1 , Oi2 , ..., Oip -sachant que tous les Oij sont distincts-, on passe par p
étapes, à la ième étape le nombre de réalisations possible est égale à n−(i−1).
On a le résultat suivant :
1.4.2 Combinaisons
Combinaisons sans répétition
Reprenant l’exemple de l’urne du début de la section. On choisit, sans
remise, p boules et sans que l’ordre intervient. Quel est alors le nombre de
résultats possibles ?
On sait que si l’ordre intervient, on aura Apn cas possibles. Dans ce cas
chaque groupe de p numéro engendre p! combinaisons ordonnée. Pour obtenir
le nombre de combinaisons non ordonnées, il suffit de diviser Apn par p!. On
a donc le résultat suivant :
1.4.3 Exemple
On considère trois objets : a, b et c (n = 3), on veut sélectionner p = 2
objets parmi a, b et c. On a les cas suivants :
1. Sans répétition et sans ordre
(a,b), (a,c) et (b,c)
C32 = 3
2. Sans répétition et avec ordre
(a,b), (a,c), (b,c), (b,a), (b,c) et (c,a)
A23 = 6
3. Avec répétition et sans ordre
(a,b), (a,c), (b,c), (a,a), (b,b) et (c,c)
K32 = C3+2−1
2
= C42 = 6
4. Avec répétition et avec ordre
(a,b), (a,c), (b,c), (b,a), (b,c) et (c,a) (a,a), (b,b) et (c,c)
32 = 9
2.1 Introduction
Les origines de la théorie des Probabilités remontent au 17ème siècle en
manipulant la notion du hasard en mathématique. L’élaboration axiomatique
de la théorie des Probabilités a été établie par Kolmogorov (1933).
8
CHAPITRE 2. THÉORIE DES PROBABILITÉS
Ω = {P, F P, F F P, F F F P, ...}
3. Ensemble fondamental infini non denombralble : Durée de vie
d’une ampoule.
Ω = [0, +∞[
Remarque 2.2.1. On peut scinder les espaces fondamentaux en deux type :
1. Discret : fini, infini dénombrable.
2. Continu : infini et non dénombrable.
Définition 2.2.2 (Événement, événement élémentaire). 1. On appelle événement
tout sous-ensemble de Ω.
2. On appelle événementualité ou événement élémentaire tout sin-
gleton de Ω et on le note par ω.
Exemple 2.2.3. Jet d’un dè, Ω = {1, 2, 3, 4, 5, 6} = {ω1 , ω2 , ω3 , ω4 , ω5 , ω6 }
1. ∀i, {ωi } est un événement élémentaire.
2. A = {1, 2} est un événement, formulé par la phrase : ”Obtenir 1 ou
2”.
Remarque 2.2.2. 1. l’ensemble Ω est un événement lui même et est
appelé événement certain.
2. l’ensemble vide ∅ est un événement et est appelé événement impos-
sible.
On remarque que siTF est une tribu, alors elle est stable pour une inter-
section dénombrable : n An ∈ F.
P : F −→ [0, 1]
card(A)
A 7−→ P(A) := n
PB : F −→ [0, 1]
P(A∩B)
A 7−→ PB (A) := P(B)
P(A1 ∩ A2 ∩ ... ∩ Am ) = P(Am /A1 ∩ A2 ∩ ... ∩ Am−1 ) × P(Am−1 /A1 ∩ A2 ∩ ... ∩ Am−2 )
× ... × P(A2 /A1 )P(A1 ).
Exemple 2.4.2. Considérons deux urnes U1 [10N, 2B] et U2 [5N, 3B] ; Quelle
est la probabilité d’extraire 1 boule blanche ? sachant que la probabilité de tirer
une boule de l’urne U1 est égale à celle de l’urne U2 et vaut 1/2.
On note par B l’événement : ”obtenir une boule blanche” , U1 : ”le tirage
est effectué de l’urne 1” et U2 : ”le tirage est effectué de l’urne 2”.
Définition 2.5.2. Une famille (Ai )1≤i≤n de n événements d’un même es-
pace probabilisé (Ω, F, P) est dite indépendante si pour toute partie I de
{1, 2, ..., n}
!
\ Y
P Ai = P(Ai )
i∈I i∈I
Ω = {1, 2, 3, 4, 5, 6},
A = {1, 3, 5}, P(A) = 1/2
B = {5, 6}, P(B) = 1/3
A ∩ B = {5}, P(A ∩ B) = 1/6
alors, P(A ∩ B) = P(A) × P(B) et donc A et B sont indépendants.
Variables Aléatoires
3.1 Introduction
Dans une expérience aléatoire, on s’intéresse à une donnée numérique
résultat de cette expérience. Par exemple, lors de lancé de deux dés, on
s’intéresse à la somme des résultats trouvés (et non pas au détail du déroulement
du lancement). Donc une variable aléatoire (va) est une application qui
à tout résultat du hasard associe une certaine quantité numérique.
La notion des variables aléatoires est très utile en calcul des probabilités
et en statistique. Elle permet de travailler sur R. Les variables aléatoires sont
des objets centraux en théorie des probabilités. Elles jouent le même rôle que
les fonctions en analyse.
3.2 Définition
Définition 3.2.1. Soit (Ω, F) un espace mesurable. On appelle variable
aléatoire réelle sur Ω tout application
X : Ω −→ R
telle que :
∀x ∈ R, {ω ∈ Ω X(ω) ≤ x} ∈ F.
Remarque 3.2.1. L’ensemble Ω étant fini, pour toute fonction X définie sur
Ω, l ?ensemble X(Ω) des valeurs prises par X est lui aussi fini, de cardinal
inférieur ou égal à celui de Ω.
15
CHAPITRE 3. VARIABLES ALÉATOIRES
alors,
0 si x<0
F (x) = P(X ≤ x) = 1/2 si 0≤x<1 ,
1 si x≥1
{X ≤ x} ={X = x1 } ∪ {X = x2 }... ∪ {X = xj }, xj ≤ x
(4.1)
= ∪xi ≤x {X = xi }
X
FX (x) =P({X ≤ x}) = P(∪xi ≤x {X = xi }) = P({X = xi }) (4.2)
xi ≤x
19
CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES
Exemple 4.2.1. On jette deux dés équilibrés (Ω = {(1, 1), (1, 2), ..., (6, 6)} –
card(Ω) = 36) et on note S : ” la somme des résultats obtenus ”. S est une
variable aléatoire discrète. S(Ω) = {2, 3, ..., 12}.
◦ si X(Ω) est infini et (xi , pi )i∈N la loi de X, alors X admet une espérance
si la série de terme général (xi pi ) est absolument convergente. Dans
ce cas l’espérance de X est
X
E(X) = xi p i .
i∈N
Proposition 4.3.1. On a
◦ Si X = a, alors E(X) = a.
◦ ∀A ∈ A, E(1A ) = P(A).
◦ (Linéarité) E(X + λY ) = E(X) + λE(Y ) Si toutes les espérances
existent.
◦ (Positivité) Si X ≥ 0, alors E(X) ≥ 0.
◦ (Croissance) Si X ≥ Y , alors E(X) ≥ E(Y ).
◦ |E(X)| ≤ E(|X|).
Proposition 4.3.2 (Théorème de transfert). La variable aléatoire Y = g(X)
admet une espérance si et seulement si la série de terme général g(xi )P (X =
xi ) est absolument convergente. On a alors
X
E(g(X)) = g(xi )P(X = xi ).
i∈I
4.3.3 Variance
Définition 4.3.4. Soit (Ω, F, P) un espace probabilisé et X une variable
aléatoire discrète d’espérance E(X), alors on appelle variance de X le nombre
X
V(X) = E (X − E(X))2 = (xi − E(X))2 × P(X = xi ).
i∈I
p
L’écart type est la racine carré de la variance. On écrit σ(X) = V(X)
Proposition 4.3.3 (Koenig). On a
V(X) = E(X 2 ) − (E(X))2
Proposition 4.3.4. On a
— la variance si elle existe est positive,
— la variance est quadratique : pour tout réel λ, V(λX) = λ2 V(X).
— V(X + µ) = V(X) pour tout réel µ.
σ2
∀ > 0, P [|X − m| ≥ ] ≤ .
2
Preuve. On applique l’inégalité de Markov pour la variable Y = (X−m)2
et λ = 2
Remarque 4.4.1. Ce théorème exprime que plus la variance est faible,
moins X s’éloigne de m.
Pour une autre interprétation on pose = kσ si σ > 0, on obtient
1
P [|X − m| ≥ kσ] ≤ .
k2
Ceci doit se lire ”il y a moins d’une chance sur k 2 que X prenne une
valeur au delà de k fois l’écart-type par rapport à l’espérance”.
Corolaire 4.4.1. Si V(X) = 0 alors P(X = E(X)) = 1.
n+1 n2 − 1
E(X) = , V(X) = .
2 12
Définition 4.5.3. On dit que la variable aléatoire X suit une loi binomiale
de paramètres n et p (On note X ∼ B(n, p)) si
Remarque 4.5.2. On est donc dans les mêmes hypothèses que pour la loi
binomiale, mais le nombre d’épreuves n’est pas fixé à l’avance. On s’arrête
au premier succès.
P(X = n) = q n−1 p.
Définition 4.5.4. On dit que la variable aléatoire X suit une loi géométrique
de paramètre p. On note X ∼ G(p), si
P(X = k) = q k−1 p, ∀k ∈ N∗ .
Figure 4.3 – Répartition des probabilités de G(p), pour p = .8, .5, .2.
e−λ λk
P(X = k) =
k!
Proposition 4.5.6. Si X ∼ P(λ), alors
E(X) = V(X) = λ.
La loi de Poisson peut être interprétée comme un cas limite d’une loi
binomiale.
29
CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES
5.4.2 Variance
Définition 5.4.2. Soit X une variable aléatoire de densité f , si la variable
aléatoire (X − E(X))2 admet une espérance on a
Z +∞
2
(t − E(X))2 f (t)dt.
V(X) = E (X − E(X)) =
−∞
Proposition 5.4.2. On a
a+b (b − a)2
E(X) = et V(X) = .
2 12
P (X > t) = e−λt ,
donc
P (X > t + h, X > t) P (X > t + h) e−λ(t+h)
P (X > t+h|X > t) = = = = e−λh = P (X > h).
P (X > t) P (X > t) e−λt
par
1
f (x) = h i
x−x0 2
πa 1 + a
1 a
=
π (x − x0 )2 + a2
x0 est un paramètre de position et a est un paramètre d’échelle, c’est-à-dire
d’étalement.
On note X ∼ C(x0 , a).
Remarque 5.5.1. ◦ x0 est le mode et la médiane.
◦ L’espérance et la variance de cette loi n’existent pas.
◦ On peut en déduire une expression centrée et réduite (par la médiane
et par l’étalement)
1
f (x) =
π (1 + x2 )
et on note X ∼ C(1)
Proposition 5.5.5. Si X ∼ C(x0 , a), alors sa fonction de répartition est de
la forme
1 x − x0 1
F (x) = arctan + .
π a 2
Définition 5.5.4. On dit qu’une variable aléatoire continue suit une loi nor-
male 1 si l’expression de sa fonction de densité de probabilités est de la forme :
1 1 x−µ 2
f (x) = √ e− 2 ( σ ) , x ∈ R.
σ 2π
La loi dépend des deux réels µ et σ appelés paramètres de la loi normale. On
la note N (µ, σ 2 ).
1. Les lois normales sont aussi appelées lois de Gauss ou lois gaussiennes, ou encore
lois de Laplace-Gauss (de Moivre-Laplace-Gauss)
Remarque 5.5.2. L’axe des abscisses est une asymptote et l’aire sous la
courbe à l’extérieur de l’intervalle [µ − 3σ, µ + 3σ] est négligeable. On a
La loi de Fisher-Snedecor
Définition 5.5.6 (Loi de Fisher). Si X1 et X2 sont deux variables aléatoires
indépendantes qui suivent toutes les deux une loi de khi-deux de degrés de
X1 /n1
. = X2 /n2 est une variable
liberté respectifs n1 et n2 , alors la quantité F
aléatoire qui suit la loi de Fisher-Snedecor à n1 et n2 degrés de liberté. On
note F ∼ F (n1 , n2 ).
Figure 5.7 – Densité de F pour (n1 , n2 ) = (2, 6), (4, 6), (10, 10).
La loi de Student
Définition 5.5.7 (Loi de Student). Soient X et Y deux variables aléatoires
indépendantes, la première étant distribuée selon une loi normale centrée
réduite N (0, 1) et la deuxième
√
selon une loi de khi-deux à n degrés de liberté.
X n
La quantité T . = √Y est une variable aléatoire qui suit une loi de
Student à n degrés de liberté. On note T ∼ T (n).
Démonstration. Admis.
On admet les approximations suivantes :
n ≥ 30
np ≥ 5 .
npq ≥ 5
(Fin du Cours/)