Académique Documents
Professionnel Documents
Culture Documents
1 Analyse combinatoire 1
1 Quelques Notions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Arrangement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3 Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
4 Combinaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
5 Tableau récapitulatif de tirages . . . . . . . . . . . . . . . . . . . . . . . . . 5
5 Introduction à l’estimation 27
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
C HAPITRE
1
Analyse combinatoire
1 Quelques Notions
2 Arrangement
Le nombre d’arrangements sans répétition de "p" éléments pris parmi "n" est alors
p n!
An = .
(n − p)!
1
3. PERMUTATION CHAPITRE 1. ANALYSE COMBINATOIRE
Résultat
Exemple 2.2.1. Combien de façons a-t-on pour composer le mot de passe d’un fichier
électronique de 6 chiffres ?
Résultat
3 Permutation
P n = n!.
Résultat
Résultat
n!
P̃ n = .
n 1 !n 2 !...n p !
Exemple 3.2.1. Considérons le mot "CELLULE". Quel est le nombre de mots possibles
(avec ou sans signification) que l’on peut écrire en permutant ces 7 lettres.
Résultat
4 Combinaison
Le nombre de combinaisons sans répétitions de "p" éléments pris parmi "n" est alors
à !
p n! n n!
Cn = ou = .
p!(n − p)! p p!(n − p)!
Résultat
Résultat
4.3.1 Propriétés
1. C n0 = C nn = 1
p n−p
2. C n = C n (complémentaire)
p p p−1
3. Cn = C n−1 +C n−1 (triangle de Pascal)
p
p An
4. Cn =
p!
n
p
(a + b)n = C n .a p .b n−p .
X
p=0
2
Généralités sur le calcul des
probabilités
Exemple 1.1.1.
• Lancer de dé, tirage de boule dans une urne, lancer de pièce, tirage de carte, etc.
• Étudions un autre exemple moins classique. Considérons l’expérience aléatoire
qui consiste à se rendre à l’université. Le résultat de l’expérience est le temps de
trajet. D’un trajet à l’autre, ce temps n’est pas constant, il dépend des conditions
de circulation. Là encore il n’est pas possible de prévoir précisément le résultat de
l’expérience, tout au plus un ensemble de résultats possibles compris par exemple
entre 5 et 30 minutes.
6
CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL DES
1. VOCABULAIRE
PROBABILITÉSDES PROBABILITÉS
Exemple 1.1.2.
• On lance un dé à six faces et on s’intéresse au résultat obtenu. Il y a 6 issues pos-
sibles. L’univers (fini) associé est Ω = {1, 2, 3, 4, 5, 6}.
• Pour l’exemple du temps de trajet présenté ci-dessus, on a Ω = [5; 30] (univers in-
fini non dénombrable).
• L’univers Ω = {ω1 , ω2 , ..., ωn , ...} = {ωi , i ∈ N} est un univers infini dénombrable
puisque l’on peut identifier chacun des éléments de Ω, même s’il en existe une
infinité.
Résultat
1.2 Événement
Définition 1.2.1. Un événement (ou une partie) A est un sous-ensemble de l’univers des
possibles Ω, tel que A ⊂ Ω. Un événement constitué d’un seul élément, i.e. pour lequel
card(A) = 1, est un événement élémentaire (ou singleton).
Exemple 1.2.1. On lance un dé équilibré à six faces. L’univers est Ω = {1, 2, 3, 4, 5, 6}.
• Les événements élémentaires ou éventualités sont {1}, {2}, {3}, {4}, {5} et {6}.
• L’événement A : « obtenir un nombre pair » est {2, 4, 6}.
2 Probabilité
Dans toute la suite, on considère comme univers Ω un ensemble fini ou infini dé-
nombrable.
2.1 Définitions
Définition 2.1.1. Une probabilité P est une application qui, à tout événement, associe
un nombre réel compris entre 0 et 1 vérifiant la propriété suivante :
La probabilité de l’événement certain est 1 (P(Ω) = 1).
2. P(Ω) = 1.
3. P(;) = 0.
2. Soit (A n )n∈N une suite d’événements deux à deux incompatibles tels que
n
A n = Ω. Alors pour tout événement B, on a la formule des probabilités totales
[
i =1
n
P(B ) = P(A i ∩ B ).
X
i =1
2.4 Équiprobabilité
Définition 2.4.1. Si les événements élémentaires ont tous la même probabilité, alors on
dit qu’ils sont équiprobables.
Définition 2.5.1. On considère une expérience aléatoire répétée k fois dans des condi-
tions strictement identiques. La fréquence d’apparition de l’événement A est définie par
nombre de fois où A se réalise
F k (A) = .
k
2.5.1 Propriété
Lorsqu’il est possible de réaliser l’expérience aléatoire une infinité de fois dans les
mêmes conditions, la fréquence d’apparition de tout événement A converge vers sa
probabilité
lim F k (A) = P(A).
k→+∞
N.B. Le problème de cette propriété est que l’on ne peut que rarement répéter une
expérience aléatoire une infinité de fois dans les mêmes conditions.
3 Probabilités conditionnelles
3.1 Définitions
Définition 3.1.1. Soient A et B deux événements telle que P(B ) 6= 0.
On appelle probabilité conditionnelle de A sachant B (ou de A relativement à B ), la
probabilité que l’événement A se réalise sachant que B est réalisé. Cette probabilité est
notée PB (A) ou P(A/B ) et vaut :
P(A ∩ B )
PB (A) = .
P(B )
Définition 3.1.2 (Probabilité d’une intersection).
Soient A et B deux événements de probabilités non nulles. Alors, on a
Application 3.1.1. On considère un patient qui peut suivre au choix deux traitements,
notés A et B . La probabilité qu’il suive le traitement A est égale à 75%. On sait par ailleurs
que la probabilité que le patient guérisse sachant qu’il a suivi le traitement A est égale à
80%, tandis que celle du traitement B est égale à 90%. On admet que la probabilité que
ce patient soit guéri, événement noté G, est égale à 82, 5%.
1. Traduire les données de l’énoncé sous forme de probabilités.
2. Déterminer la probabilité que le patient ait suivi le traitement A sachant qu’il est
guéri.
Résultat
3.2 Indépendance
Définition 3.2.1. On dit que deux événements A et B sont indépendants si
P(A ∩ B ) = P(A) × P(B ).
Application 3.2.1. On tire au hasard une carte d’un jeu de 32 cartes. On considère les
événements suivants
A : « Tirer un as »,
B : « Tirer un cœur »
C : « Tirer un as rouge ».
Étudier l’indépendance de A et B puis celle de B et C .
Résultat
N.B. Si des événements sont mutuellement indépendants, alors ils sont indépendants
deux à deux. La réciproque est fausse.
Résultat
3.3.1 Propriété
P(A) × P A (B )
PB (A) = .
P(B )
Si A 1 , ..., A n sont des d’événements deux à deux incompatibles, de probabilités non nulles,
n
A i = Ω alors la formule de Bayes (aussi appelé formule de probabilité des
[
tels que
i =1
causes) s’écrit : Pour tout i = 1, ..., n
P(A i ) × P A i (B ) P(A i ) × P A i (B )
PB (A i ) = = .
P(B ) n
P(A j ) × P A j (B )
X
j =1
Résultat
3
Variables aléatoires discrètes
1 Variable aléatoire
1.1 Définition
Définition 1.1.1. On appelle variable aléatoire (v.a.) une fonction qui associe à chaque
élément de Ω, c’est-à-dire à chaque issue de l’expérience, un réel. Elle est souvent notée
X.
X :Ω → R
ω 7→ X (ω).
L’ensemble des valeurs que peut prendre une variable aléatoire X est appelé le support
(ou réalisation) de X et est noté X (Ω).
X (1) = −2, X (2) = 4, X (3) = −6, X (4) = 8, X (5) = −10 X (6) = 12.
Exemple 1.1.2.
• Le nombre d’appels arrivés à un standard téléphonique pendant 1 minute.
• La durée de vie d’une composante électronique.
13
2. VARIABLE ALÉATOIRE DISCRÈTE
CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES
Remarque 1.1.1.
• Si X (Ω) est fini ou infini dénombrable, X est dite variable aléatoire discrète (v.a.d.).
• X est dite variable aléatoire continue (v.a.c.) si X (Ω) est une réunion d’intervalles
de R.
La loi de probabilité d’une variable aléatoire discrète est souvent présentée sous forme
d’un tableau.
Remarque 2.1.1. Déterminer la loi d’une variable aléatoire X définie sur l’univers Ω
muni de la probabilité P signifie :
• déterminer l’ensemble X (Ω) des valeurs prises par X ;
• déterminer, pour chacune des valeurs x i dans X (Ω) la probabilité P(X = x i ).
N.B. On peut déterminer la loi d’une variable aléatoire à partir de sa fonction de répar-
tition.
P(X = x i ) = F X (x i ) − F X (x i −1 ).
2.3 Espérance
Définition 2.3.1. On appelle espérance (ou moment ordinaire d’ordre 1) d’une variable
aléatoire discrète X , et on note E(X ), le réel
E(X ) = x i P(X = x i ).
X
x i ∈ X (Ω)
Application 2.3.1.
1. Calculer l’espérance de la v.a.d. X , résultat d’un dé truqué à 6 faces, donné par la
tableau ci-dessous :
xi 1 2 3 4 5 6
1 1 1 1 1 1
P(X = x i )
6 12 12 3 12 4
2. Déterminer la fonction de répartition de la v.a.d. X .
Résultat
E(g (X )) = g (x i ) P(X = x i ).
X
x i ∈ X (Ω)
X2
Application 2.3.2. Calculer l’espérance de la v.a.d. W = , où la loi de probabilité de
2
X est donnée par le tableau ci-dessus. En déduire l’espérance de la v.a.d. K = W + X
Résultat
2.4 Variance
Définition 2.4.1. On appelle variance (ou moment centré d’ordre 2) d’une variable aléa-
toire discrète X , et on note V(X ), le réel positif
Il s’agit d’un indicateur mesurant la dispersion des valeurs x i autour de l’espérance E(X ).
Remarque 2.4.1.
• Soit X une variable aléatoire et soient a et b deux nombres réels. Alors on a
σ(a X + b) = |a|σ(X ).
X − E (X )
• La variable aléatoire Y = est centrée réduite car E(Y ) = 0 et V(Y ) = 1.
σ(X )
Proposition 3.1.1. Soit X une variable aléatoire discrète de loi de Bernoulli de paramètre
p ∈]0, 1[. Alors
Définition 3.2.1. Une variable aléatoire discrète X suit une loi binomiale de paramètres
(n, p), et on note X ∼ B(n, p), si sa loi de probabilité est définie par
Proposition 3.2.1. Soit X une variable aléatoire discrète de loi binomiale de paramètre
(n, p). Alors
1. Quelle est la loi de X ?justifier. Calculer P(X = 0), P(X = 1) et P(X ≥ 4).
Résultat
Définition 3.3.1. Une variable aléatoire discrète X suit une loi de Poisson de paramètre
λ > 0, et on note X ∼ P (λ) lorsque sa probabilité vérifie
λk
P(X = k) = e −λ , ∀ k ∈ N.
k!
• k est le nombre de fois de réalisation de l’événement en question.
• λ est le nombre de réalisation par unité de temps ou d’espace.
Proposition 3.3.1. Soit X une variable aléatoire suivant une loi de Poisson de paramètre
λ > 0, alors
Application 3.3.1. Une compagnie d’assurances reçoit, en moyenne 4.5 réclamations par
jour. Déterminer la probabilité que, durant une certaine journée, le nombre de réclama-
tions reçues soit supérieur ou égal à 2.
Résultat
3.4.1 Propriété
1. P(X = 0).
Résultat
4
Variables aléatoires continues
1 Généralités
Dans ce chapitre, on considère que le support (réalisation) X (Ω) de la variable aléa-
toire X est non dénombrable. On dit alors que la variable aléatoire est continue. C’est
le cas notamment de toutes les variables aléatoires réelles pour lesquelles X (Ω) = R ou
X (Ω) correspond à une partie de l’ensemble des réels R, par exemple X (Ω) =] − ∞, a]
ou X (Ω) = [a, b] avec (a, b) ∈ R2 .
1.1 Définition
Définition 1.1.1. Une variable aléatoire est dite continue (ou à densité) si l’ensemble
X (Ω) est un intervalle (ou une réunion d’intervalles) de R. Autrement dit, la probabilité
d’apparition de (X = x i ) est nulle, i.e., P(X = x i ) = 0.
20
CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES 1. GÉNÉRALITÉS
Résultat
Résultat
Remarque 1.3.1. Une variable aléatoire possède une fonction de densité si sa fonction de
répartition F X est dérivable. Si on connaît la fonction de répartition F X d’une variable
aléatoire continue X , on obtient la fonction de densité de X en dérivant F X
f (x) = F X0 (x)
Résultat
• La variance de X est
Z +∞
V(X ) = E((X − E(X ))2 ) = (x − E(X ))2 f (x) d x.
−∞
1.6.1 Quantile
Remarque 1.6.1.
• Les quartiles : les quartiles, notés Q i (respectivement i = 1; 2; 3) correspondent aux
quantiles d’ordre (α = 0.25; 0.5; 0.75). Notons Q 2 est égal à la médiane (quantile
d’ordre α = 0.5).
k
• Les déciles : Le k-ième décile (k = 1 à 9) est le quantile d’ordre α = 10 . En particu-
lier, le 5-ième décile correspond à la médiane.
1.6.2 Mode
2 Loi exponentielle
Elle permet de modéliser le temps d’attente ou la durée de vie d’un phénomène
aléatoire.
Application 2.0.1. On suppose que le temps, en heures, nécessaire pour réparer une ma-
chine est une variable aléatoire suivant une loi exponentielle de paramètre λ = 0.5.
1. Déterminer le quantile d’ordre α = 5%.
2. Calculer la probabilité pour que le temps de réparation dépasse 2h.
3. Sachant que la réparation a déjà dépassé 9 heures, quelle est la probabilité qu’elle
prenne au moins 10 heures ?
Résultat
3 Loi normale
La loi normale ou loi de Laplace-Gauss est une des lois de probabilités la plus uti-
lisée. Elle dépend de deux paramètres, la moyenne (espérance) µ qui est un paramètre
de position, et l’écart-type σ qui est un paramètre mesurant la dispersion de la variable
aléatoire autour de sa moyenne.
1 − 1 (x−µ)2
f (x) = p e 2σ2 ∀x ∈R
σ 2π
2. Si Y ∼ N (µ̃, σ̃) est une autre variable continue indépendante de X alors la variable
p
aléatoire W = X + Y suit la loi normale de paramètre µ + µ̃ et σ2 + σ̃2 . On note
p
W = X + Y ∼ N (µ + µ̃, σ2 + σ̃2 ).
1 x2
f (x) = p e − 2 ∀ x ∈ R.
2π
On note X ∼ N (0, 1).
X −µ
Z= suit une loi normale centrée réduite N (0, 1).
σ
N.B : On a
a −µ b −µ b −µ ³a −µ´
µ ¶ µ ¶
P(a ≤ X ≤ b) = P ≤Z ≤ = FZ − FZ .
σ σ σ σ
Application 3.3.1. Considérons X une variable aléatoire qui suit une loi N (6, 2).
Résultat
B(n, p) ∼ N (µ = np, σ =
p
np(1 − p)).
Application 3.4.1. On lance 300 fois une pièce de monnaie truquée. La probabilité d’ob-
tenir « face » est 23 . On désigne par X la variable aléatoire qui à chaque partie associe le
nombre de « face » obtenus.
1. Quelle loi suit la v.a.c. X ? Justifier votre réponse.
2. Par quelle loi peut-on l’approximée ? Justifier.
3. Calculer la probabilité P(X > 210).
Résultat
Proposition 3.4.2. Si λ ≥ 15, alors la loi de Poisson P (λ) peut être approximée par la loi
p
normale de paramètre (µ = λ, σ = λ). On note
p
P (λ) ∼ N (µ = λ, σ = λ).
Application 3.4.2. Une usine fabrique 400 lampes électriques a l’heure. On admet que le
nombre X de lampes défectueuses produites en une heure suit une loi de Poisson de para-
mètre λ = 15. Justifier clairement par quelle loi on peut approximée cette loi de Poisson ?
Calculer P(X > 15).
Résultat
5
Introduction à l’estimation
1 Généralités
1.1 Définition
1.2 Estimateur
Tn = f (X 1 , X 2 , ..., X i , ..., X n ).
27
2. ESTIMATION PONCTUELLE CHAPITRE 5. INTRODUCTION À L’ESTIMATION
Remarque 1.2.1.
• L’estimateur du paramètre θ est une variable aléatoire θ̂ dont la distribution de
probabilité s’appelle la distribution d’échantillonnage du paramètre θ.
• L’estimateur θ̂ admet donc une espérance E(θ̂) et une variance V(θ̂).
Définition 1.2.3.
• Un estimateur sera sans biais si son espérance est égale à la valeur du paramètre
de la population :
E(Tn ) = θ
Remarque 1.2.2. Un bon estimateur est caractérisé par ses qualités : d’absence de biais,
de convergence, d’efficacité et de faible dispersion.
2 Estimation ponctuelle
L’estimation d’un paramètre quelconque θ est ponctuelle si l’on associe une seule
valeur à l’estimateur θ̂ à partir des données observables sur un échantillon aléatoire.
Soit X une variable aléatoire continue suivant une loi normale N (µ, σ) dont la va-
leur des paramètres n’est pas connue et pour laquelle on souhaite estimer l’espérance
µ.
La moyenne empirique constitue le meilleur estimateur de µ, espérance de la loi de
probabilité de la variable aléatoire X .
1X n
µ̂ = X = Xi .
n i =1
Soit X une variable aléatoire continue suivant une loi normale N (µ, σ) pour la-
quelle on souhaite estimer la variance σ2 .
La variance corrigée constitue la meilleur estimateur de σ2 , variance de la loi de proba-
bilité de la variable aléatoire X lorsque µ est inconnue :
n 2 1 X n
2
σ̂ = s = (X i − X )2 .
n −1 n − 1 i =1
Soit une population dont les individus possèdent un caractère A avec une probabi-
lité p. On cherche à déterminer cette probabilité inconnue en prélevant un échantillon
de taille n dans cette population. On constate que k parmi les n individus possède le
caractère A.
L’estimation ponctuelle p̂ de la proportion p est donc :
k
p̂ = f = .
n
Remarque 2.3.1. Les estimations ponctuelles n’apportent pas d’information sur la pré-
cision des résultats, c’est-à-dire qu’elle ne tiennent pas compte des erreurs dues aux fluc-
tuations d’échantillonnage. Pour évaluer la confiance que l’on peut avoir en une valeur,
il est nécessaire de déterminer un intervalle contenant, avec une certaine probabilité fixée
au préalable, la vraie valeur du paramètre : c’est l’estimation par intervalle de confiance.
P(θ̂1 ≤ θ ≤ θ̂2 ) = 1 − α.
donc s s
p̂(1 − p̂) p̂(1 − p̂)
P p̂ − Z1− α ≤ p ≤ p̂ + Z1− α = 1 − α.
2 n 2 n