Académique Documents
Professionnel Documents
Culture Documents
Ce document n’est pas un cours à proprement parler. Son objectif est de récapituler l’essentiel et d’expliquer un
certain nombre de notions.
1 Probabilités conditionnelles
1.1 Rappels sur les probabilités
1.1.1 Expérience aléatoire et événements
* Une expérience aléatoire est une expérience dans laquelle toutes les issues possibles sont connues,
mais imprévisibles pour une future tentative.
ex : lancer d'un dé, futur podium avant la course, …
* Une issue est l'un des résultats possibles d'une expérience aléatoire.
Les issues, ou éventualités, sont notées ei « éventualité n°i ».
expérience : lancer un dé ; issues : 1, 2, 3, 4, 5, et 6
* L'univers des possibles est l'ensemble Ω des issues d'une expérience.
On note souvent n le nombre total d'issues. Card(Ω) = n et Ω = {e1 ; e2 ; … ; ei ; … ; en}.
expérience : lancer un dé ; univers : Ω = {1 ; 2 ; 3 ; 4 ; 5 ; 6} ; Card(Ω) = 6
* La réalité est l'issue réalisée une fois l'expérience effectuée.
* On appelle événement tout sous-ensemble A de Ω.
Il peut être défini suivant un ou plusieurs critères.
ex du lancer d'un dé : A : "obtenir un nombre pair" ; A = {2 ; 4 ; 6}
B : "obtenir au moins 3" ; B = {3 ; 4 ; 5 ; 6}
C : "obtenir au plus 2" ; C = {1 ; 2}
* Dire qu'un événement est réalisé, c'est dire que la réalité appartient à cet événement.
ex du lancer d'un dé : soit 4 la réalité. A est-il réalisé ? oui
B est-il réalisé ? oui
C est-il réalisé ? non
* un événement est dit élémentaire lorsqu'il ne contient qu'une seule éventualité.
* l'événement Ω est dit certain, car il sera toujours réalisé.
* l'événement ∅ est dit impossible car il ne sera jamais réalisé.
* deux événements sont dits incompatibles lorsqu'ils ne peuvent être réalisés en même temps.
Autrement dit : ils n'ont pas d'éventualité commune : A ∩ B = ∅ .
Si deux événements sont contraires, alors ils sont incompatibles.
Si deux événements sont incompatibles, ils ne sont pas forcément contraires.
ex du lancer d'un dé : A et C sont-ils incompatibles ? non, issue 2 en commun
Trouver un nouvel événement, incompatible avec C. D = {5 ; 6}
1
MATHS Term PROBABILITES COURS
( )
Card ( A ∩ B ) + Card A ∩ B = Card ( A )
Card ( A ∪ B ) = Card ( A ) + Card (B ) − Card ( A ∩ B )
compréhension :
La probabilité d'un événement A est la mesure de la chance qu'il a de se réaliser lorsqu'une expérience
est menée. Notée p(A), c'est un nombre réel compris entre 0 et 1 inclus, représentant la potentialité de
l'événement suivant les critères ci-dessous :
p(A) > p(B) signifie que A est plus probable que B.
p(A) = p(B) signifie que A et B sont équiprobables.
p(A) = 0 signifie que A est impossible.
p(A) = 1 signifie que A est certain.
3 4 2
lancer d'un dé (A, B, C définis en page 14) : p ( A ) = ; p (B ) = ; p (C ) =
6 6 6
p ( A ) + p ( A ) = + = 1 ; p (B ) + p ( B ) = + = 1
3 3 4 2
6 6 6 6
p ( A ∩ B) + p (A ∩ B ) = + = = p ( A) ; p ( A ∩ C) + p( A ∩ C ) = + = = p ( A)
2 1 3 1 2 3
6 6 6 6 6 6
5 3 4 2 5
p ( A ∪ B ) = et p ( A ) + p (B ) − p ( A ∩ B ) = + − =
6 6 6 6 6
2
MATHS Term PROBABILITES COURS
3
MATHS Term PROBABILITES COURS
ATTENTION : cette formule encadrée est donc fausse dans le cas général !
Exemple : supposons qu’on souhaite piocher au hasard une carte dans un jeu de 32. Notons A
l’événement « C’est un pique » et B l’événement « C’est un as ».
Comme il y a la même proportion d’as chez les pique et chez les autres cartes, A et B sont forcément
indépendants. Voyons cela avec un arbre :
4
MATHS Term PROBABILITES COURS
A-t-on pA (B ) = p (B ) = pA (B ) ?
La probabilité de B est-elle indépendante du fait
que A se réalise ?
1 3 1
pA ( B ) = ; pA ( B ) = = ;
8 24 8
p (B ) = p ( A ∩ B ) + p ( A ∩ B ) = +
1 3 4 1
= =
32 32 32 8
En effet, c’est confirmé.
Vérification de l’indépendance par sa définition : p ( A ∩ B ) = p ( A ) × p (B ) ?
8 1 1
p ( A ) × p (B ) = × = = p ( A ∩ B) !
32 8 32
Deux événements indépendants sont caractérisés au deuxième niveau d’un arbre par des groupes de
branches possédant les mêmes probabilités.
5
MATHS Term PROBABILITES COURS
2 Lois de probabilités
2.1 Rappels sur les notions générales, cas discret
2.1.1 Variable aléatoire discrète
Comme précédemment, une expérience aléatoire mène à un univers Ω = {e1, e2, …, ei, …, em}.
Ici, Ω est partitionné en un nombre m d'événements Ai, de probabilités pi.
Définition : Une variable aléatoire discrète X est une fonction qui, à chaque événement Ai, associe
un nombre réel xi (appelé communément "gain").
Exemple : un jeu consiste à piocher simultanément trois cartes d’un jeu de 32. L’univers des possibles Ω
32 × 31 × 30
est l’ensemble des combinaisons de trois cartes. Il contient C323
= = 4960 combinaisons.
3×2×1
* Quatre événements « Ak » formant une partition de Ω peuvent être définis, pour k entier de 0 à 3 :
Ak = « obtenir k piques ». Leurs probabilités sont (dans le détail, pour faire un petit rappel sur les
combinaisons) :
24 × 23 × 22
1×
C80 × C24
3
3 × 2 × 1 = 24 × 23 × 22 = 6 × 23 × 22 = 23 × 22 = 23 × 11 = 759 = 253 ,
p ( A0 ) = =
3
C32 32 × 31 × 30 32 × 31 × 30 8 × 31 × 30 8 × 31 × 5 4 × 31 × 5 620 620
3× 2×1
24 × 23
C81 × C24 8×
2 × 1 = 3 × 8 × 24 × 23 = 3 × 8 × 4 × 6 × 23 = 3 × 23 = 276 ,
2
p ( A1 ) = =
3
C32 32 × 31 × 30 32 × 31 × 30 32 × 31 × 30 31 × 5 620
3× 2×1
8×7
C82 × C24 × 24
1
2 ×1 24 × 7 × 4 × 6 3 × 7 21 84
p ( A2 ) = = = = = = ,
3
C32 32 × 31 × 30 32 × 31 × 30 31 × 5 155 620
3×2×1
8×7×6
×1
C83 × C24
0
× × 8×7×6 7 7
p ( A3 ) = = 3 2 1 = = = ,
3
C32 32 × 31 × 30 32 × 31 × 30 4 × 31 × 5 620
3× 2×1
(on vérifiera que la somme de ces quatre probabilités vaut bien 1)
La liste des gains attribués aux événements s’appelle variable aléatoire, notée X.
Cette variable est dite « discrète » dans la mesure où les valeurs qu’elle peut prendre sont ponctuelles
et distinctes les unes des autres
Le tableau montrant la distribution de ces gains en probabilité s’appelle loi de probabilité de X :
Gain (X), en € xk –1 0 2 10
probabilité pk ou p(X = xk) 253/620 276/620 84/620 7/620
6
MATHS Term PROBABILITES COURS
m
Définition : l'espérance mathématique de X est le nombre E ( X ) = ∑ pi xi
i =1
Il s'agit de la moyenne des valeurs de X, prévisible, que l'on peut espérer à long terme.
n
Cette formule est à rapprocher de celle de la moyenne en statistiques : x = ∑ fi xi .
i =1
L'espérance mathématique est un opérateur linéaire : E(a.X) = a.E(X) et E(X + Y) = E(X) + E(Y).
En particulier, si tous les gains sont augmentés d'une valeur g, alors l'espérance aussi :
E(X + g) = E(X) + g
variance de X : V ( X ) = ∑ pi xi − (E ( X ) ) = E ( X ) − E ( X )
m
écart type : σ ( X ) = V ( X )
2 2 2 2
i =1
m
1 −15
E ( X ) = ∑ pi xi = ( −253 + 0 + 168 + 70 ) = : l’espérance est la moyenne vers laquelle tend le gain
i =1 620 620
moyen réel par partie lorsque le nombre d’essais tend vers l’infini. Autrement dit : plus on joue à ce jeu,
plus notre gain moyen oscille autour de cette valeur négative : au bout de 620 parties, on aura perdu
autour de 15 € (reste à savoir étudier ce « autour de »…) et en 62000 parties, autour de 1500 €.
(bien sûr, personne ne jouera 62000 fois, mais imaginons que ce jeu soit en ligne : le propriétaire du site
web empoche en moyenne 1500 € toutes les 62000 parties).
La variance aussi se calcule (et c’est elle qui jouera un rôle dans le « autour de », à voir dans la troisième
partie du chapitre) :
−15
2
7
MATHS Term PROBABILITES COURS
Soit X la variable aléatoire qui donne le nombre k de succès à l'issue des n essais.
Alors la loi de probabilité de X est binomiale de paramètres n et p.
On la note : B (n ; p).
Les nombres de succès, valeurs de X, sont mis en relation avec les probabilités des intersections
d'événements, à droite de l'arbre. La probabilité que X = 1, par exemple, est donc le cumul des
probabilités d'intersections correspondantes, qui valent toutes pq². Ainsi : p(X = 1) = 3pq². Pourquoi 3
chemins dans l'arbre mènent-ils à X = 1 ? Parce qu'il y a trois façons de combiner un succès parmi trois
essais.
En généralisant, la probabilité d'avoir obtenu k succès est donc : p ( X = k ) = C n p q
k k n−k
8
MATHS Term PROBABILITES COURS
9
MATHS Term PROBABILITES COURS
où une probabilité correspond à une surface comprise entre la courbe et l'axe (Ox).
3, 7
Par exemple, la probabilité que X soit inférieure à 3,7 est ∫ f ( x ).dx (voir figure).
−∞
La fonction de répartition de X est la fonction F qui, à une valeur x, associe le nombre F(x) = p(X < x).
y = f (x) y = f (x)
F (3,85)
F (3,7)
y = F (x)
F (3,85)
F (3,7)
Remarque : la courbe d'une fonction densité de probabilité ne possède pas forcément d'axe de
symétrie, contrairement à ce que les représentations graphiques ci-dessus pourraient laisser penser ;
ces dernières sont celles d'une densité selon la loi normale, qui présente en fait une symétrie.
( )
de laquelle on retrouve d'ailleurs la propriété déjà connue : V ( X ) = E X 2 − E ( X ) .
2
Deux formules peuvent être retenues (données ici avec des illustrations graphiques) :
a b a
p(a < X < b) = p(X < b) - p(X < a) p(X > a) = 1 - p(X < a)
10
MATHS Term PROBABILITES COURS
2) Loi exponentielle
Soit X une variable « durée
d’attente dans une file », réelle
positive, décrite par la densité
f ( x ) = λ e− λ x
où λ est un paramètre
strictement positif. Sa
représentation graphique prend la
forme ci-dessous (ici avec λ = 0,2
pour l’exemple).
1
On a les résultats suivants pour toute loi exponentielle : p ( X < x ) = 1 − e− λ x E( X ) =
λ
Une particularité de cette loi : pour tous x et h positifs, p X > x ( X > x + h ) = p ( X > h )
Cela signifie que la probabilité que la variable atteigne au moins la « durée » x + h sachant qu’elle a déjà
atteint la valeur x est égale à la probabilité d’atteindre au moins la valeur h.
Cette propriété montre l’indépendance entre le vieillissement et la durée de vie.
Montrons-la :
pX >x ( X > x + h) =
p ( ( X > x + h ) ∩ ( X > x ))
=
p( X > x + h)
=
1− 1−e( −λ ( x + h)
)=e −λ ( x +h)
= e− λ h = p ( X > h )
p( X > x) p( X > x) 1 − (1 − e− λ x ) e− λ x
Avec notre exemple : sachant qu’on a déjà attendu 5 minutes, quelle est la probabilité qu’on attende 10
minutes de plus ?
p X > 5 ( X > 5 + 10 ) = p ( X > 10 ) = e−2 ≈ 0,1353
11
MATHS Term PROBABILITES COURS
σ 2π
Un exemple : densité de probabilité de la loi N (25 , 10) :
σ σ
µ
15 25 35
Remarque 1 : les courbes de ces fonctions sont des "courbes en cloche" (dites "courbes de Gauss").
Remarque 2 : Une telle courbe possède deux points d'inflexion, aux abscisses µ - σ et µ + σ.
On peut donc se représenter l'écart type graphiquement.
p(µ - σ < X < µ + σ) = 68,3 % environ p(µ - 1,96σ < X < µ + 1,96σ) = 95 % environ
p(µ - 2σ < X < µ + 2σ) = 95,4 % environ p(µ - 2,58σ < X < µ + 2,58σ) = 99 % environ
Remarque 4 : il n'existe pas de définition du terme "normal" pour un individu. Seule une population
peut présenter une distribution normale, nommée ainsi car on s'est aperçu qu'elle reflétait
un grand nombre de cas concrets.
12
MATHS Term PROBABILITES COURS
-a a
p(U < -a) = p(U > a)
x−µ
Ainsi : p ( X < x ) = p U <
σ
13
MATHS Term PROBABILITES COURS
Exemples :
* La variable aléatoire X est distribuée par N (3 , σ). Déterminer son écart type sachant que p(X < 2) = 0,4.
2−3 −1
On traduira le problème dans la loi normale centrée réduite : p ( X < 2 ) = p U < = p U < .
σ σ
L’option FracNormale sur TI ou InvN (Inverse Normale) sur Casio nous permet de retrouver une valeur
d’une variable à partir de la probabilité d’être inférieur à cette valeur.
−1 −1
Ici, p U < ⇔ ≈ −0,253 . Finalement, on en déduit σ ≈ 3,95 .
σ σ
* La variable aléatoire X est distribuée par N (µ , 10). Déterminer sa moyenne sachant que p(X < 30) = 0,7.
30 − µ
On traduira le problème dans la loi normale centrée réduite : p ( X < 30 ) = p U < .
10
L’option FracNormale sur TI ou InvN (Inverse Normale) sur Casio nous permet de retrouver une valeur
d’une variable à partir de la probabilité d’être inférieur à cette valeur.
30 − µ 30 − µ
Ici, p U < = 0,7 ⇔ ≈ 0,524 . Finalement, on en déduit µ ≈ 24,8 .
10 10
Le fait de changer de loi s’avère indispensable lorsque n devient grand, car les formules de la loi
binomiale deviennent incalculables en pratique, même pour des ordinateurs puissants ! Passer à une loi
normale résout ce problème.
Le théorème de Moivre-Laplace établit que les deux lois donnent des résultats strictement identiques
lorsque n tend vers l’infini. En ce qui nous concerne, nous considérerons la loi normale comme
suffisamment fiable pour remplacer une loi binomiale si les conditions ci-dessous sont respectées :
14
MATHS Term PROBABILITES COURS
3 Fluctuation, estimation
3.1 Echantillonnage
3.1.1 Présentation générale
Dans toute cette partie, on se place dans les conditions d’une loi binomiale.
Une expérience a une probabilité de succès p, et on la répète n fois à l’identique. A chaque fois, on
obtient un succès ou un échec, et au bout des n essais, le nombre total de succès est noté X, variable,
aléatoire, inférieur ou égal à n.
La loi binomiale dit que l’espérance de X (c’est-à-dire le nombre moyen de succès attendus) est
E ( X ) = np , et que sa variance est V ( X ) = npq , soit un écart type σ ( X ) = npq = np (1 − p ) .
Exemple : On joue 400 fois à un jeu pour lequel nos chances de gains sont de 30%. Au bout des 400
parties, le nombre de gains attendu est en moyenne E ( X ) = 400 × 30% = 120 avec un écart type
σ ( X ) = 400 × 30% × 70% ≈ 9,165 (on dira pour l’instant que la plupart du temps, 400 parties donnent
entre 111 et 129 succès).
X
De plus, on s’intéressera plutôt, non au nombre de succès obtenus, mais à leur proportion .
n
X np X np (1 − p ) p (1 − p )
Cette dernière a une espérance E = = p et un écart type σ = = .
n n n n n
Avec notre exemple précédent : Au bout des 400 parties, la proportion moyenne de gains attendue est
30% avec un écart type de 0,0229 (on dira pour l’instant que la plupart du temps, 400 parties donnent
entre 27,71% et 32,29% de succès)
Si n > 30, np > 5 et nq > 5, alors on peut utiliser des résultats issus de la loi normale :
p (1 − p ) p (1 − p )
Il y a 68,3% de chances que la fréquence de succès soit dans p − ;p+ ;
n n
p (1 − p ) p (1 − p )
Il y a 95% de chances que la fréquence de succès soit dans p − 1,96 ; p + 1,96 ;
n n
p (1 − p ) p (1 − p )
Il y a 99% de chances que la fréquence de succès soit dans p − 2,58 ; p + 2,58 .
n n
15
MATHS Term PROBABILITES COURS
Reprenons l’exemple de la partie 3.1.1. Quel est l’intervalle de fluctuation de la fréquence de gain au
seuil de 5% ?
On utilisera ici le coefficient 1,96 : [ 0,3 − 1,96 × 0,0229 ; 0,3 + 1,96 × 0,0229 ] = [0,255 ; 0,345] .
Interprétation : il y a 95% de chances qu’en 400 parties, la fréquence de succès soit comprise entre
25,5% et 34,5%.
D’une manière générale, l’intervalle de confiance de p au seuil α (ou au niveau de confiance 1 – α)est :
f (1 − f ) f (1 − f )
Iα = f − uα ; f + uα , où uα est le coefficient de loi normale associé à α.
n n
Formule simplifiée :
la valeur maximale de f (1 − f ) est 0,5 (quel que soit f compris entre 0 et 1) ; d’autre part, un
intervalle de confiance à 95% utilise un coefficient uα = 1,96 ≈ 2 . On peut alors dire qu’un intervalle de p
1 1
à au moins 95% de confiance est f − ;f + .
n n
Par exemple : on se demande quelle est, dans les forêts de conifères, la proportion d’arbres dont le
diamètre dépasse 20 cm. On prend des mesures sur un échantillon de 100 arbres et on en trouve 16
dont le diamètre dépasse 20 cm.
* donner l’intervalle à 95% de confiance de la proportion existant dans le monde.
0,16 (1 − 0,16 ) 0,16 (1 − 0,16 )
Iα = 0,16 − 1,96 ; 0,16 − 1,96 = [ 0,088 ; 0,232] .
100 100
On estime qu’entre 8,8% et 23,2% des conifères correspondent à ce critère.
* on trouve cet intervalle trop imprécis (son amplitude vaut 14,4%). Combien de conifères faudrait-il
mesurer pour obtenir un intervalle de confiance d’amplitude 4% ? (on utilisera la formule simplifiée)
1 1 2
L’amplitude de l’intervalle f − ;f + est .
n n n
2
On veut donc = 4% ⇔ n = 50 ⇔ n = 2500 . Il faudrait mesurer 2500 arbres.
n
16