Vous êtes sur la page 1sur 16

MATHS Term PROBABILITES COURS

Ce document n’est pas un cours à proprement parler. Son objectif est de récapituler l’essentiel et d’expliquer un
certain nombre de notions.

1 Probabilités conditionnelles
1.1 Rappels sur les probabilités
1.1.1 Expérience aléatoire et événements
* Une expérience aléatoire est une expérience dans laquelle toutes les issues possibles sont connues,
mais imprévisibles pour une future tentative.
ex : lancer d'un dé, futur podium avant la course, …
* Une issue est l'un des résultats possibles d'une expérience aléatoire.
Les issues, ou éventualités, sont notées ei « éventualité n°i ».
expérience : lancer un dé ; issues : 1, 2, 3, 4, 5, et 6
* L'univers des possibles est l'ensemble Ω des issues d'une expérience.
On note souvent n le nombre total d'issues. Card(Ω) = n et Ω = {e1 ; e2 ; … ; ei ; … ; en}.
expérience : lancer un dé ; univers : Ω = {1 ; 2 ; 3 ; 4 ; 5 ; 6} ; Card(Ω) = 6
* La réalité est l'issue réalisée une fois l'expérience effectuée.
* On appelle événement tout sous-ensemble A de Ω.
Il peut être défini suivant un ou plusieurs critères.
ex du lancer d'un dé : A : "obtenir un nombre pair" ; A = {2 ; 4 ; 6}
B : "obtenir au moins 3" ; B = {3 ; 4 ; 5 ; 6}
C : "obtenir au plus 2" ; C = {1 ; 2}
* Dire qu'un événement est réalisé, c'est dire que la réalité appartient à cet événement.
ex du lancer d'un dé : soit 4 la réalité. A est-il réalisé ? oui
B est-il réalisé ? oui
C est-il réalisé ? non
* un événement est dit élémentaire lorsqu'il ne contient qu'une seule éventualité.
* l'événement Ω est dit certain, car il sera toujours réalisé.
* l'événement ∅ est dit impossible car il ne sera jamais réalisé.

Opérations sur les événements


Tout événement que l'on peut définir est un ensemble, inclus dans Ω.
On peut ainsi appliquer aux événements les propriétés sur les ensembles, sur leurs complémentaires,
sur leur intersection ou réunion.
En particulier :
* le contraire de l'événement A est l'événement A , complémentaire de A dans Ω.
ex du lancer d'un dé : contraire de A : A = {1; 3; 5} contraire de B : B = {1; 2}

* l'événement A ∩ B est l'événement "A et B".


ex du lancer d'un dé : A ∩ B = {4; 6}

* l'événement A ∪ B est l'événement "A ou B" .


ex du lancer d'un dé : A ∪ B = {2; 3; 4; 5; 6}

* deux événements sont dits incompatibles lorsqu'ils ne peuvent être réalisés en même temps.
Autrement dit : ils n'ont pas d'éventualité commune : A ∩ B = ∅ .
Si deux événements sont contraires, alors ils sont incompatibles.
Si deux événements sont incompatibles, ils ne sont pas forcément contraires.
ex du lancer d'un dé : A et C sont-ils incompatibles ? non, issue 2 en commun
Trouver un nouvel événement, incompatible avec C. D = {5 ; 6}

1
MATHS Term PROBABILITES COURS

* Quelques formules utiles pour la suite :


( )
Card ( A ) + Card A = Card ( Ω )

( )
Card ( A ∩ B ) + Card A ∩ B = Card ( A )
Card ( A ∪ B ) = Card ( A ) + Card (B ) − Card ( A ∩ B )

1.1.2 Probabilité simple


Une probabilité se définit mathématiquement comme une fonction p qui, à tout événement A associe
un nombre p(A), en respectant deux conditions :
* p(Ω) = 1
* p(A∪B) = p(A) + p(B) pour tous événements A et B incompatibles.
Cette définition est suffisante pour qu'en découlent toutes les propriétés sur un événement.
conséquences directes :
p (∅) = 0 ; 0 ≤ p ( A ) ≤ 1 ( sans oublier p ( Ω ) = 1)
p (A) + p (A) = 1
p (A ∩ B) + p (A ∩ B ) = p ( A )
p ( A ∪ B ) = p ( A ) + p (B ) − p ( A ∩ B )

compréhension :
La probabilité d'un événement A est la mesure de la chance qu'il a de se réaliser lorsqu'une expérience
est menée. Notée p(A), c'est un nombre réel compris entre 0 et 1 inclus, représentant la potentialité de
l'événement suivant les critères ci-dessous :
p(A) > p(B) signifie que A est plus probable que B.
p(A) = p(B) signifie que A et B sont équiprobables.
p(A) = 0 signifie que A est impossible.
p(A) = 1 signifie que A est certain.

Equiprobabilité des issues :


n
La définition ci-dessus implique : ∑ p ({e }) = p ( Ω ) = 1 . Dans le cas où toutes les issues de Ω ont les
i=1
i

mêmes chances d’apparaître, on a alors immédiatement : p ({ei } ) =


1
pour tout i.
n
1 1 1
lancer d’un dé : p(1) = , p(2) = , p(3) = , etc.
6 6 6
Card ( A ) Card ( A )
Ainsi, on peut en déduire le résultat suivant : p ( A ) = =
Card ( Ω ) n

3 4 2
lancer d'un dé (A, B, C définis en page 14) : p ( A ) = ; p (B ) = ; p (C ) =
6 6 6
p ( A ) + p ( A ) = + = 1 ; p (B ) + p ( B ) = + = 1
3 3 4 2
6 6 6 6
p ( A ∩ B) + p (A ∩ B ) = + = = p ( A) ; p ( A ∩ C) + p( A ∩ C ) = + = = p ( A)
2 1 3 1 2 3
6 6 6 6 6 6
5 3 4 2 5
p ( A ∪ B ) = et p ( A ) + p (B ) − p ( A ∩ B ) = + − =
6 6 6 6 6

2
MATHS Term PROBABILITES COURS

1.2 Probabilités conditionnelles


1.2.1 Définition
Soit, dans un univers Ω, un événement A de probabilité non nulle.
p ( A ∩ B)
La probabilité que l'événement B se réalise, sachant que A s'est réalisé, est : pA (B ) =
p(A)
p ( A ∩ B)
remarque : pA ( B ) = implique p ( A ∩ B ) = p ( A ) × p A (B )
p(A)
p ( A ∩ B)
pB ( A ) = implique p ( A ∩ B ) = p (B ) × pB ( A )
p (B )
ainsi p(A∩B) peut se calculer de deux manières, et p ( A ) × pA (B ) = p (B ) × pB ( A ) .

1.2.2 Arbre de choix probabilisé


On pourra représenter les croisements entre A, B et leurs contraires par un arbre :

Le premier niveau contient des probabilités simples ;


le second niveau contient des probabilités conditionnelles ;
à la droite de l’arbre, on peut placer des probabilités d’intersections.
Exemple : supposons qu’on souhaite piocher au hasard une lettre dans l’alphabet. Notons A
l’événement « C’est une voyelle » et B l’événement « La lettre est au-delà de P ».
On peut construire l’arbre de choix suivant :
* Suivons le premier chemin de l’arbre :
Nous avons 6 chances sur 26 de piocher une voyelle,
et si on a pioché une voyelle, nous avons 2 chances sur 6
pour que celle-ci soit au-delà de P. Au bout du compte,
nous avons 2 chances sur 26 de piocher U ou Y.
6/26 × 2/6 = 2/26 reflète la définition des probabilités
conditionnelles : p ( A ∩ B ) = p ( A ) × p A (B ) .

* Maintenant Intéressons-nous à p (B ) : probabilité de piocher une lettre au-delà de P. Cet événement,


B, est atteint en deux chemins distincts de l’arbre, incompatibles entre eux : on peut additionner les
probabilités d’y parvenir, ce que montre l’encadré en haut de la page 2 :
p (B ) = p ( A ∩ B ) + p ( A ∩ B ) = 2/26 + 8/26 = 10/26. (effectivement, il y a dans l’alphabet 10 lettres
au-delà de P : 2 voyelles et 8 consonnes).

3
MATHS Term PROBABILITES COURS

On pouvait aussi construire un arbre de choix dans l’autre sens :


* Suivons le premier chemin de l’arbre :
Nous avons 10 chances sur 26 de piocher une
lettre au-delà de P, et si on a pioché une telle
lettre, nous avons 2 chances sur 10 pour que ce
soit une voyelle. Au bout du compte, nous avons
2 chances sur 26 de piocher U ou Y.
10/26 × 2/10 = 2/26 reflète la définition des
probabilités conditionnelles :
p ( A ∩ B ) = p (B ) × pB ( A ) .

* Maintenant Intéressons-nous à p ( A ) : probabilité de piocher une voyelle. Cet événement, A, est


atteint en deux chemins distincts de l’arbre, incompatibles entre eux : on peut additionner les
probabilités d’y parvenir, ce que montre l’encadré en haut de la page 2 :
p ( A ) = p ( A ∩ B ) + p ( A ∩ B ) = 2/26 + 4/26 = 6/26. (effectivement, il y a dans l’alphabet 6 voyelles : 2
au-delà de P et 4 en-deçà).

On remarquera que dans un arbre :


* la somme des probabilités des branches issues d’un nœud vaut 1 ;
* la somme des probabilités d’intersections, à droite de l’arbre, vaut 1.

La formule p ( A ) = p ( A ∩ B ) + p ( A ∩ B ) se nomme « formule des probabilités totales ».

1.2.3 Formule de Bayes


Les définitions et résultats ci-dessus permettent d’écrire :
p ( A ∩ B) p ( A ) × p A (B )
pB ( A ) = =
p ( A ∩ B) + p ( A ∩ B) p ( A ) × p A (B ) + p ( A ) × p A ( B )

1.2.4 Evénements indépendants


Définition : deux événements A et B sont dits indépendants lorsque p ( A ∩ B ) = p ( A ) × p (B )

Autrement dit, d'après la définition d'une probabilité conditionnelle : pA (B ) = p (B ) = pA (B )


La probabilité que B se réalise est la même, sachant que A est réalisé ou non, ou sans même savoir si A
est réalisé ou va se réaliser.

ATTENTION : cette formule encadrée est donc fausse dans le cas général !

Exemple : supposons qu’on souhaite piocher au hasard une carte dans un jeu de 32. Notons A
l’événement « C’est un pique » et B l’événement « C’est un as ».
Comme il y a la même proportion d’as chez les pique et chez les autres cartes, A et B sont forcément
indépendants. Voyons cela avec un arbre :

4
MATHS Term PROBABILITES COURS

A-t-on pA (B ) = p (B ) = pA (B ) ?
La probabilité de B est-elle indépendante du fait
que A se réalise ?
1 3 1
pA ( B ) = ; pA ( B ) = = ;
8 24 8
p (B ) = p ( A ∩ B ) + p ( A ∩ B ) = +
1 3 4 1
= =
32 32 32 8
En effet, c’est confirmé.
Vérification de l’indépendance par sa définition : p ( A ∩ B ) = p ( A ) × p (B ) ?
8 1 1
p ( A ) × p (B ) = × = = p ( A ∩ B) !
32 8 32

Deux événements indépendants sont caractérisés au deuxième niveau d’un arbre par des groupes de
branches possédant les mêmes probabilités.

5
MATHS Term PROBABILITES COURS

2 Lois de probabilités
2.1 Rappels sur les notions générales, cas discret
2.1.1 Variable aléatoire discrète
Comme précédemment, une expérience aléatoire mène à un univers Ω = {e1, e2, …, ei, …, em}.
Ici, Ω est partitionné en un nombre m d'événements Ai, de probabilités pi.
Définition : Une variable aléatoire discrète X est une fonction qui, à chaque événement Ai, associe
un nombre réel xi (appelé communément "gain").

Exemple : un jeu consiste à piocher simultanément trois cartes d’un jeu de 32. L’univers des possibles Ω
32 × 31 × 30
est l’ensemble des combinaisons de trois cartes. Il contient C323
= = 4960 combinaisons.
3×2×1
* Quatre événements « Ak » formant une partition de Ω peuvent être définis, pour k entier de 0 à 3 :
Ak = « obtenir k piques ». Leurs probabilités sont (dans le détail, pour faire un petit rappel sur les
combinaisons) :
24 × 23 × 22

C80 × C24
3
3 × 2 × 1 = 24 × 23 × 22 = 6 × 23 × 22 = 23 × 22 = 23 × 11 = 759 = 253 ,
p ( A0 ) = =
3
C32 32 × 31 × 30 32 × 31 × 30 8 × 31 × 30 8 × 31 × 5 4 × 31 × 5 620 620
3× 2×1
24 × 23
C81 × C24 8×
2 × 1 = 3 × 8 × 24 × 23 = 3 × 8 × 4 × 6 × 23 = 3 × 23 = 276 ,
2
p ( A1 ) = =
3
C32 32 × 31 × 30 32 × 31 × 30 32 × 31 × 30 31 × 5 620
3× 2×1
8×7
C82 × C24 × 24
1
2 ×1 24 × 7 × 4 × 6 3 × 7 21 84
p ( A2 ) = = = = = = ,
3
C32 32 × 31 × 30 32 × 31 × 30 31 × 5 155 620
3×2×1
8×7×6
×1
C83 × C24
0
× × 8×7×6 7 7
p ( A3 ) = = 3 2 1 = = = ,
3
C32 32 × 31 × 30 32 × 31 × 30 4 × 31 × 5 620
3× 2×1
(on vérifiera que la somme de ces quatre probabilités vaut bien 1)

* A ces quatre événements, on peut associer des gains :


gain ( A 0 ) = −1€ ; gain ( A1 ) = 0€ ; gain ( A 2 ) = 2€ ; gain ( A 3 ) = 10€

La liste des gains attribués aux événements s’appelle variable aléatoire, notée X.
Cette variable est dite « discrète » dans la mesure où les valeurs qu’elle peut prendre sont ponctuelles
et distinctes les unes des autres
Le tableau montrant la distribution de ces gains en probabilité s’appelle loi de probabilité de X :
Gain (X), en € xk –1 0 2 10
probabilité pk ou p(X = xk) 253/620 276/620 84/620 7/620

6
MATHS Term PROBABILITES COURS

2.1.2 Paramètres de tendance centrale et de dispersion


Insistons ici sur la signification d'une probabilité :
Dire qu'un événement A a une probabilité de 0,3 c'est dire qu'il a 30 % de chances de se produire
lorsqu'une expérience va être conduite une fois. "Idéalement", lorsque l'expérience est conduite plusieurs
fois de suite, l'événement A sera réalisé dans 30 % des cas.
On constate et on démontre que plus le nombre de répétitions de l'expérience est important, plus la
fréquence réelle de réalisation de A tend vers sa probabilité théorique. Ceci porte le nom de "loi faible
des grands nombres".
A chaque tentative, la réalité est purement aléatoire, mais à long terme, sur un grand nombre d'essais,
ce pseudo-hasard est guidé par les probabilités.
Nous traiterons de ces aspects dans la partie III (intervalles de fluctuation, estimation).

m
Définition : l'espérance mathématique de X est le nombre E ( X ) = ∑ pi xi
i =1

Il s'agit de la moyenne des valeurs de X, prévisible, que l'on peut espérer à long terme.
n
Cette formule est à rapprocher de celle de la moyenne en statistiques : x = ∑ fi xi .
i =1

L'espérance mathématique est un opérateur linéaire : E(a.X) = a.E(X) et E(X + Y) = E(X) + E(Y).
En particulier, si tous les gains sont augmentés d'une valeur g, alors l'espérance aussi :
E(X + g) = E(X) + g

On retrouve aussi d’autres formules venant des statistiques :

variance de X : V ( X ) = ∑ pi xi − (E ( X ) ) = E ( X ) − E ( X )
m
écart type : σ ( X ) = V ( X )
2 2 2 2

i =1

Reprenons notre exemple :


Gain (X), en € xk –1 0 2 10
probabilité pk ou p(X = xk) 253/620 276/620 84/620 7/620

m
1 −15
E ( X ) = ∑ pi xi = ( −253 + 0 + 168 + 70 ) = : l’espérance est la moyenne vers laquelle tend le gain
i =1 620 620
moyen réel par partie lorsque le nombre d’essais tend vers l’infini. Autrement dit : plus on joue à ce jeu,
plus notre gain moyen oscille autour de cette valeur négative : au bout de 620 parties, on aura perdu
autour de 15 € (reste à savoir étudier ce « autour de »…) et en 62000 parties, autour de 1500 €.
(bien sûr, personne ne jouera 62000 fois, mais imaginons que ce jeu soit en ligne : le propriétaire du site
web empoche en moyenne 1500 € toutes les 62000 parties).

La variance aussi se calcule (et c’est elle qui jouera un rôle dans le « autour de », à voir dans la troisième
partie du chapitre) :
−15
2

V( X ) = E( X 2 ) − E( X ) = ( 253 + 0 + 336 + 700 ) −   ≈ 2,07845


2 1
620  620 

7
MATHS Term PROBABILITES COURS

2.2 Une loi discrète incontournable : la loi binomiale


2.2.1 Définition et mise en œuvre
La loi de probabilité d'une variable aléatoire X est binomiale ssi :
* une expérience est conduite n fois avec répétition possible d'une éventualité, dans le cadre d'une
partition de Ω en un événement (succès) et son contraire (échec).
* X désigne le nombre de succès obtenus au bout de n essais.
a. Schéma de Bernoulli
Considérons une expérience aléatoire représentée par un univers Ω.
L'événement A, appelé succès, a pour probabilité p(A) notée p.
Son contraire, appelé échec, a pour probabilité q = 1 - p.
b. Loi binomiale
On effectue l'expérience décrite précédemment n fois de suite, dans des conditions identiques, c'est à
dire : p est invariable.

Soit X la variable aléatoire qui donne le nombre k de succès à l'issue des n essais.
Alors la loi de probabilité de X est binomiale de paramètres n et p.
On la note : B (n ; p).

2.2.2 Calcul des probabilités


Un arbre ("schéma de Bernoulli à n niveaux") nous permet ici de justifier l'emploi de la formule générale
qui sera donnée en-dessous - dans cet exemple, l'expérience est répétée trois fois : n = 3 ; A est le
succès.

Les nombres de succès, valeurs de X, sont mis en relation avec les probabilités des intersections
d'événements, à droite de l'arbre. La probabilité que X = 1, par exemple, est donc le cumul des
probabilités d'intersections correspondantes, qui valent toutes pq². Ainsi : p(X = 1) = 3pq². Pourquoi 3
chemins dans l'arbre mènent-ils à X = 1 ? Parce qu'il y a trois façons de combiner un succès parmi trois
essais.
En généralisant, la probabilité d'avoir obtenu k succès est donc : p ( X = k ) = C n p q
k k n−k

2.2.3 Moyenne et variance


Dans ce cadre, elles sont obtenues par des formules simples : E ( X ) = np V ( X ) = npq

8
MATHS Term PROBABILITES COURS

2.2.4 Reprenons l’exemple présenté en 2.1.1 :


* Il n’est plus question ici de gains en euros : la variable doit compter des succès – ici des pique.
On s’intéresse au nombre k de pique qu’on peut obtenir au bout de trois cartes piochées.
* parler de loi binomiale implique aussi qu’à chaque tirage la probabilité de succès soit constante. Il
n’est donc plus question de tirage simultané : il faut effectuer trois tirages successifs avec remise.
Dans ces conditions, la probabilité d’obtenir un pique à chaque tirage est constante : 1/4.
Moyennant ces conditions, nous avons :
le succès est « tirer un pique »
n = 3 tirages effectués, avec probabilité de succès p = 1/4 constante
X = variable « nombre de succès au bout de 3 essais » ; X = {0 ; 1 ; 2 ; 3}
Alors X est distribuée par la loi binomiale B (3 ; 0,25),
k 3− k 2 1
1 3 1 3 3 9
p ( X = k ) = C3k     , ex : p ( X = 2 ) = C23     = 3 × =
4 4 4 4 64 64
3 9
E( X ) = , V( X ) =
4 16

2.3 Lois à densité


Dans de nombreux cas, la variable aléatoire étudiée est continue et non discrète.

2.3.1 Comparaison discret/continu


Les différences fondamentales :
Variable discrète Variable continue
Prend un nombre fini de valeurs dans un Prend un nombre infini de valeurs réelles
intervalle borné (ou dénombrables dans un
intervalle non borné) Ex : tailles des arbres, âges des gens, masses des
Ex 2.1.2 : gains en €, valeurs -1, 0, 2, 10 pommes, …
Ex 2.2.4 : nb de pique, valeurs 0, 1, 2, 3
La probabilité d’atteindre une valeur est nulle :
La probabilité d’atteindre une valeur se calcule : - aucun arbre ne mesure 12,53 mètre
9
Voir au-dessus : p ( X = 2) = - personne au monde n’a 32 ans
64 - aucune pomme ne pèse 148 grammes
La distribution des probabilités peut être On ne peut calculer que la probabilité de se
représentée par un diagramme en barres trouver dans un intervalle
On représentera graphiquement la fonction
Exemples de lois discrètes :
« densité de probabilité », dont l’intégrale de a à
- loi uniforme
b représentera la probabilité de se trouver entre
- loi binomiale
a et b.
- loi hypergéométrique
- loi géométrique
Exemples de lois continues :
- loi uniforme
- loi exponentielle
- loi normale
- loi de Student

Les points communs :


Pour les deux types de variables, on calcule une espérance et une variance.

9
MATHS Term PROBABILITES COURS

2.3.2 Caractéristiques d’une loi continue


Plaçons-nous dans le cas idéal où la variable aléatoire X peut prendre une valeur quelconque dans
l'infinité des nombres réels, à partir d'une population de taille ainsi infinie.

Dans ce contexte, la "concentration des fréquences" se nomme "densité de probabilité".


Une densité de probabilité de X est une fonction f positive et continue sur ℝ et telle que ∫ f ( x ).dx = 1

où une probabilité correspond à une surface comprise entre la courbe et l'axe (Ox).
3, 7

Par exemple, la probabilité que X soit inférieure à 3,7 est ∫ f ( x ).dx (voir figure).
−∞
La fonction de répartition de X est la fonction F qui, à une valeur x, associe le nombre F(x) = p(X < x).

y = f (x) y = f (x)

F (3,85)
F (3,7)

F est une fonction croissante de x et il s’agit d’une primitive de f.

y = F (x)
F (3,85)

F (3,7)

Remarque : la courbe d'une fonction densité de probabilité ne possède pas forcément d'axe de
symétrie, contrairement à ce que les représentations graphiques ci-dessus pourraient laisser penser ;
ces dernières sont celles d'une densité selon la loi normale, qui présente en fait une symétrie.

* l'espérance d'une variable aléatoire continue est : E ( X ) = ∫ x × f ( x ) .dx .


* la variance d'une variable aléatoire continue est : V ( X ) = ∫ ( x − E ( X ) ) × f ( x ) .dx , définition à partir


2

( )
de laquelle on retrouve d'ailleurs la propriété déjà connue : V ( X ) = E X 2 − E ( X ) .
2

Deux formules peuvent être retenues (données ici avec des illustrations graphiques) :

a b a
p(a < X < b) = p(X < b) - p(X < a) p(X > a) = 1 - p(X < a)

10
MATHS Term PROBABILITES COURS

2.3.3 Deux exemples de densité de probabilité


1) Soit X la masse des champignons d’une certain espèce, variable cantonnée à l’intervalle [20, 200] (en
grammes), décrite par la densité f ( x ) = 0,000001029 ( x − 20 )( 200 − x ) .
* Vérifions que la probabilité totale est bien égale à 1 :
200
200
 − x3 x2 
∫ f ( x ) .dx = 0,000001029  + 220 − 4000 x  ≈ 0,9604 − ( −0,0398 ) ≈ 1
20  3 2  20
* Calculons la probabilité qu’un champignon pèse entre 100 et 150 g :
150
150
 − x3 x2 
∫ f ( x ) .dx = 0,000001029  + 220 − 4000 x  ≈ 0,77175 − 0,3773 ≈ 0,39445
100  3 2  100
Environ 39% de ces champignons pèsent entre 100 et 150 g.
* Calculons l’espérance de cette variable :
200
200
 − x4 x3 x2 
E ( X ) = ∫ x × f ( x ) .dx = 0,000001029  + 220 − 4000  = 109,76 − ( −0,26 ) ≈ 110
20  4 3 2  20
La masse moyenne de ces champignons est de 110 g environ.

2) Loi exponentielle
Soit X une variable « durée
d’attente dans une file », réelle
positive, décrite par la densité
f ( x ) = λ e− λ x
où λ est un paramètre
strictement positif. Sa
représentation graphique prend la
forme ci-dessous (ici avec λ = 0,2
pour l’exemple).

1
On a les résultats suivants pour toute loi exponentielle : p ( X < x ) = 1 − e− λ x E( X ) =
λ

* Calculons la probabilité d’attendre moins de 10 minutes : p ( X < 10 ) = 1 − e−2 ≈ 0,8647 .


1
* Calculons la durée moyenne d’attente : E ( X ) = = 5 minutes.
0,2

Une particularité de cette loi : pour tous x et h positifs, p X > x ( X > x + h ) = p ( X > h )
Cela signifie que la probabilité que la variable atteigne au moins la « durée » x + h sachant qu’elle a déjà
atteint la valeur x est égale à la probabilité d’atteindre au moins la valeur h.
Cette propriété montre l’indépendance entre le vieillissement et la durée de vie.
Montrons-la :

pX >x ( X > x + h) =
p ( ( X > x + h ) ∩ ( X > x ))
=
p( X > x + h)
=
1− 1−e( −λ ( x + h)
)=e −λ ( x +h)
= e− λ h = p ( X > h )
p( X > x) p( X > x) 1 − (1 − e− λ x ) e− λ x

Avec notre exemple : sachant qu’on a déjà attendu 5 minutes, quelle est la probabilité qu’on attende 10
minutes de plus ?
p X > 5 ( X > 5 + 10 ) = p ( X > 10 ) = e−2 ≈ 0,1353

11
MATHS Term PROBABILITES COURS

2.3.4 La loi normale


a. Définition et propriétés générales
Soit une variable aléatoire X, de moyenne µ et d'écart type σ. (E(X) = µ ; V(X) = σ²)
On dit que sa loi de probabilité est N (µ , σ) lorsque sa densité de probabilité s'exprime par :
2
1  x −µ 
1 − 
f ( x) = e 2 σ 

σ 2π
Un exemple : densité de probabilité de la loi N (25 , 10) :

σ σ

µ
15 25 35

Remarque 1 : les courbes de ces fonctions sont des "courbes en cloche" (dites "courbes de Gauss").

Remarque 2 : Une telle courbe possède deux points d'inflexion, aux abscisses µ - σ et µ + σ.
On peut donc se représenter l'écart type graphiquement.

Remarque 3 : on peut retenir quelques résultats-types :

p(µ - σ < X < µ + σ) = 68,3 % environ p(µ - 1,96σ < X < µ + 1,96σ) = 95 % environ

p(µ - 2σ < X < µ + 2σ) = 95,4 % environ p(µ - 2,58σ < X < µ + 2,58σ) = 99 % environ

Remarque 4 : il n'existe pas de définition du terme "normal" pour un individu. Seule une population
peut présenter une distribution normale, nommée ainsi car on s'est aperçu qu'elle reflétait
un grand nombre de cas concrets.

12
MATHS Term PROBABILITES COURS

b. La loi normale centrée réduite N (0 , 1)


On pourra l'utiliser comme référence
(parfois imposée, parfois nécessaire…).
Pour cette loi particulière, de moyenne 0 et
d'écart type 1, la variable sera notée U et
ses valeurs u.
(on trouvera souvent l’appellation Z au lieu
de U)

La remarque 3 du 2.3.4 ci-dessus donne ici :


p(-1 < U < 1) = 68,3 % environ
p(-1,96 < U < 1,96) = 95 % environ 2
1 − x2
p(-2 < U < 2) = 95,4 % environ f ( x) = e
p(-2,58 < U < 2,58) = 99 % environ 2π
Le fait que cette loi soit centrée sur 0 permet une nouvelle formule :

-a a
p(U < -a) = p(U > a)

c. Relation entre la loi N (0 , 1) et une loi normale N (µ , σ) :


On est parfois dans l'incapacité de résoudre un problème dans une loi normale "non centrée réduite",
notamment lorsqu'un paramètre reste inconnu. Il conviendra alors de se ramener à la loi N (0 , 1).
X −µ
X est distribuée par N (µ , σ) ⇔ U = est distribuée par N (0 , 1).
σ
U est distribuée par N (0 , 1) ⇔ X = µ + U σ est distribuée par N (µ , σ).

 x−µ 
Ainsi : p ( X < x ) = p  U <
 σ 

Quelle que soit la variable employée, la


probabilité cherchée est l'aire d'une
unique zone colorée. Appliquer le
changement de variable donné ci-dessus
ne fait que modifier les valeurs portées
en abscisses, mais ne déforme pas la
courbe ! Par exemple, l'abscisse µ +0,5σ
pour X correspond à l'abscisse 0,5 pour
U (d'après le changement de variable) et
donc p(X < µ + 0,5σ) = p(U < 0,5).

13
MATHS Term PROBABILITES COURS

Exemples :
* La variable aléatoire X est distribuée par N (3 , σ). Déterminer son écart type sachant que p(X < 2) = 0,4.
 2−3  −1 
On traduira le problème dans la loi normale centrée réduite : p ( X < 2 ) = p  U <  = p U < .
 σ   σ 
L’option FracNormale sur TI ou InvN (Inverse Normale) sur Casio nous permet de retrouver une valeur
d’une variable à partir de la probabilité d’être inférieur à cette valeur.
 −1  −1
Ici, p  U < ⇔ ≈ −0,253 . Finalement, on en déduit σ ≈ 3,95 .
 σ  σ

* La variable aléatoire X est distribuée par N (µ , 10). Déterminer sa moyenne sachant que p(X < 30) = 0,7.
 30 − µ 
On traduira le problème dans la loi normale centrée réduite : p ( X < 30 ) = p  U < .
 10 
L’option FracNormale sur TI ou InvN (Inverse Normale) sur Casio nous permet de retrouver une valeur
d’une variable à partir de la probabilité d’être inférieur à cette valeur.
 30 − µ  30 − µ
Ici, p  U <  = 0,7 ⇔ ≈ 0,524 . Finalement, on en déduit µ ≈ 24,8 .
 10  10

d. Approximation d’une loi binomiale par une loi normale


Sous certaines conditions, les probabilités que l’on calcule dans le cadre d’une loi binomiale deviennent
proches de ce qu’on peut obtenir avec une loi normale bien choisie.

Ci-dessous, on montre trois distributions de probabilités, dans un cas binomial où la probabilité de


succès p est 0,1. A gauche, le nombre d’essais n est 10, au centre il est de 50, et à droite de 200.
On s’aperçoit que plus n est grand, plus la distribution des succès possibles tend à être symétrique
autour de son espérance, et peut être « enveloppée » par une courbe en cloche qui est en réalité celle
d’une loi normale.

B (10 ; 0,1) B (50 ; 0,1) B (200 ; 0,1)

Le fait de changer de loi s’avère indispensable lorsque n devient grand, car les formules de la loi
binomiale deviennent incalculables en pratique, même pour des ordinateurs puissants ! Passer à une loi
normale résout ce problème.

Le théorème de Moivre-Laplace établit que les deux lois donnent des résultats strictement identiques
lorsque n tend vers l’infini. En ce qui nous concerne, nous considérerons la loi normale comme
suffisamment fiable pour remplacer une loi binomiale si les conditions ci-dessous sont respectées :

Critères d'approximation d'une loi binomiale par une loi normale :


Avec B (n , p), si n > 30, np > 5 et nq > 5, alors on peut utiliser N (µ , σ) avec µ = np et σ = npq

14
MATHS Term PROBABILITES COURS

3 Fluctuation, estimation
3.1 Echantillonnage
3.1.1 Présentation générale
Dans toute cette partie, on se place dans les conditions d’une loi binomiale.
Une expérience a une probabilité de succès p, et on la répète n fois à l’identique. A chaque fois, on
obtient un succès ou un échec, et au bout des n essais, le nombre total de succès est noté X, variable,
aléatoire, inférieur ou égal à n.
La loi binomiale dit que l’espérance de X (c’est-à-dire le nombre moyen de succès attendus) est
E ( X ) = np , et que sa variance est V ( X ) = npq , soit un écart type σ ( X ) = npq = np (1 − p ) .

Exemple : On joue 400 fois à un jeu pour lequel nos chances de gains sont de 30%. Au bout des 400
parties, le nombre de gains attendu est en moyenne E ( X ) = 400 × 30% = 120 avec un écart type
σ ( X ) = 400 × 30% × 70% ≈ 9,165 (on dira pour l’instant que la plupart du temps, 400 parties donnent
entre 111 et 129 succès).

X
De plus, on s’intéressera plutôt, non au nombre de succès obtenus, mais à leur proportion .
n
 X  np X np (1 − p ) p (1 − p )
Cette dernière a une espérance E   = = p et un écart type σ   = = .
n n  n n n

Avec notre exemple précédent : Au bout des 400 parties, la proportion moyenne de gains attendue est
30% avec un écart type de 0,0229 (on dira pour l’instant que la plupart du temps, 400 parties donnent
entre 27,71% et 32,29% de succès)

3.1.2 Intervalle de fluctuation


 p (1 − p ) p (1 − p ) 
On a cité dans l’exemple précédent l’intervalle  p − ;p+  en disant que la
 n n 
plupart du temps, la réalité se trouverait à l’intérieur. Précisons :

Si n > 30, np > 5 et nq > 5, alors on peut utiliser des résultats issus de la loi normale :

 p (1 − p ) p (1 − p ) 
Il y a 68,3% de chances que la fréquence de succès soit dans  p − ;p+  ;
 n n 
 p (1 − p ) p (1 − p ) 
Il y a 95% de chances que la fréquence de succès soit dans  p − 1,96 ; p + 1,96  ;
 n n 
 p (1 − p ) p (1 − p ) 
Il y a 99% de chances que la fréquence de succès soit dans  p − 2,58 ; p + 2,58 .
 n n 

D’une manière générale, on appelle intervalle de fluctuation asymptotique au seuil α l’intervalle de


 p (1 − p ) p (1 − p ) 
type Iα =  p − uα ; p + uα  , où uα est le coefficient de loi normale associé à α.
 n n 

15
MATHS Term PROBABILITES COURS

Reprenons l’exemple de la partie 3.1.1. Quel est l’intervalle de fluctuation de la fréquence de gain au
seuil de 5% ?
On utilisera ici le coefficient 1,96 : [ 0,3 − 1,96 × 0,0229 ; 0,3 + 1,96 × 0,0229 ] = [0,255 ; 0,345] .
Interprétation : il y a 95% de chances qu’en 400 parties, la fréquence de succès soit comprise entre
25,5% et 34,5%.

3.2 Estimation, Prise de décision


Cette fois, on se place dans une situation inversée : une fréquence f a été relevée à partir d’un
échantillon. On construira autour de cette valeur un intervalle de confiance dans lequel on estime que
se trouve la proportion p existant dans la population.
(on notera qu’ici on ne parle pas forcément de loi binomiale)

D’une manière générale, l’intervalle de confiance de p au seuil α (ou au niveau de confiance 1 – α)est :
 f (1 − f ) f (1 − f ) 
Iα =  f − uα ; f + uα  , où uα est le coefficient de loi normale associé à α.
 n n 

Formule simplifiée :
la valeur maximale de f (1 − f ) est 0,5 (quel que soit f compris entre 0 et 1) ; d’autre part, un
intervalle de confiance à 95% utilise un coefficient uα = 1,96 ≈ 2 . On peut alors dire qu’un intervalle de p
 1 1 
à au moins 95% de confiance est  f − ;f + .
 n n

Par exemple : on se demande quelle est, dans les forêts de conifères, la proportion d’arbres dont le
diamètre dépasse 20 cm. On prend des mesures sur un échantillon de 100 arbres et on en trouve 16
dont le diamètre dépasse 20 cm.
* donner l’intervalle à 95% de confiance de la proportion existant dans le monde.
 0,16 (1 − 0,16 ) 0,16 (1 − 0,16 ) 
Iα = 0,16 − 1,96 ; 0,16 − 1,96  = [ 0,088 ; 0,232] .
 100 100 
On estime qu’entre 8,8% et 23,2% des conifères correspondent à ce critère.

* on trouve cet intervalle trop imprécis (son amplitude vaut 14,4%). Combien de conifères faudrait-il
mesurer pour obtenir un intervalle de confiance d’amplitude 4% ? (on utilisera la formule simplifiée)

 1 1  2
L’amplitude de l’intervalle  f − ;f +  est .
 n n n
2
On veut donc = 4% ⇔ n = 50 ⇔ n = 2500 . Il faudrait mesurer 2500 arbres.
n

16

Vous aimerez peut-être aussi