Vous êtes sur la page 1sur 59

Principes et méthodes de Probabilité Dr A.

Laubhouet Lavry
lavryabel@yahoo.fr

PROBABILITE : LES LOIS STATISTIQUES

L’étude de certains phénomènes fait parfois apparaître une « permanence


statistique ». Ainsi la proportion des naissances masculines parmi l’ensemble
des naissances est une constante : quelle que soit l’époque ou le lieu, il naît
approximativement autant de garçons que de filles. La distribution des tailles
des individus d’une population présente généralement toujours la même
allure : des fréquences importantes des tailles situées autour de la taille
moyenne et des fréquences de plus en plus faibles pour des tailles lorsqu’on
s’éloigne de cette taille moyenne. Cette reproductibilité suggère l’existence de
« lois statistiques », c’est-à-dire de modèles théoriques que suivent de façon
plus ou moins proche les phénomènes étudiés.

Ces lois qui font appel à la notion de probabilité sont nombreuses ;


cependant un petit nombre d’entre elles permet de rendre compte de la
majeure partie des phénomènes statistiques. Ces lois usuelles sont la loi
binomiale, la loi de Poisson et la loi de Gauss.

Chapitre I : Notions sur les lois de probabilité

1. Définitions

Considérons un jeu de dés dont la règle est la suivante : On lance un dé une


fois. Le gain est 10 UM s’il est égal à trois(3), et de 30 UM s’il est supérieur à 3.

Lancer le dé une fois constitue une épreuve. Le résultat de cette épreuve est un
évènement : obtenir un 4 par exemple est un évènement. L’ensemble des
évènements possibles porte le nom d’univers.

On appelle probabilité d’un évènement 𝐸, un nombre noté 𝑃(𝐸), associé à


cet évènement et qui possède les propriétés suivantes :

1-La probabilité d’un évènement est un nombre positif, au plus égal à 1. Si la


probabilité est égale à 0, l’évènement est dit « impossible ». Si la probabilité est
égale à 1, l’évènement est « certain ».

1
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

2-La probabilité de réalisation de l’un ou l’autre de deux évènements


incompatibles est égale à la somme de leurs probabilités. On ne peut obtenir
simultanément l’as et le 2 lors d’un jet. Ces deux évènements sont
incompatibles. Si la probabilité d’obtenir l’as est à 1/6 et celle d’obtenir le 2
égale à 1/6, la probabilité de l’évènement obtenir l’as ou le 2 est égale à 2/6.

3- La somme des probabilités de tous les évènements incompatibles de


l’univers est égale à 1.

4-Deux évènements sont dit complémentaires lorsqu’ils sont incompatibles et


lorsque leur union correspond à l’univers.

Soit 𝐴 l’évènement obtenir un point pair, 𝐴̅ l’évènement obtenir un point


impair. Ces deux évènements sont incompatibles. L’évènement obtenir un
point pair ou un point impair correspond à l’ensemble des évènements
possibles, c’est –à-dire à l’univers et sa probabilité est égale à 1.

Donc : 𝑃(𝐴) + 𝑃(𝐴̅) = 1

Dans le cas particulier où l’univers est fini et où les évènements élémentaires


ont la même probabilité, la probabilité d’un évènement -E- peut être obtenue
en effectuant le rapport du nombre de cas favorables à la réalisation de -E- au
nombre total de cas possibles.
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 à 𝑙𝑎 𝑟é𝑎𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝐸
𝑃(𝐸) =
𝑁𝑜𝑚𝑏𝑟𝑒 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠

Chaque fois que dans le langage courant on dit que l’on choisit au hasard dans
un ensemble fini, on sous-entend que les divers choix possibles sont
équiprobables. C’est cette définition que nous avons utilisée pour dire que la
probabilité d’obtenir l’as en lançant un dé est de 1/6.

1.1. Variable aléatoire à une dimension et loi de probabilité

La règle du jeu précédemment définie conduit à attacher une valeur numérique


aux différents évènements : 10 points si le « point » apparu est 1 ou 2 ; 20
points s’il est égal à 3 et 30 points s’il est supérieur à 3.

Ce procédé qui consiste à faire correspondre à chaque évènement une


valeur numérique porte le nom de variable aléatoire ; par extension les valeurs

2
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

numériques elles-mêmes, notées X, sont appelées variables aléatoires. On


associe à chacune d’entre elles une probabilité égale à la somme des
probabilités des évènements incompatibles qui lui donnent naissance.
Représentons dans un tableau, l’exemple précédent.

Tableau 1

𝑋𝑖 10 20 30

𝑃𝑖 2/6 1/6 3/6

On peut gagner 10F en obtenant l’as ou le 2

La probabilité de gagner 10 UM est de 2/6. De même la probabilité de gagner


20 UM est égale à 1/6 et celle de gagner 30 UM est égale à 3/6 (Voir fig.1.1)

Associer à toutes les valeurs d’une variable aléatoire la probabilité qui lui
correspond, c’est définir la loi de probabilité.

3
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Dans l’exemple ci-dessus la loi de probabilité est donnée par le tableau 1.

Cette loi de probabilité correspond à une variable aléatoire discontinue. On


peut, comme en statistique, concevoir les lois de probabilité pour les variables
aléatoires continues.

Considérons une population d’individus adultes et l’épreuve consistant à


tirer au sort un des individus de cette population. Si à chaque individu ; on fait
correspondre sa taille, la variable aléatoire ainsi définie est continue.

1.2 Fréquence et probabilité

On appelle événement aléatoire un événement qui peut arriver ou peut ne pas


arriver en présence d’un ensemble de conditions liées à la probabilité de
réalisation de l’événement considérée.

Les événements aléatoires sont désignés par les lettres 𝐴, 𝐵, 𝐶 … Chaque fois
que la présence de l’ensemble de conditions susmentionné est assurée, on dit
que l’on assiste à une épreuve. Le nombre des épreuves peut augmenter
indéfiniment.

●●● Fréquence d’un événement aléatoire

Le rapport du nombre m d’arrivées de l’événement aléatoire 𝐴 considéré dans


une série d’épreuves donnée au nombre total d’épreuves n de cette série est
appelé fréquence de réalisation de 𝐴 l’événement 𝐴 dans la série d’épreuves
examinée (ou tout simplement fréquence de l’événement 𝐴) que l’on désigne
par 𝑃̅(𝐴), Ainsi l’on a :
𝑚
𝑃̅(𝐴) =
𝑛
La fréquence d’un événement aléatoire est toujours comprise entre zéro et un :

0 ≤ 𝑃̅(𝐴) ≤ 1

Les événements aléatoires qui peuvent être réalisés en différentes séries


d’épreuves homogènes (à condition que le nombre d’épreuves dans chaque
série soit suffisamment grand) jouissent de la stabilité de leur fréquence, ce qui
signifie que la fréquence de tel ou tel événement aléatoire varie très peu d’une
série d’épreuves à l’autre.
4
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

C’est justement ce fait qui nous permet d’appliquer les méthodes


mathématiques à l’étude des événements aléatoires en assignant à chacun
d’eux sa probabilité représentée par le nombre (qui généralement parlant,
n’est pas connu d’avance) autour duquel oscille la fréquence observée de
l’événement.

●●● La probabilité d’un événement aléatoire

La probabilité d’un événement aléatoire se note 𝑃(𝐴).La probabilité, de même


que la fréquence d’un événement aléatoire, se situe entre zéro et un :

0 ≤ 𝑃(𝐴) ≤ 1

●● A un événement certain (c’est-à-dire à un événement qui doit arriver à la


suite de chaque épreuve) on assigne la probabilité 𝑃(𝐴) = 1

●● A un événement impossible (c’est-à-dire à un événement qui ne peut arriver


à la suite d’aucune épreuve) on assigne la probabilité 𝑃(𝐴) = 0

Dans les cas les plus simples, la probabilité d’un événement aléatoire peut être
déterminée à l’avance (à priori).Cela peut se faire si, par exemple, les résultats
possibles de chaque épreuve d’une série d’épreuves homogènes sont
représentés par n (les seuls possibles) constituants(cas) incompatibles entre
eux et équiprobables(cela signifie que ces n cas (constituants) excluent la
possibilité de réalisation de tout autre résultat, que deux de ces cas
(constituants) ne peuvent pas arriver en même temps et que la réalisation d’un
cas n’est point plus favorisée que la réalisation d’un autre).

Si parmi ces n cas uniquement possibles, incompatibles entre eux et


équiprobables, m cas sont favorables à l’événement 𝐴, la probabilité de cet
événement est donnée par le rapport de m à n :
𝑚
𝑃(𝐴) =
𝑛
Lorsque l’on joue à pile ou face, la probabilité d’obtenir pile est 1/2. Cela ne
signifie pas que lorsqu’on lance deux fois la pièce, on obtiendra une fois pile et
une fois face ! Mais si on lance la pièce un très grand nombre de fois, la
fréquence d’apparition de pile va se rapprocher de 1/2. C’est cette notion

5
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

intuitive qui conduit très souvent à assimiler fréquence et probabilité. Mais


fréquence et probabilité sont deux notions totalement différentes.

Cependant un théorème appelé loi des grands nombres montre que, plus
le nombre d’épreuve augmente, plus il devient certain que l’écart entre la
fréquence d’un évènement et sa probabilité sera inférieur à une valeur
quelconque, aussi petite soit-elle.
Pour cette raison la fréquence peut fournir une valeur approchée de la
probabilité.

1.3 Distributions statistiques, indicateurs des variables aléatoires et lois de


probabilité

Il existe de nombreuses analogies entre les lois de probabilité et les


distributions statistiques. Aux modalités d’un caractère quantitatif et aux
fréquences associées, on peut faire correspondre en probabilité les différentes
valeurs de la variable aléatoire et leurs probabilités respectives. Fréquences et
probabilités sont des nombres compris entre 0 et 1. Ces analogies de forme,
sinon de fond, conduisent à des traitements mathématiques semblables.
Les représentations graphiques d’une loi de probabilité seront obtenues
en portant en abscisse les valeurs de la variable aléatoire et en ordonnée les
probabilités.
En reprenant l’exemple du tableau 1 la représentation de la loi est un
diagramme en bâtons (fig.1.2)

6
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On peut comme en statistique descriptive, introduire une fonction cumulative.


Elle porte le nom de fonction de répartition F, et indique la probabilité pour
que la variable 𝑋, prenne une valeur au plus égale à une valeur donnée

𝐹(𝑎) = 𝑃( 𝑋𝑖 ≤ 𝑎)
En utilisant l’exemple du tableau 1, on obtient le tableau 2.La représentation
graphique correspondante est un diagramme en escaliers (fig.1.3)

Tableau 2
𝑋𝑖 𝑃𝑖 𝐹
10 2 ⁄6 2⁄ 6
20 1 ⁄6 3⁄ 6
30 3 ⁄6 1

7
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Valeurs centrales et valeurs de dispersion des distributions statistiques


possèdent leur équivalent dans les distributions de probabilité. L’espérance
mathématique d’une variable aléatoire, notée 𝑚, est la somme de toutes les
valeurs de la variable pondérées par leurs probabilités respectives.
Soit une variable 𝑋 qui prend les valeurs 𝑋1 , … , 𝑋𝑖 , … , 𝑋𝑁 avec les
probabilités 𝑃1 , … , 𝑃𝑖 , … , 𝑃𝑁 :

𝑚 = ∑ 𝑃𝑖 𝑋𝑖
𝑖=1
L’espérance mathématique est encore appelée moyenne de la variable
aléatoire.
On définit de même l’écart-type 𝜎 de la variable aléatoire :

𝑁 𝑁

𝜎= √∑ 𝑃𝑖 (𝑋𝑖 − 𝑚)² = √∑ 𝑃𝑖 𝑋𝑖 2 − 𝑚²
𝑖=1 𝑖=1

L’espérance mathématique est une notion fondamentale fréquemment


utilisée.

Tableau 3
8
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

𝑋𝑖 𝑃𝑖 𝑃𝑖 𝑋𝑖
10 2⁄6 20⁄6
20 1⁄6 20⁄6
30 3⁄6 90⁄6
N 1 130⁄6
Exemple
Dans le jeu de dés précédemment défini, le gain est de 10 francs pour un as ou
pour un deux, de 20 francs pour un 3, et de 30 francs pour un 4, un 5 ou un
6.On peut calculer l’espérance mathématique de ce jeu (voir tabl.3)

130
𝑚= = 21,6 𝑓𝑟𝑎𝑛𝑐𝑠
6
L’espérance mathématique de ce jeu est de 21,6 francs. Cela ne signifie pas que
si l’on joue une fois à ce jeu, on gagnera 21,6 francs. Cela signifie tout au plus
que, si l’on jouait un très grand nombre de fois, le gain par partie serait e »n
moyenne de 21,6 francs.
La confusion entre probabilité et espérance mathématique donne
naissance à des raisonnements viciés.
Exemple
Compte tenu des mesures de sécurité, la probabilité d’accident dans
une centrale électrique nucléaire est plus faible que celle d’une centrale
électrique classique. Disons, par exemple, que la probabilité d’explosion est de
1/10000 pour la centrale nucléaire et de 1/100 pour une centrale classique.
Cependant, ce n’est pas la probabilité de l’explosion qui importe ; mais
les conséquences qui en découlent. Or, les conséquences qui en découlent. Or,
les conséquences d’une explosion nucléaire sont beaucoup plus importantes
que celles d’une explosion dans une centrale classique.
Supposons que la première entraîne la mort de 10000 personnes et la
seconde celle de 10 personnes. Comparons alors les espérances
mathématiques des risques dans les deux types de centrales (tabl.4)
Tableau 4
Centrale nucléaire Centrale classique
𝑃𝑖 𝑋𝑖 𝑃𝑖 𝑋𝑖 𝑃𝑖 𝑋𝑖 𝑃𝑖 𝑋𝑖
Explosion 1⁄10000 1000 1 1⁄100 10 0,1
0
Pas 9999⁄10000 0 0 99⁄100 0 0
d’explosion
𝑚 1 0,1
La probabilité d’explosion est cent (100) fois plus faible dans une centrale
nucléaire que dans une centrale classique, mais l’espérance mathématique du

9
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

nombre de morts est dix fois plus grande dans une centrale nucléaire que dans
une centrale classique. Le choix d’une décision est un autre problème ; encore
faut-il qu’il repose sur un raisonnement exact.

Chapitre II : Principe des probabilités composées, Principe des probabilités


totales, Probabilités conditionnelles

2.1 Axiome de l’addition des probabilités et l’axiome des probabilités


composées

On appelle réunion (ou somme) de plusieurs événements aléatoires un


événement consistant en la réalisation d’au moins un des événements donnés.
La réunion des événements 𝐴1 , 𝐴2 ,…, 𝐴𝑛 est désignée par 𝐴1 + 𝐴2 +…+ 𝐴𝑛

●●● Si les événements réunis sont incompatibles (c’est-à-dire que deux de ces
événements ne peuvent pas être réalisés simultanément), la probabilité de la
réunion de plusieurs événements est égale à la somme des probabilités des
événements réunis (axiome de l’addition des probabilités) :

𝑃(𝐴1 + 𝐴2 + ⋯ + 𝐴𝑛 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐴𝑛 )

●●● L’événement consistant en la non-arrivée d’un événement aléatoire 𝐴 est


appelé événement contraire de l’événement 𝐴 et se note 𝐴̅. La réunion des
événements 𝐴 et 𝐴̅ donne un événement certain et, vu que les événements 𝐴
et 𝐴̅ sont incompatibles, on a :

𝑃(𝐴) + 𝑃(𝐴̅) = 1 ou 𝑃(𝐴̅) = 1 − 𝑃(𝐴)

●●● Si une épreuve donnée peut avoir comme résultat un seul des
événements incompatibles 𝐴1 , 𝐴2 ,…, 𝐴𝑛 , on dit que les
événements 𝐴1 , 𝐴2 ,…, 𝐴𝑛 forment un ensemble d’événements appelé espace
des événements de l’épreuve. Etant donné que la réunion des événements de
l’espace des événements d’une épreuve constitue un événement certain, on
peut écrire :

𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐴𝑛 ) = 1

●●● On appelle produit de deux événements aléatoires 𝐴1 et 𝐴2 un


événement composé consistant en la réalisation simultanée ou successive de

10
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

ces deux événements. Le produit des événements 𝐴1 et 𝐴2 est désigné par 𝐴1


× 𝐴2 .

●●● La probabilité qu’un événement aléatoire 𝐴2 se réalise sachant qu’un


autre événement 𝐴1 est réalisé constitue la probabilité conditionnelle de
l’événement 𝐴2 par rapport à l’événement 𝐴1 et se note 𝑃(𝐴2 ⁄𝐴1 ).

La probabilité que deux événements 𝐴1 et 𝐴2 se produisent en même temps


est égale au produit de la probabilité de l’un d’eux par la probabilité
conditionnelle de l’autre événement par rapport au premier ‘Axiome des
probabilités composés) :

𝑃(𝐴1 𝐴2 ) = 𝑃(𝐴1 )𝑃(𝐴2 /𝐴1 ) = 𝑃(𝐴2 )𝑃(𝐴1 /𝐴2 )

●●●Deux événements aléatoires 𝐴1 et 𝐴2 sont appelés indépendants si la


probabilité conditionnelle de l’un d’eux par rapport à l’autre est égale à la
probabilité inconditionnée de celui-là :

𝑃(𝐴2 /𝐴1 ) = 𝑃(𝐴2 )

Cette assertion vérifie les égalités ci-dessous :

𝑃(𝐴2 ⁄𝐴1̅ ) = 𝑃(𝐴2 ⁄𝐴1 ) = 𝑃(𝐴2 )

𝑃(𝐴1 ⁄𝐴2 ) = 𝑃(𝐴1 ⁄𝐴̅2 ) = 𝑃(𝐴1 ).

●●Pour des événements indépendants, la probabilité qu’ils se réalisent en


même temps est égale au produit de leurs probabilités :

𝑃(𝐴1 𝐴2 ) = 𝑃(𝐴1 )𝑃(𝐴2 )

La réalisation simultanée de 𝑛 événements 𝐴1 , 𝐴2 ,…, 𝐴𝑛 (remarquons qu’elle


est déterminée d’une façon analogue) est désignée par 𝐴1 𝐴2 …,𝐴𝑛 .

●●La probabilité conditionnelle d’un événement 𝐴𝑘 déterminée en supposant


que les événements𝐴1 , 𝐴2 ,…, 𝐴𝑘−1 sont réalisés, se note :
𝑃(𝐴𝑘 ⁄𝐴1 𝐴2 … … 𝐴𝑘−1 ).

D’après l’axiome des probabilités composées, la probabilité que 𝑛 événements


se réalisent simultanément est déterminée par la formule

𝑃(𝐴1 𝐴2 … 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 ⁄𝐴1 ) 𝑃(𝐴3 ⁄𝐴1 𝐴2 ) … 𝑃(𝐴𝑛 ⁄𝐴1 𝐴2 … 𝐴𝑛−1 ).

11
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On dit que 𝑛 événements 𝐴1 , 𝐴2 ,…, 𝐴𝑛 sont indépendants dans leur ensemble si


la probabilité de réalisation de chacun d’eux n’est influencée par la réalisation
des autres pris en n’importe quelle combinaison.

La probabilité de réalisation simultanée de n événements indépendants


dans leur ensemble est égale au produit des probabilités de ces événements :

𝑃(𝐴1 𝐴2 … 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 ) … 𝑃(𝐴𝑛 )

2.2 Formule de la probabilité complète. Formule de Bayes

Si l’on sait qu’un évènement 𝐴 peut avoir lieu simultanément avec l’un des
évènements 𝐻1 , 𝐻2 , … , 𝐻𝑛 qui forment un espace des évènements
incompatibles, alors l’événement 𝐴 peut être présenté comme la réunion des
évènements 𝐴𝐻1 , 𝐴𝐻2 , … , 𝐴𝐻𝑛 , c’est-à-dire 𝐴 = 𝐴𝐻1 + 𝐴𝐻2 + ⋯ + 𝐴𝐻𝑛 . La
probabilité de l’évènement peut être déterminée par la formule

𝑃(𝐴) = 𝑃(𝐻1 )𝑃(𝐴⁄𝐻1 ) + 𝑃(𝐻2 )𝑃(𝐴⁄𝐻2 ) + ⋯ + 𝑃(𝐻𝑛 )𝑃( 𝐴⁄𝐻𝑛 )

Ou

𝑃(𝐴) = ∑ 𝑃(𝐻𝑖 )𝑃(𝐴⁄𝐻𝑖 ).


𝑖=1

C’est la formule de la probabilité complète.

●●●La probabilité conditionnelle de l’évènement 𝐻𝑖 sachant que l’évènement


𝐴 est réalisé, est déterminée par l’ainsi appelée formule de Bayes :

𝑃(𝐴𝐻𝑖 ) 𝑃(𝐻𝑖 ) × 𝑃(𝐴⁄𝐻𝑖 )


𝑃(𝐻𝑖 ⁄𝐴 ) = = 𝑛 (𝑖 = 1 , 2 , … , 𝑛).
𝑃(𝐴) ∑𝑖=1 𝑃(𝐴⁄𝐻𝑖 ) × 𝑃(𝐻𝑖 )

Les probabilités 𝑃(𝐴⁄𝐻𝑖 ) calculées d’après la formule de Bayes sont souvent


appelées probabilités des hypothèses.

Exemple 1

12
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Une urne contient cinq boules : une noire, un rouge, une verte, une blanche, et
une bleue. On tire une boule, que l’on ne remet pas dans l’urne, puis on tire
une autre boule. Quelle est la probabilité qu’on ait tiré la boule rouge, puis la
boule noire ?

Solution

Dénombrons tous les cas possibles.

Tous les groupements de deux boules que nous pouvons constituer à partir de
deux tirages envisagés doivent différer, soit par leur composition (nous voulons
absolument la boule rouge et la boule noire).

Ces groupements correspondent donc aux arrangements de deux objets pris


parmi cinq objets différents. Leur nombre est donc 𝐴25 = 5 × 4 = 20, soit 20
cas possibles dans notre problème.

Parmi tous ces cas, un seul répond à la question, le cas R N. La probabilité


1
cherchée est donc
20

1 1 1 1
Ce résultat, peut s’écrire : = ×
20 20 5 4

Probabilité Probabilité

de tirer une de tirer une boule noire

boule rouge une fois que la boule rouge

a été tirée

Nous pouvons écrire ce résultat comme suit : 𝑃(𝑅, 𝑁) = 𝑃(𝑅) × 𝑃(𝑁⁄𝑅)

D’une façon générale, quand on cherche la probabilité d’un événement


(événement composé) qui suppose la réalisation de plusieurs autres
(évènements élémentaires), la probabilité de cet événement composé est égale
à la probabilité de réalisation du premier événement élémentaire multipliée
par la probabilité de réalisation du second événement élémentaire, une fois
que le premier s’est produit, multipliée par la probabilité de réalisation du
troisième événement élémentaire, une fois que les deux premiers se sont

13
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

produits, et ainsi de suite. Ce principe est dit : Principe (ou axiome) des
probabilités composées.

Exemple 2

Une urne contient deux boules noires, cinq boules rouges, et trois boules
blanches. On tire successivement de l’urne trois boules, une boule tirée n’étant
pas remise dans l’urne avant le tirage de la suivante. Quelle est la probabilité
d’obtenir, dans l’ordre, 𝑁, 𝑅, 𝑅 ?

Solution

Il s’agit d’un événement composé de trois événements élémentaires.


2
●Probabilité de tirer une boule noire :
10

5
●Probabilité de tirer une boule rouge, une noire étant tirée :
9

4
●Probabilité de tirer une boule rouge, une noire et une rouge étant tirées :
8

En appliquant le principe des probabilités des probabilités composées on


écrira :
2 5 4 40 1
𝑃(𝑁, 𝑅, 𝑅) = × × = =
10 9 8 720 18
Cas particulier du principe des probabilités composées : Probabilité dans le cas
d’évènements indépendants.

Reprenons l’exemple précédant et cherchons la probabilité d’obtenir, dans


l’ordre, 𝑁, 𝑅, 𝑅, mais en supposant, cette fois, que chaque boule tirée est
remise dans l’urne avant le tirage de la boule suivante.

Solution

La probabilité de réalisation du second événement élémentaire n’est pas


influencée par la réalisation du premier, la remise dans l’urne de la boule tirée
en premier ayant rendu à l’urne sa composition initiale ; de même, la
probabilité de réalisation du troisième événement élémentaire n’est pas
influencé par la réalisation des deux premiers.

14
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On a :
2 5
𝑃(𝑁) = 𝑃(𝑅) = ↔ 𝑃(𝑁, 𝑅, 𝑅)
10 10
2 5 5 50 1
= × × = =
10 10 10 1000 20

D’une façon générale, quand on cherche la probabilité d’un événement


(événement composé) qui suppose la réalisation successive de plusieurs autres
(évènements élémentaires), et que la probabilité de survenance d’un de ces
événements ne dépend pas des événements antérieurs, la probabilité de
l’événement composé est égale au produit des probabilités des événements
élémentaires, composés, et ces événements sont dits indépendants.

Exemple 3

Dans un jeu de 32 cartes on tire une carte. Quelle est la probabilité d’avoir tiré
un roi ou un trèfle ?

Nous écrirons :

●Nombre de cas possibles : 32

● Nombre de cas favorables : 11 ∶ (12 − 1 )

4 + 8 − 1

rois trèfles le roi de trèfle

(dont le roi (dont le roi (qui ne doit être

de trèfle) de trèfle) compté qu’une fois)


11
●Probabilité cherchée :
32

4 8 1
= + −
32 32 32
4 8 1 1
= + − ( × )
32 32 4 8
15
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On peut écrire :

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é( 𝑅𝑜𝑖 𝑜𝑢 𝑇𝑟è𝑓𝑙𝑒 )


= 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é(𝑅𝑜𝑖) + 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é (𝑇𝑟è𝑓𝑙𝑒)
− 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é(à 𝑙𝑎 𝑓𝑜𝑖𝑠 𝑅𝑜𝑖 𝑒𝑡 𝑇𝑟è𝑓𝑙𝑒)

Ainsi quand un événement peut se réaliser suivant deux modalités 𝐸1 et 𝐸2 qui


« ne s’excluent pas totalement », on écrit :

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑙 ′ é𝑣é𝑛𝑒𝑚𝑒𝑛𝑡
= 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é(𝐸1 ) + 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é (𝐸2 )
− 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é (𝐸1 𝑒𝑡 𝐸2 )

●●●Principes de calcul des probabilités : Probabilités conditionnelles

Soit (𝛺,A , P ) un espace probabilisé et C ∈ A un événement particulier,


appelé « condition », de probabilité non nulle. Pour tout événement A ∈ A on
appelle « probabilité conditionnelle » de A « sachant » C, notée
𝑃(𝐴⁄𝐶 ) 𝑜𝑢 𝑃𝐶 (𝐴)

𝑃(𝐴 ∩ 𝐶)
𝑃(𝐴/𝐶) =
𝑃(𝐶)

𝑃(𝐴 ∩ 𝐶) ← Nombre d’éléments de 𝐴 ∩ 𝐶

𝑃(𝐴) ← Nombre d’éléments de 𝐴

On pourrait dire que les cas favorables sont ceux où les événements A et C sont
tous réalisés, alors les cas possibles sont ceux pour lesquels de toutes façons
l’événement C est observé. Il faut noter qu’une probabilité conditionnelle n’a
de sens que si la condition est réalisable (de probabilité non nulle).La notion de
probabilité conditionnelle, ou encore de conditionnement des probabilités,
revient à modifier l’ensemble fondamental puisque l’événement C ∈ A se
trouve être rapporté à une probabilité égale à un. Ainsi, par conditionnement,
la probabilité de A est ramenée à la seule part de A, incluse dans C.

16
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On peut vérifier que l’application qui à tout A ∈ A associe 𝑃(𝐴/𝐶) est bien
une mesure de probabilité.

Propriété

Si 𝐴1, 𝐴2,…, 𝐴𝑛 sont 𝑛 événements quelconque d’un espace probabilisé (𝛺,A , P )


, on peut écrire :

𝑃(𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛 ) = 𝑃(𝐴1 ) × 𝑃(𝐴2 /𝐴1 ), … , 𝑃(𝐴𝑛 /𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛−1 )

Définition 2

Deux événements A et B d’un espace probabilisé (𝛺,A , P ) sont dits


indépendants en probabilité si la réalisation de l’un d’eux ne modifie pas la
probabilité de survenue de l’autre.

Il s’agit d’une relation symétrique.

Si A et B sont deux événements indépendants, on a :

𝑃(𝐴/𝐵) = 𝑃(𝐴)

𝑃(𝐵/𝐴) = 𝑃(𝐵)

Et chacune de ces égalités montre que :

A et B sont indépendants ↔ 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) × 𝑃(𝐵)

Ne pas confondre les notions d’indépendance et d’incompatibilité.

●Dans le premier cas, si les deux événements 𝐴 et 𝐵 sont des probabilités non
nulles, alors la probabilité 𝑃(𝐴 ∩ 𝐵) est aussi non nulle.

17
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

●Dans le second cas, même si 𝐴 et 𝐵 sont des probabilités non nulles,


l’intersection (𝐴 ∩ 𝐵) est de probabilité nulle.

Il s’ensuit que deux événements à la fois indépendants et incompatibles sont


tels qu’au moins l’un d’eux est un événement impossible (c’est-à-dire de
probabilité nulle).

Notons encore que si 𝐴 et 𝐵 sont deux événements indépendants alors :

𝑃(𝐴/𝐵) = 𝑃(𝐴/𝐵̅) = 𝑃(𝐴)

𝑃(𝐵/𝐴) = 𝑃(𝐵/𝐴̅) = 𝑃(𝐵)

La mise en œuvre des probabilités conditionnelles a conduit à une réflexion


importante sur le concept de probabilité lui-même. C’est l’apport de Thomas
𝐵𝑎𝑦𝑒𝑠1 qui a enrichit le concept de probabilité

●●●La formule de Bayes se présente dans le même contexte que celui


prévalant pour la formule des probabilités totales. Ici nous allons nous
intéresser à 𝐻𝑖 et non à 𝐴. Donc s’intéresser à la probabilité conditionnelle d’un
certain élément 𝐻𝑖 étant donné 𝐴.

Pour calculer 𝑃(𝐻𝑖 ⁄𝐴), nous allons utiliser les probabilités inconditionnelles de
certains événements où 𝐻𝑖 , est un événement particulier et les probabilités
conditionnelles 𝑃(𝐴⁄𝐻𝑖 ) disponibles.

Plus précisément, nous avons pour tout événement 𝐴, la formule suivante :

𝑷(𝑯𝒊 ∩ 𝑨) 𝑷(𝑨⁄𝑯𝒊 ) × 𝑷(𝑯𝒊 )


𝑷(𝑯𝒊 ⁄𝑨) = = 𝒏 𝒂𝒗𝒆𝒄 𝒊 = 𝟏, 𝟐, … , 𝒏
𝑷(𝑨) ∑𝒊=𝟏 𝑷(𝑨⁄𝑯𝒊 ) × 𝑷(𝑯𝒊 )

●●Démonstration de la formule.

La démonstration découle directement de la définition de la probabilité


conditionnelle et de la formule des probabilités totales.

●Par définition de la probabilité conditionnelle, nous avons :

𝑃(𝐻𝑖 ∩ 𝐴) 𝑃(𝐴⁄𝐻𝑖 ) × 𝑃(𝐻𝑖 )


𝑃(𝐻𝑖 ⁄𝐴) = =
𝑃(𝐴) 𝑃(𝐴)

●Et d’après la formule des probabilités totales, nous avons :

18
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

𝑛 𝑛

𝑃(𝐴) = ∑ 𝑃(𝐴 ∩ 𝐻𝑖 ) = ∑ 𝑃(𝐴⁄𝐻𝑖 ) × 𝑃(𝐻𝑖 )


𝑖=1 𝑖=1

Les événements 𝐴 ∩ 𝐻𝑖 étant incompatibles deux à deux, il s’ensuit que :

𝑷(𝑯𝒊 ∩ 𝑨) 𝑷(𝑨⁄𝑯𝒊 ) × 𝑷(𝑯𝒊 )


𝑷(𝑯𝒊 ⁄𝑨) = = 𝒏
𝑷(𝑨) ∑𝒊=𝟏 𝑷(𝑨⁄𝑯𝒊 ) × 𝑷(𝑯𝒊 )

Et la formule de Bayes est démontrée.

On dit fréquemment que les événements 𝐻𝑖 , qui forment une partition de 𝛺,


sont les causes. Une dénomination, très courante, consiste à nommer
probabilités « à priori » les valeurs 𝑃(𝐻𝑖 ) et probabilités « à posteriori » les
valeurs 𝑃(𝐻𝑖 ⁄𝐴).

En effet, la formule de Bayes permet d’obtenir une valeur révisée des


probabilités des événements 𝐴𝑖 une fois connue la réalisation de
l’événement 𝐵.

On notera que l’application de la formule de Bayes demande l’évaluation des


probabilités dites « à priori » 𝑃(𝐻𝑖 ) ainsi que les probabilités 𝑃(𝐻𝑖 ⁄𝐴) de
l’effet 𝐴 connaissant chacune des causes.

Exemple 4

Un système de crédit à la clientèle on distingue trois types de dossiers : les


dossiers aboutissant en contentieux ; les dossiers à difficultés temporaires ou
légères et les dossiers sans difficultés de paiement. On a évalué sue la base
1
d’expériences antérieures les proportions respectives des trois catégories à ,
5
3 1
et . D’autre part, on dispose pour chaque dossier d’un score
10 2
d’appréciation global du client rapporté à l’une des deux modalités suivantes :
élevé ou bas. Enfin, on sait que 90 % des dossiers en contentieux
correspondaient à un score bas, que 60 % des dossiers à difficultés légères
correspondaient à un score bas et 85 % des dossiers sans difficultés
correspondaient à un score élevé.

19
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Si on tire un dossier au hasard pour lequel le score est bas ; quelle est la
probabilité qu’il ait abouti en contentieux ? Quelle est la probabilité qu’il n’ait
donné lieu à aucune difficulté de paiement ? Quelle est la probabilité qu’il ait
engendré des difficultés légères ?

…………………………………………………………………………………………………………………………

1-Le révérend Thomas Bayes (1701-1761) est l’auteur de An Essay Towards


Solving a problem in the Doctrine of Chances qui fut publié qu’en 1763, après sa
mort.

Solution

Les trois événements : 𝐴1 = « aboutir en contentieux » ; 𝐴2 = « difficultés


légères » ; 𝐴3 = « aucune difficulté » forment un système complet. On dispose
des probabilités « à priori » :

𝑃(𝐴1 ) = 0,2 𝑃(𝐴2 ) = 0,3 𝑃(𝐴3 ) = 0,5

Ainsi que des probabilités conditionnelles pour les événements

𝐵 = "Score bas" et 𝐵̅ = "Score élevé"

𝑃(𝐵/𝐴1 ) = 0,9 𝑃(𝐵/𝐴2 ) = 0,6 𝑃(𝐵/𝐴3 ) = 0,15 D’où :

𝑃(𝐵) = 𝑃(𝐵 ∩ 𝐴1 ) + 𝑃(𝐵 ∩ 𝐴2 ) + 𝑃(𝐵 ∩ 𝐴3 )

𝑃(𝐵) = 𝑃(𝐵/𝐴1 ) × 𝑃(𝐴1 ) + 𝑃(𝐵/𝐴2 ) × 𝑃(𝐴2 ) + 𝑃(𝐵/𝐴3 ) × 𝑃(𝐴3 )


= 0,18 + 0,18 + 0,075 = 0,435

On en déduit :

𝑃(𝐴1 ∩ 𝐵) 𝑃(𝐵/𝐴1 ) × 𝑃(𝐴1 ) 0,9 × 0,2


𝑃(𝐴1 ⁄𝐵) = = = = 0,413793 ≅ 0,414
𝑃(𝐵) 𝑃(𝐵) 0,435

20
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

𝑃(𝐴2 ∩ 𝐵) 𝑃(𝐵/𝐴2 ) × 𝑃(𝐴2 ) 0,6 × 0,3


𝑃(𝐴2 ⁄𝐵) = = = = 0,41379 ≅ 0,414
𝑃(𝐵) 𝑃(𝐵) 0,435
𝑃(𝐴3 ∩ 𝐵) 𝑃(𝐵/𝐴3 ) × 𝑃(𝐴3 ) 0,15 × 0,5
𝑃(𝐴3 ⁄𝐵) = = = = 0,1724138
𝑃(𝐵) 𝑃(𝐵) 0,435
≅ 0,172

Ce calcul montre que l’information complémentaire « le dossier étudié


correspond à un score bas » a permis une augmentation de la probabilité
associée aux dossiers « en contentieux (0,414 au lieu de 0,2 ) » et de la
probabilité associée aux dossiers « difficultés légères (0,414 au lieu de 0,3) » et
une forte diminution de la probabilité associée à « aucune difficulté (0,172 au
lieu de 0,5) ».

Chapitre III : Quelques modèles statistiques élémentaires discrets


3- La loi binomiale
3.1 Epreuve de Bernoulli
Exemple : Considérons l’épreuve suivante : on lance un dé une fois et on ne
s’intéresse qu’à l’apparition de l’as. Deux évènements peuvent se produire : 𝐴,
le succès, l’as apparaît, ou 𝐴̅, l’échec, l’as n’apparaît pas :

𝑷(𝑨) = 𝑷 = 𝟏⁄𝟔 𝒆𝒕 ̅ ) = 𝒒 = 𝟓⁄ 𝟔
𝑷(𝑨 𝒂𝒗𝒆𝒄 𝑷 + 𝒒 = 𝟏

Une telle épreuve qui n’a que deux issues porte le nom d’épreuve de Bernoulli.
La variable aléatoire 𝑋𝑖 , correspond au nombre d’as et prend les valeurs 0 ou 1.
L’espérance mathématique de cette loi est : 𝒎 = 𝟏 × 𝒑 + 𝟎 × 𝒒 =
𝟏 𝟓 𝟏
𝒑 𝒔𝒐𝒊𝒕 𝒎 = 𝟏 × + 𝟎 × =
𝟔 𝟔 𝟔
3.2 La loi binomiale
Exemple : Répétons plusieurs fois l’épreuve de Bernoulli précédente. Si l’on
répète deux fois l’épreuve la variable 𝑋, nombre d’as apparus, prend des
valeurs 0, 1 ou 2 selon le schéma de la figure 2.4

21
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 2.4

Probabilité d’avoir deux as = 𝑃(𝑋 = 2) = 𝑃²


Probabilité d’avoir un as = 𝑃(𝑋 = 1) = 𝑝𝑞 + 𝑞𝑝 = 2𝑝𝑞
Probabilité de n’avoir aucun as = 𝑃(𝑋 = 0) = 𝑞²

Si on lance le dé trois fois, l’évènement obtenir un as peut se décomposer


ainsi :
●On obtient l’as au premier jet (probabilité 𝑃) et on ne l’a pas aux deux jets
suivants (probabilité 𝑞²).
●On n’a pas l’as au premier jet (probabilité 𝑞), on l’obtient au second jet
(probabilité 𝑃), et on ne l’obtient pas au troisième jet (probabilité 𝑞).
●On ne l’obtient pas aux deux premiers jets (probabilité 𝑞²) et on l’obtient au
troisième jet (probabilité 𝑃).
La probabilité d’avoir un as en trois jets est donc :

𝑃(𝑋 = 1) = 𝑝𝑞² + 𝑞𝑝𝑞 + 𝑞²𝑝 = 3𝑝𝑞²


22
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

D’une façon plus générale, si on répète 𝑛 fois une épreuve dont l’issue
est, soit le succès avec une probabilité 𝑃, soit l’échec avec une
probabilité 𝑞 𝑎𝑣𝑒𝑐 (𝑞 = 1 − 𝑝) , la probabilité d’avoir 𝑘 succès est donnée par
la formule :

𝑃(𝑋 = 𝑘) = ∁𝑘𝑛 𝑃 𝑘 (1 − 𝑃)𝑛−𝑘

Cette loi porte le nom de loi binomiale de paramètres 𝑛 𝑒𝑡 𝑝 , et se note


𝛽(𝑛, 𝑝).
Le terme ∁𝑘𝑛 est un nombre. On peut le calculer à partir de la
formule :

𝑛(𝑛 − 1)(𝑛 − 2) … (𝑛 − 𝑘 + 1)
∁𝑘𝑛 =
1 × 2 × 3…× 𝑘

Tableau 5
Nombre de succès
n 0 1 2 3 4 5 6 7 8 9
k
E 1 1 - - - - - - - -
p 1 2 1 - - - - - - -
r 3 1 3 3 1 - - - - - -
e 4 1 4 6 4 1 - - - - -
u 5 1 5 10 10 5 1 - - - -
v 6 1 6 15 20 15 6 1 - - -
e 7 1 7 21 35 35 21 7 1 - -
s 8 1 8 28 56 70 56 28 8 1 -
9 1 9 36 84 126 126 84 36 9 1

Il est parfois pratique de déterminer le nombre ∁𝑘𝑛 à l’aide du triangle de


Pascal (tabl.5).Ce tableau est tel que le nombre de la ligne 𝑛 et de la colonne 𝑘
est égal à la somme du nombre de la ligne 𝑛 − 1 et de la colonne 𝑘, et du
nombre de la ligne 𝑛 − 1 et de la colonne 𝑘 − 1
Exemple
La probabilité d’obtenir deux as en 5 jets est : 𝑃(𝑋 = 2) =
5×4
∁25 (1⁄6)²(5⁄6)5−2 𝑎𝑣𝑒𝑐 ∁25 = = 10
1×2
Nombre que l’on retrouve dans le triangle de Pascal.
D’où :
1250
𝑃(𝑋 = 2) = 10 × (1⁄6)² × ( 5⁄6 )3 = = 0,16
7776

23
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On montre que l’espérance mathématique d’une loi binomiale de paramètre 𝑛


et 𝑝 est : 𝑚 = 𝑛𝑝 , et que l’écart-type est : 𝜎 = √𝑛𝑝𝑞
Si au lieu de prendre pour variable aléatoire le nombre 𝑘 de succès de
l’évènement au cours de 𝑛 épreuves, on prend pour variable aléatoire la
𝑘
fréquence 𝑓 = du succès, les caractéristiques de la loi binomiale sont alors :
𝑛

𝑝𝑞
𝑚=𝑝 𝑒𝑡 𝜎= √
𝑛

Exemple
Dans une famille de 5 enfants, quelle est la probabilité d’avoir X garçon ?
Sur 1600 familles ayant 5 enfants, quel est le nombre théorique de familles
ayant 1, 2, 3, 4,5 garçons ?
On suppose que la probabilité pour qu’un enfant soit un garçon est de 1/2.
Comparer les résultats théoriques avec la distribution statistique réelle
obtenue en observant une population de 1600 familles de 5 enfants (tabl.6).
Représenter les, puis calculer les caractéristiques s’y afférant.
Tableau 6
1- Nombre Nombre de
de familles
garçons 2-Effectif
observé
0 46
1 254
2 501
3 506
4 248
5 45
●Si dans une famille on considère un enfant, soit c’est un garçon, soit c’est une
1
fille. L’épreuve est donc une épreuve de Bernoulli dont la probabilité est 𝑃 =
2
●Lorsque l’on considère des familles de 5 enfants, on répète 5 fois l’épreuve de
Bernoulli. On est donc en présence d’une loi binomiale, de paramètres 𝑛 =
1
5 𝑒𝑡 𝑃 = , dans laquelle la variable aléatoire 𝑋, nombre de garçons, prend les
2
valeurs de 0 à 5. La probabilité, en tenant compte de la formule générale, est :
𝑘
1 𝑘 1 5−𝑘
𝑃(𝑋 = 𝑘) = ∁5 ( ) ( )
2 2

1 1 5−0 1 1
Probabilité d’avoir : 0 garçon = 𝑃(𝑋 = 0) = ∁05 ( )0 ( ) = 1× =
2 2 25 32

24
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

1 1 5−1 1 1 5
Probabilité d’avoir : 1 garçon = 𝑃(𝑋 = 1) = ∁15 ( )1 ( ) = 5× × =
2 2 2 24 32

1 1 5−2 1 1
Probabilité d’avoir : 2 garçons = 𝑃(𝑋 = 2) = ∁25 ( )2 ( ) = 10 × × =
2 2 22 23
10
32

1 1 5−3 1 1
Probabilité d’avoir : 3 garçons = 𝑃(𝑋 = 3) = ∁35 ( )3 ( ) = 10 × × =
2 2 23 22
10
32

1 1 5−4 1 1
Probabilité d’avoir : 4 garçons = 𝑃(𝑋 = 4) = ∁45 ( )4 ( ) = 5× × =
2 2 24 2
5
32

1 1 5−5 1 1
Probabilité d’avoir : 5 garçons = 𝑃(𝑋 = 5) = ∁55 ( )5 ( ) = 1× =
2 2 25 32

Si on assimile fréquence et probabilité, le nombre de familles ayant 1,2,…,5


garçons sera aisément obtenu.
1
●la fréquence des familles à 0 garçon est de . Sur les 1600 familles, comme
32
valeur théorique il y aura :
1 1
= × 1600 = 50 𝑓𝑎𝑚𝑖𝑙𝑙𝑒𝑠 𝑠𝑎𝑛𝑠 𝑔𝑎𝑟ç𝑜𝑛
32 32
1600
5
●la fréquence des familles à 1 garçon est de . Sur les 1600 familles, nous
32
aurons :
5
× 1600 = 250 𝑓𝑎𝑚𝑖𝑙𝑙𝑒𝑠 à 𝑢𝑛 𝑔𝑎𝑟ç𝑜𝑛
32
10
● la fréquence des familles à 2 garçons est de . En valeur théorique nous
32
avons :
10 10
= × 1600 = 500 𝑓𝑎𝑚𝑖𝑙𝑙𝑒𝑠 à 𝑑𝑒𝑢𝑥 𝑔𝑎𝑟ç𝑜𝑛𝑠
32 32
1600

Et ainsi de suite (voir les résultats de l’effectif théorique dans le tableau 6.1 à la
colonne 3)

25
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Tableau 6.1
1- 2-Effectif 3- Effectif
Nombre observé théorique
de du des
garçons nombre familles
de
familles
0 46 50
1 254 250
2 501 500
3 506 500
4 248 250
5 45 50

Les représentations graphiques de la loi binomiale ne présentent pas de


difficultés particulières. Dans ce cas on obtient pour la distribution de
probabilité un diagramme en bâtons.

26
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 6.2
1 1
Le diagramme est symétrique lorsque 𝑃 = .Lorsque 𝑃 est différent de , le
2 2
diagramme est dissymétrique.

Exemple Représentons une loi binomiale de paramètres 𝑛 = 3 𝑒𝑡 𝑃 = 0,1.


Obtenons la figure 6.3 qui suit.

Tableau 6.2
𝑋 𝑃(𝑋 = 𝑘)
0 (0,1)0 (0,9)3
0 ∁3
= 0,729
1 ∁13 (0,1)1 (0,9)2
= 0,243
2 ∁23 (0,1)2 (0,9)1
= 0,027
3 ∁33 (0,1)3 (0,9)0
= 0,001
N 1
27
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 5.1

La moyenne de cette loi est : 𝑚 = 𝑛𝑝 = 3 × 0,1 = 0,3


La variance est : 𝑉 = 𝑛𝑝𝑞 = 3 × 0,1 × 0,9 = 0,27

𝜎 = √𝑛𝑝𝑞 = √0,27 = 0,5196 ≅ 0,52

Chapitre IV : La loi de Poisson

28
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Soit une variable aléatoire 𝑋 qui prend les variables 0, 1,2,…, 𝑛.On dit qu’elle
suit une loi de Poisson de paramètre 𝑚 ,lorsque la probabilité pour que 𝑋 = 𝑘
qui peut prendre toute valeur entière (0,1,…, 𝑛) est donnée par :
−𝑚
𝑚𝑘
𝑃(𝑋 = 𝑘) = ℮ ×
𝑘!

Le nombre ℮ est la base des logarithmes népériens :


℮ = 2,718 …
k ! Qui se lit « factoriel k » est égal à : k ! = 1 × 2 × 3 × … × k
Par définition 0 ! = 1
Le paramètre 𝑚 d’une loi de Poisson est égal à l’espérance mathématique de
la variable aléatoire. En outre, dans la loi de Poisson, l’espérance
mathématique est égale à la variance.

Exemple Soit une variable aléatoire 𝑋, prenant les valeurs entières 0, 1, 2,3 et
suivant une loi de Poisson de paramètre 𝑚 = 0,3. Déterminer la probabilité
des différentes valeurs de 𝑋 :

−0,3
(0,3)0
𝑃(𝑋 = 0) = ℮ × = 0,7408
0!

−0,3
(0,3)1
𝑃(𝑋 = 1) = ℮ × = 0,2222
1!

−0,3
(0,3)2
𝑃(𝑋 = 2) = ℮ × = 0,0334
2!

−0,3
(0,3)3
𝑃(𝑋 = 3) = ℮ × = 0,0033
3!

Les calculs peuvent se révéler longs, des tables permettent de les faciliter. Dans
cette loi, l’espérance est égale à la variance et vaut 0,3. Il est intéressant de
comparer ces résultats avec ceux obtenus dans l’exemple de la loi binomiale de
paramètres 𝑛 = 3 𝑒𝑡 𝑃 = 0,1
Les probabilités des différentes valeurs de cette variable aléatoire calculées à
partir de la loi binomiale ou à partir de la loi de Poisson sont relativement
proches.

29
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On montre que lorsque 𝑃 est faible et 𝑛 est grand, la loi de Poisson constitue
une bonne approximation de la loi binomiale. On prend alors pour paramètre
de la loi de Poisson l’espérance mathématique de la loi binomiale.
Exemple
Considérons une urne contenant 50 boules : 49 blanches et 1 (une) blanche. On
tire une boule et on la remet dans l’urne. On répète l’épreuve 100 fois et on
s’intéresse au nombre 𝑋 de boules noires apparues.La probabilité d’apparition
1
d’une boule noire au cours d’un tirage est faible : 𝑜𝑢 0,02.
50
L’épreuve étant répétée 100 fois on est en présence d’une loi binomiale
de paramètres 𝑛 = 100 , 𝑃 = 0,02 .
La probabilité pour que le nombre 𝑋 de boules noires soit égal à 𝑘 est :

𝑘 (0,02)𝑘 (0,98)100−𝑘
𝑃(𝑋 = 𝑘) = ∁100

L’espérance mathématique de cette loi est :𝑚 = 𝑛𝑝 = 100 × 0,02 = 2


La variance de cette loi est : V = 𝑛𝑝𝑞 = 100 × 0,02 × 0,98 = 1,96
Le calcul des différentes probabilités est ici extrêmement fastidieux. Mais dans
cette loi 𝑃 est faible, 𝑛 est grand et l’espérance est proche de la variance. On
peut donc se permettre de calculer les différentes probabilités de 𝑋, en
utilisant une loi de Poisson de paramètre 𝑚 = 2

−2
(2)2
𝑃(𝑋 = 2) = ℮ × = 0,271
2!

Résultat que l’on peut comparer à celui que l’on aurait obtenu avec beaucoup
plus de calculs par application de la loi binomiale :

2 (0,02)2 (0,98)100−2 2 (0,02)2 (0,98)98


𝑃(𝑋 = 2) = ∁100 = ∁100 = 0,273

La loi de Poisson n’est pas la plus fréquente des lois usuelles. Elle trouve
cependant son application dans l’étude des « évènements rares » : nombre de
naissances de triplés par an, nombre de fautes d’impression dans une page
d’un livre, prise au hasard….etc.

Pour le calcul : Deux méthodes de calcul numérique


1) Calcul direct : on peut utiliser la loi de récurrence immédiate :
𝜆 𝜆
𝑃(𝑋 = 𝑘) = × 𝑃𝑘−1 ⟺ 𝑃(𝑋 = 𝑘) = × 𝑃(𝑋 = 𝑘 − 1)
𝑘 𝑘
On calcul 𝑃(𝑋 = 0) = ℮−𝜆 (d’après les tables d’exponentielles)
Et on en déduit de proche en proche 𝑃1 , 𝑃2 ,…, 𝑃𝑘

30
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

2) Utilisation des tables de la loi de Poisson

Chapitre V Modèle statistique continu: La loi normale ou loi de Laplace-


Gauss

Caractère général et propriétés de la loi de Gauss

La loi de Gauss, encore appelée loi de Laplace-Gauss ou la loi normale est de


toutes les lois usuelles la plus fréquemment rencontrée.

Exemple
Observons, dans une usine, le poids des sacs de ciment à la sortie de la chaîne
d’ensachage. Les machines sont réglées pour que le poids des sacs soit de 50
kg. La majeure partie des sacs pèsera 50 kg environ. Peu de sacs pèseront 47 ;
48 ou 52 ; 53 kg. Plus on s’éloignera du poids de 50 kg, par valeur inférieure ou
par valeur supérieure, plus le nombre de sacs considérés sera faible.
On peut représenter cette distribution statistique au moyen de sa courbe
des fréquences (fig.5.2)

31
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 5.2
Lorsqu’une grandeur qui se reproduit, est soumise à l’influence d’un
grand nombre de facteurs de variations indépendants les uns des autres,
chacun exerçant des actions individuelles de faible intensité, dont les effets
tendent à se compenser, on montre que la distribution des valeurs de cette
grandeur suit une loi de Laplace-Gauss.
Ce type de distribution statistique correspond, en probabilité, à la loi de
Gauss. La courbe des fréquences idéalisée porte alors le nom de densité de
probabilité et a pour équation :

1 −
(X−m)2
𝑓(𝑥) = × ℮ 2σ2
𝜎 √2𝜋

Dans cette expression 𝑚 est la moyenne de la distribution, 𝜎 son écart type, et


℮ est la base des logarithmes népériens ( ℮ = 2,718 … )
On dit que le poids des sacs de ciment suit une loi normale de
paramètres 𝑚 et 𝜎, ce qui se note : 𝑁(𝑚 , 𝜎).
Cette distribution possède un certain nombre de propriétés :

32
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

1-Une distribution normale est symétrique. Dans une distribution normale le


mode, la médiane, et la moyenne sont donc confondus.
2-La fréquence est maximale pour la valeur moyenne de la variable aléatoire et
diminue lorsque la variable s’écarte de la moyenne.
3-Dans une distribution normale, la variable aléatoire est continue ; l’étendue
de cette variable est infinie. Cela signifie que la variable peut prendre des
valeurs extrêmement grandes et des valeurs extrêmement faibles.
En d’autres termes, la courbe des fréquences ne rejoint jamais l’axe horizontal.
En fait, on montre que :
● 68 % des observations correspondent à une valeur de la variable aléatoire
comprise entre la moyenne plus (+) ou moins (−) un (1) écart-type ;
● 95 % des observations correspondent à une valeur de la variable comprise
entre la moyenne plus (+) ou moins (−) deux (2) écart-types ;
● 99,8 % des observations correspondent à une valeur de la variable comprise
entre la moyenne plus (+) ou moins (−) trois (3) écart-types. Voir (fig.7)
Dans ce dernier résultat, la quasi-totalité des observations de la variable
aléatoire appartient à un intervalle borné. Puis, montre que cette loi théorique
peut servir de modèle à des phénomènes réels.

33
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 5.3

4-Une distribution normale est entièrement déterminée par sa moyenne et son


écart-type.
● La figure 5.4 présente des courbes de Gauss de même écart-type, mais de
moyennes différentes.
● La figure 5.5 montre des courbes de Gauss de même moyenne, mais d’écart-
types différents.

34
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

La connaissance de 𝑚 et de 𝜎 permet de déterminer la probabilité qu’a la


variable aléatoire, d’appartenir à un intervalle quelconque. La mesure de la
surface située sous la courbe des fréquences entre deux valeurs 𝑎 et 𝑏 du
caractère mesure la fréquence des individus dont le caractère appartient à cet
intervalle.
De même la mesure de la surface située sous la courbe de densité de
probabilité, entre deux valeurs 𝑎 et 𝑏 de la variable aléatoire correspond à la
probabilité qu’à la variable d’appartenir à cet intervalle (fig.5.6)

35
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Etudier la probabilité d’une variable aléatoire qui suit une loi normale se
ramène donc à une mesure de surface.

Utilisation pratique de la loi normale


Toute loi normale, de paramètres 𝑚 et 𝜎, peut être transformée par
changement de variable en une loi normale de moyenne 0 et d’écart-type 1.
Cette dernière loi, notée 𝑁(0,1) , est appelée loi normale, centrée
réduite.
Le changement de variable permettant cette transformation est :

𝑋−𝑚
𝑡= , 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒 𝑋 = 𝑚 + 𝑡 × 𝜎
𝜎
𝑡 est appelé variable centrée réduite. La fonction densité de probabilité est
alors simplifiée (fig.5.6&5.7) et s’écrit :

1 t2
𝑓(𝑡) = × ℮− 2
√2𝜋

36
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Ce changement de variable ne modifie pas la mesure de la probabilité d’un


évènement. La probabilité pour que la variable 𝑋 appartienne à
l’intervalle(𝑎, 𝑏) est mesuré par la surface située sous la courbe entre 𝑎 et 𝑏.
On peut encore dire que cette probabilité est égale au rapport de la surface
hachurée à la surface totale, puisque cette dernière est égale à l’unité de

37
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

mesure. Le changement de variable ne modifie pas la probabilité, car surface


hachurée et surface totale de la courbe sont modifiées de la même façon
(fig.5.7).
Autrement dit :
𝑃(𝑎 ≤ 𝑋 < 𝑏) = 𝑃(𝑎′ ≤ 𝑡 < 𝑏 ′ ) (Voir fig.5.8)

Figure 5.8
L’étude de la loi normale centrée réduite est facilitée par l’existence de tables.
Celle que nous utiliserons (Voir annexe 1) fournit les valeurs de la surface
située sous la courbe centrée réduite jusqu’à une valeur donnée de la variable.
Cette table qui donne le cumul croissant des probabilités est donc une table de
la fonction de répartition 𝐹(𝑥) de la variable aléatoire gaussienne (fig.5.9 et
5.10).
Ainsi la valeur de 𝐹(1,35) se lit à l’intersection de la ligne 1,3 et de la colonne
0,05 :
𝐹(1,35) = 0,9115

38
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 5.10

3-Exemple
Dans une cimenterie, le poids des sacs de ciment à la sortie de l’atelier
d’emballage suit une loi normale de moyenne 50 kg et d’écart type 2 kg. L’usine
fabrique 80000 sacs de ciment par mois.
1-Combien de sacs pèseront : moins de 52 kg ? 51 kg et plus ? Moins de 47,3
kg ? 49,5 kg et plus ? Entre 51 et 53 kg ? Entre 48 et 49 kg ? Entre 49 et 53 kg ?
2-Quel sera le poids dépassé par : 20000 sacs ? 50000 sacs ?
(Source : données d’enquête sur la production de ciment, dans une industrie
manufacturière)

39
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Solution
Soit 𝑋 la variable aléatoire « poids d’un sac » Elle suit une loi normale 𝑁(50,2)
a) La probabilité pour qu’un sac pèse moins de 52 kg est notée 𝑃(𝑋 < 52)
(fig.5.9)
𝑋−𝑚
On effectue le changement de variable 𝑡 =
𝜎
52−50
à 𝑋 = 52 correspond à la variable centrée réduite : 𝑡 = =1 Alors la
2
probabilité devient

𝑃(𝑋 < 52) = 𝑃(𝑡 < 1)


La lecture de la table de la fonction de répartition de la loi normale centrée,
réduite donne la valeur suivante :
𝑃(𝑋 < 52) = 𝑃(𝑡 < 1) = 𝐹(1) = 0,8413

40
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 5.10
En assimilant fréquence et probabilité, on peut dire que 84,13 % des sacs
pèseront moins de 52 kg.
Il y aura donc : 𝒏 = 𝟎, 𝟖𝟒𝟏𝟑 × 𝟖𝟎𝟎𝟎𝟎 =
𝟔𝟕𝟑𝟎𝟒 𝒔𝒂𝒄𝒔 𝒅𝒆 𝒑𝒐𝒊𝒅𝒔 𝒊𝒏𝒇é𝒓𝒊𝒆𝒖𝒓 à 𝟓𝟐 𝒌𝒈.
b) La probabilité pour qu’un sac pèse 51 kg et plus est mesurée par la surface
hachurée sous la courbe (fig.5.10).
La surface totale située sous la courbe étant égale à l’unité :
𝑃(𝑋 ≥ 51) = 1 − 𝑃(𝑋 < 51)
𝑋−𝑚
à 𝑋 = 52 correspond à la variable centrée réduite avec 𝑡 =
𝜎
51−50
𝑡= = 0,5 ; On a donc :
2
𝑃(𝑋 ≥ 51) = 1 − 𝑃(𝑋 < 51) = 1 − 𝑃(𝑡 < 0,5)
𝑃(𝑋 ≥ 51) = 1 − 𝑃(𝑡 < 0,5) = 1 − 0,6915 = 0,3085

𝑷(𝑿 ≥ 𝟓𝟏) = 𝟎, 𝟑𝟎𝟖𝟓

41
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 6.1

On peut dire que 30,85 % des sacs pèse 51 kg et plus. Il y a donc :


𝒏 = 𝟎, 𝟑𝟎𝟖𝟓 × 𝟖𝟎𝟎𝟎𝟎 =
𝟐𝟒𝟔𝟖𝟎 𝒔𝒂𝒄𝒔 𝒅𝒆 𝒑𝒐𝒊𝒅𝒔 é𝒈𝒂𝒍 𝒐𝒖 𝒔𝒖𝒑é𝒓𝒊𝒆𝒖𝒓 à 𝟓𝟏 𝒌𝒈.
c) La probabilité pour qu’un sac pèse moins de 47,3 kg est notée (fig.6.2) :
𝑋−𝑚
𝑃(𝑋 < 47,3) ; à 𝑋 = 47,3 avec 𝑡 = correspond à
𝜎
47,3 − 50
𝑡=( ) = −1,35
2

𝑃(𝑋 < 47,3) = 𝑃( 𝑡 < −1,35)

42
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 6.2
La table ne fournit pas les valeurs de la fonction de répartition pour les valeurs
négatives de 𝑡 .
Mais des considérations de symétrie permettent de résoudre le problème :
𝑃( 𝑡 < −1,35) = 1 − 𝑃( 𝑡 < 1,35)
Puis avec la table de répartition de la loi normale, centrée réduite, nous
avons :
𝑃( 𝑡 < −1,35) = 1 − 𝑃( 𝑡 < 1,35) = 1 − 0,9115 = 0,0885
Il y a donc 𝒏 = 𝟎, 𝟎𝟖𝟖𝟓 × 𝟖𝟎𝟎𝟎𝟎 =
𝟕𝟎𝟖𝟎 𝒔𝒂𝒄𝒔 𝒅𝒆 𝒑𝒐𝒊𝒅𝒔 𝒊𝒏𝒇é𝒓𝒊𝒆𝒖𝒓 à 𝟒𝟕, 𝟑 𝒌𝒈
d) La probabilité pour qu’un sac pèse 49,5 kg ou plus est notée :
𝑋−𝑚 (49,5−50)
𝑃(𝑋 ≥ 49,5) ; à 𝑋 = 49,5 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡 = ⟺ 𝑡= =
𝜎 2
−0,25 :
𝑃(𝑋 ≥ 49,5) = 1 − 𝑃(𝑋 < 49,5) = 1 − 𝑃(𝑡 < −0,25) (fig.6.3)

𝑃(𝑡 < −0,25) = 1 − 𝑃(𝑡 < 0,25) ⟺


𝑃(𝑋 ≥ 49,5) = 1 − 𝑃(𝑡 < −0,25) On sait que : 𝑃(𝑡 < −0,25) = 1 −
𝑃(𝑡 < 0,25) Alors
𝑃(𝑋 ≥ 49,5) = 1 − [1 − 𝑃(𝑡 < 0,25)] D’où :
43
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

𝑃(𝑋 ≥ 49,5) = 𝑃(𝑡 < 0,25) = 0,5987


Ce que des considérations de symétrie de la courbe permettent de retrouver
(fig.6.3 & 6.4)
Il y a donc 𝒏 = 𝟎, 𝟓𝟗𝟖𝟕 × 𝟖𝟎𝟎𝟎𝟎 =
𝟒𝟕𝟖𝟗𝟔 𝒔𝒂𝒄𝒔 𝒅𝒆 𝒑𝒐𝒊𝒅𝒔 𝒔𝒖𝒑é𝒓𝒊𝒆𝒖𝒓 𝒐𝒖 é𝒈𝒂𝒍 à 𝟒𝟗, 𝟓 𝒌𝒈

44
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figures 6.3 &6 .4

e) La probabilité pour un sac de peser entre 51 et 53 kg est notée:

𝑋−𝑚
𝑃(51 ≤ 𝑋 < 53) ; à 𝑋 = 51 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡=
𝜎
(51−50)
= 0,5 Et
2

𝑋−𝑚
𝑃(51 ≤ 𝑋 < 53) ; à 𝑋 = 53 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡
𝜎
(53 − 50)
= = 1,5
2

𝑃(51 ≤ 𝑋 < 53) = 𝑃(0,5 ≤ 𝑡 < 1,5)


= 𝐹(1,5) − 𝐹(0,5)
𝑃(51 ≤ 𝑋 < 53) = 0,9332 − 0,6915 = 0,2417

45
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 6.4

Il y a 𝒏 = 𝟎, 𝟐𝟒𝟏𝟕 × 𝟖𝟎𝟎𝟎𝟎 =
𝟏𝟗𝟑𝟑𝟔 𝒔𝒂𝒄𝒔 𝒅𝒐𝒏𝒕 𝒍𝒆 𝒑𝒐𝒊𝒅𝒔 𝒆𝒔𝒕 𝒄𝒐𝒎𝒑𝒓𝒊𝒔 𝒆𝒏𝒕𝒓𝒆 𝟓𝟏 𝒆𝒕 𝟓𝟑 𝒌𝒈.

f) La probabilité pour un sac de peser entre 48 et 49 kg est notée (voir fig.6.5) :

𝑋−𝑚
𝑃(48 ≤ 𝑋 < 49) ; à 𝑋 = 48 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡=
𝜎
(48−50)
= −1 Et
2

𝑋−𝑚
𝑃(48 ≤ 𝑋 < 49) ; à 𝑋 = 49 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡
𝜎
(49 − 50)
= = −0,5
2

𝑃(48 ≤ 𝑋 < 49) = 𝑃(−1 ≤ 𝑡 < −0,5)


= 𝑃(0,5 ≤ 𝑡 < 1)

46
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

= 𝐹(1) − 𝐹(0,5)

𝑃(48 ≤ 𝑋 < 49) = 0,8413 − 0,6915 = 0,1498

47
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Figure 6.5

Le nombre de sacs pesant entre 48 et 49 kg est donc : 𝒏 = 𝟎, 𝟏𝟒𝟗𝟖 ×


𝟖𝟎𝟎𝟎𝟎 = 𝟏𝟏𝟗𝟖𝟒 .
Le passage des valeurs négatives aux valeurs positives de la variable 𝑡 utilise les
propriétés de symétrie de la courbe.

g) La probabilité pour un sac de peser entre 49 et 53 kg est notée (voir fig.6.6) :

𝑋−𝑚
𝑃(49 ≤ 𝑋 < 53) ; à 𝑋 = 49 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡=
𝜎
(49−50)
= −0,5 Et
2

𝑋−𝑚
𝑃(49 ≤ 𝑋 < 53) ; à 𝑋 = 53 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡
𝜎
(53 − 50)
= = 1,5
2

𝑃(49 ≤ 𝑋 < 53) = 𝑃(−0,5 ≤ 𝑡 < 1,5)


= 𝐹(1,5) − 𝐹(−0,5)
𝑃(49 ≤ 𝑋 < 53) = 𝐹(1,5) − [1 − 𝐹(0,5)]
= 0,9332 − [1 − 0,691 ]
= 0,9332 − 0,3085
𝑃(49 ≤ 𝑋 < 53) = 0,6247

48
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

49
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Il y a donc : 𝒏 = 𝟎, 𝟔𝟐𝟒𝟕 × 𝟖𝟎𝟎𝟎𝟎 =


𝟒𝟗𝟗𝟕𝟔 𝒔𝒂𝒄𝒔 𝒅𝒐𝒏𝒕 𝒍𝒆 𝒑𝒐𝒊𝒅𝒔 𝒆𝒔𝒕 𝒄𝒐𝒎𝒑𝒓𝒊𝒔 𝒆𝒏𝒕𝒓𝒆 𝟒𝟗 𝒆𝒕 𝟓𝟑 𝒌𝒈

La question 2 pose le problème inverse de celui que nous venons d’étudier.


Connaissant le nombre de sacs de poids supérieur ou inférieur à un poids
donné il s’agit de déterminer ce poids.

h) Quel est le poids dépassé par 20000 sacs ?

En d’autres termes, 20000 sacs sur 80000, soit 25 % des sacs dépassent un
certain poids. Cela signifie que 75 % des sacs pèsent moins de ce poids 𝑋0 , à
déterminer :
Donc 𝑃(𝑋 ≤ 𝑋0 ) = 0,75
Soit P (𝑡 < 𝑡0 ) = 0,75 ou encore 𝐹(𝑡0 ) = 0,75 (fig.6.7)

On cherche dans la table, la valeur 𝑡0 telle que


𝐹(𝑡0 ) = 0,75
50
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

On lit 𝐹(0,67) = 0,7486 Ce nombre est proche de 0,75, on prendra 𝑡0 =


0,67.
Il suffit alors de déterminer la variable aléatoire 𝑋0 au moyen du changement
de variable
𝑋0 = 𝑚 + 𝑡0 𝜎 ∶
𝑿𝟎 = 𝟓𝟎 + 𝟐 × 𝟎, 𝟔𝟕 = 𝟓𝟏, 𝟑𝟒 𝒌𝒈

i) Quel est le poids dépassé par 50000 sacs ?


50000 sacs sur les 80000 soit 62,5 % des sacs dépassent un certain poids 𝑋0 à
déterminer :
𝑃(𝑋 ≥ 𝑋0 ) = 0,625 Alors
𝑃(𝑋 < 𝑋0 ) = 0,375 Soit :
𝑃(𝑡 < 𝑡0 ) = 𝐹(𝑡0 ) = 0,375
𝐹(𝑡0 ) = 0,375 n’est pas dans la table. On cherche dans la table la valeur 𝑡′0
symétrique de 𝑡0 par rapport au nombre 0 (fig.6.8)
𝐹(𝑡′0 ) = 0,625 Donc 𝑡′0 = 0,32
𝑡0 , symétrique de 𝑡′0 a donc pour valeur 𝑡0 = −0,32
𝐹(𝑡0 ) = 0,375 ⟹ 𝐹(𝑡′0 ) = 1 − 0,375 = 0,625
Selon la table 𝐹(𝑡′0 ) = 0,625 donc 𝑡′0 = 0,32
La variable aléatoire 𝑋0 est obtenue à l’aide du changement de variable.
𝑋0 = 𝑚 + 𝑡0 × 𝜎 = 50 + (−0,32) × 2 = 49,36 𝑘𝑔 ;
50000 sacs ont un poids supérieur à 49,36 kg

51
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Compléments sur la loi de Gauss

Probabilités de certains intervalles remarquables.


Il est intéressant de savoir quelle est la probabilité pour qu’une variable
gaussienne suivant une loi de paramètres 𝑚 𝑒𝑡 𝜎 appartienne à l’intervalle
[𝑚 − 𝜎 ; 𝑚 + 𝜎]
Soit 𝑋1 = 𝑚 − 𝜎 et 𝑋2 = 𝑚 + 𝜎

Les variables centrées réduites correspondantes sont :

𝑋1 − 𝑚 (𝑚 − 𝜎) − 𝑚
𝑡1 = = = −1
𝜎 𝜎

Et

𝑋2 − 𝑚 (𝑚 + 𝜎) − 𝑚
𝑡2 = = = +1
𝜎 𝜎

52
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

𝑃(𝑚 − 𝜎 ≤ 𝑋 < 𝑚 + 𝜎) = 𝑃(−1 ≤ 𝑡 < 1) = 0,682

De la même façon, la probabilité pour qu’une variable aléatoire appartienne à


l’intervalle

[𝑚 − 2𝜎 ; 𝑚 + 2𝜎 ] est de 0,9542.

On peut encore dire que la variable centrée réduite appartient à l’intervalle


[−2 ; +2 ] avec une probabilité de 0,9542.
On retrouve ainsi les résultats exposés

Figure 6.9

Approximation de la loi binomiale par une loi normale.

Nous avons vu que, lorsque dans une loi binomiale 𝛽(𝑛, 𝑝), la probabilité 𝑃
était proche de 0,5, la distribution était symétrique. Si 𝑛 est assez grand à
savoir (𝑛 > 30) la loi de Gauss constitue une bonne approximation de la loi
binomiale.

53
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Cette loi de Gauss admet alors pour paramètres = 𝑛𝑝 , espérance de la


loi binomiale et 𝜎 = √𝑛𝑝𝑞 , l’écart type de la loi binomiale.

Exemple
Soit une variable 𝑋, qui suit une loi binomiale de paramètres 𝑚 = 400 et 𝑝 =
0,5.
Déterminer la probabilité pour que 𝑋 soit compris entre 180 et 210 :
𝑚 = 𝑛𝑝 = 200
𝜎 = √𝑛𝑝𝑞 = √400 × 0,5 × 0,5 = 10
En utilisant la loi normale 𝑁(200; 10) comme approximation de la loi
binomiale, on obtient :
𝑃(180 ≤ 𝑋 < 210) On effectue le changement de variable :
𝑋−𝑚
𝑃(180 ≤ 𝑋 < 210) ; à 𝑋 = 180 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡=
𝜎
(180−200)
= −2 Et 𝑃(180 ≤ 𝑋 < 210) ; à 𝑋=
10
𝑋−𝑚 (210−200)
210 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑡= ⟺ 𝑡= = 1
𝜎 10
𝑃(180 ≤ 𝑋 < 210) = 𝑃(−2 ≤ 𝑡 < 1 ) = 𝐹(1) − 𝐹(−2)
= 𝐹(1) − [1 − 𝐹(2)]
= 0,8413 − 0,0228 = 0,8185

Remarques sur le caractère gaussien de certaines distributions


Le caractère très général de la loi normale conduit à la considérer comme une
loi quasi universelle. Il convient cependant de n’affirmer qu’avec prudence le
caractère gaussien d’une distribution statistique.
Supposer que la distribution d’un caractère quelconque est normale, c’est
supposer que la distribution de ce caractère est déterminée par le hasard.
En d’autres termes, on obtiendra une distribution gaussienne chaque fois que
la population observée sera homogène au regard du caractère considéré.
La sensibilité de l’instrument de mesure du caractère, le choix de l’amplitude
de classe permettant de tracer la courbe peuvent parfois contribuer à rendre
gaussien des phénomènes qui ne le sont pas. Admettre pour normale une
distribution qui ne l’est pas (ou qui ne l’est qu’imparfaitement) c’est gommer
l’absence d’homogénéité de la population étudiée. Cette opération à priori
purement mathématique, peut parfois ne pas être idéologiquement neutre.

54
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

ANNEXES

TABLE DE REPARTITION DE LA LOI NORMALE, CENTREE, REDUITE

𝒕 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09

0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359

0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5896 0,5636 0,5675 0,5714 0,5753

0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141

0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517

0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879

0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224

0,6 0,7257 0,7290 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549

0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852

0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133

55
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

0,9 0,8159 0,8186 0,8212 0,8238 0,8254 0,8289 0,8315 0,8340 0,8365 0,8389

1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621

1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830

1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015

1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177

1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319

1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441

1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545

1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633

1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0 ,9678 0,9686 0,9693 0,9699 0,9706

1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0 ,9750 0,9756 0,9761 0,9767

2,0 0,9772 0,9779 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817

2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857

2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890

2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916

2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936

2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952

2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964

2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974

2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981

2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986

56
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

Table pour les grandes valeurs de 𝒕

𝒕 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,8 4,0

𝑭(𝒕) 0,99865 0,99904 0,99931 0,99952 0,99966 0,99975 0,999841 0,999928 0,9

Nota-La table donne les valeurs de 𝐹(𝑡) pour 𝑡 positif. Lorsque 𝑡 est négatif il
faut prendre le complement à l’unité de la valeur lue 𝑡 < 0 ∶ 𝐹(𝑡) = 1 −
𝐹(− 𝑡)
Exemple : pour 𝑡 = 1,37 𝐹(𝑡) = 0,9147

pour 𝑡 = −1,37 𝐹(𝑡) = 0,0853

57
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

58
Principes et méthodes de Probabilité Dr A.Laubhouet Lavry
lavryabel@yahoo.fr

59

Vous aimerez peut-être aussi