Vous êtes sur la page 1sur 25

Problème type sur les probabilités

conditionnelles
et méthode intuitive et révolutionnaire pour
le résoudre
3 usines A, B et C fabriquent des pièces. Elles se partagent le marché de la manière
suivante : 55% pour A, 35% pour B et 10% pour C. Certaines pièces fabriquées
sont défectueuses; le taux de pièces défectueuses est de 10% dans l'usine A, 8%
dans l'usine B et 20% dans l'usine C.

On voudrait calculer un certain nombre de valeurs, par exemple :

- probabilité qu'une pièce mise sur le marché soit défectueuse

- probabilité qu'une pièce défectueuse vienne de A

- probabilité qu'une pièce non défectueuse vienne de B...


Ce type de problème est classique et donne lieu à deux types de résolution en
général :

-Méthode 1 : très compliquée avec des formules partout et applications de


théorèmes et définitions

-Méthode 2 : construction d'arbres pour symboliser le problème;

Aucune de ces deux méthodes ne convient, parce qu'elles sont appliquées comme
des recettes de cuisine, sans comprendre ce qu'on fait;

Il est temps d'évoluer, de passer des arbres aux cases !! (cf Darwin)

Traduisons toutes les données de l'énoncé dans un tableau et voyons ce que l'on
peut en déduire,

Fixons la production globale, par exemple à 1000 pièces (on aurait pu prendre un
autre nombre, le choix est arbitraire et n'influe pas sur la résolution du problème
mais il vaut mieux faire en sorte de ne pas avoir de nombres décimaux à trainer...)

55% des pièces proviennent de A, soit 550, 35% des pièces proviennent de B,
soit 350 10% des pièces proviennent de C, soit 100

Défectueuses Pas Défectueuses TOTAL


A . . 550
B . . 350
C . . 100
TOTAL . . 1000

10% des pièces provenant de A sont défectueuses, soit 55 = 550 x 0,10


8% des pièces provenant de B sont défectueuses, soit 28 = 350 x 0,08
20% des pièces provenant de C sont défectueuses, soit 20 = 100 x 0,20

Défectueuses Pas Défectueuses TOTAL


A 55 . 550
B 28 . 350
C 20 . 100
TOTAL 103 . 1000

On peut, par soustraction déduire la valeur des cases de droite (non défectueuses)

Défectueuses Pas Défectueuses TOTAL


A 55 505 550
B 28 322 350
C 20 80 100
TOTAL 103 . 1000

Le calcul de la dernière case peut s'effectuer de deux manières et permettre la


vérification des calculs précédents : 1000-103 ou 505+322+80 = 897

Défectueuses Pas Défectueuses TOTAL


A 55 505 550
B 28 322 350
C 20 80 100
TOTAL 103 897 1000

Une fois ce tableau constitué, vous êtes à même de répondre à toutes les questions
posées (et les autres)

- probabilité qu'une pièce mise sur le marché soit défectueuse = 103/1000 =


10,3%

- probabilité qu'une pièce défectueuse vienne de A = 55/103 (parmi les


défectueuses, lesquelles viennent de A?)

- probabilité qu'une pièce non défectueuse vienne de B = 322/897 (parmi les


non défectueuses, lesquelles viennent de B?)

- probabilité qu'une pièce soit défectueuse et vienne de C = 20/1000 (parmi


toutes les pièces, il y en a 20 à la fois défectueuses et venant de C)

La Notion de Probabilité conditionnelle permet d'établir un résultat important en


Calcul des Probabilités : le Théorème de Bayes

A et B est le même événement que B et A, ils ont donc la même probabilité; si on


applique la formule précédente à B et A, on obtient :

P(B et A) = P(A) x P(B si A)

On a donc P(A et B) = P(B) x P(A si B) = P(B et A) = P(A) x P(B si A)


donc P(B) x P(A si B) = P(A) x P(B si A)
donc : P(B si A) = P(A si B) x P(B) / P(A)
Cette formule permet de calculer des probabilités dites a posteriori
On peut utiliser les probabilités conditionnelles pour calculer des probabilités
complexes :

Supposez par exemple, que vous ayez à calculer la probabilité d'un événement B et
que celle-ci soit difficile à établir.

Subdivisez la réalité en plusieurs cas, par exemple A1, A2, A3, A4, A5; si vous
avez bien choisi les cas, il sera plus facile de déterminer les probabilités suivantes :
P(A1) P(A2) P(A3) P(A4) P(A5) et P(B si A1) P(B si A2) P(B si A3) P(B si
A4) P(B si A5)

Et d'agréger ensuite le tout :

La probabilité de B est la résultante des probabilités de B dans chacun des cas


A1,A2,A3,A4,A5 en tenant compte de l'importance respective de chacun des cas,
soit :
P(B) = P(B si A1)xP(A1) + P(B si A2)xP(A2) + +P(B si
A3)xP(A3) + P(B si A4)xP(A4) + P(B si A5)xP(A5)
Cette Formule s'appelle Formule des probabilités totales

La Formule des probabilités totales et le TH de Bayes peuvent vous sembler


compliquées, vous les avez pourtant appliquer intuitivement en résolvant le
Problème Type sur les Pièces défectueuses.

Reprenons :

- probabilité qu'une pièce mise sur le marché soit défectueuse = 103/1000 = 10,3%

Comment obtient-on le 103 ? En additionnant 55, 28 et 20. Donc 103/1000 =


0,055 + 0,028 + 0,020

en notant D l'événement "la pièce est défectueuse"

Comment obtient-on 55 ? En multipliant 550 par 0,10, soit 1000 par 0,55 puis par
0,10. 0,55 = P(A) et 0,10 = P(D si A)
Comment obtient-on 28 ? En multipliant 350 par 0,08, soit 1000 par 0,35 puis par
0,08. 0,35 = P(B) et 0,10 = P(D si B)
Comment obtient-on 20 ? En multipliant 100 par 0,20, soit 1000 par 0,10 puis par
0,20. 0,10 = P(C) et 0,20 = P(D si C)

Donc P(D) = 93/1000 = (0,55 x 0,10) + (0,35 x 0,08) + (0,10 x0,20) = P(A)xP(D si
A) + P(B)xP(D si B) + P(C)xP(D si C)
Formule des probabilités totales
- probabilité qu'une pièce défectueuse vienne de A = 55/103 = 0,055/0,103

Donc P(A si D) = 0,55 x 0,10 / 0,103 = P(A) x P(D si A) / P(D)


TH de Bayes

VARIABLES ALEATOIRES

Une variable aléatoire, c'est un alea numérique, quelque chose de numérique qui
prend ses valeurs aléatoirement.

Quand le nombre de valeurs possibles est fini, on dit que la v.a. est discrète.

Quand le nombre de valeurs possibles est infini, mais que les valeurs sont isolées
(par exemple, des nombres entiers), on dit que la v.a. est entière.

Quand le nombre de valeurs possibles est infini et que ses valeurs ne sont pas
isolées, (c'est à dire qu'entre deux valeurs quelconques, aussi proches soient-elles, il
y en a toujours d'autres) on dit que la v.a. est continue.

Par exemple, le résultat d'un dé est une v.a. discrète (on la notera X).

Par exemple, le nombre de lancers nécessaires pour faire tomber une pièce sur Pile
est une v.a. entière (on la notera Y).

Par exemple, la taille d'un nouveau-né est une v.a. continue (on la notera Z).
Distribution de probabilité :

Quand on traite une variable discrète ou entière, la distribution de probabilité est


la donnée des probabilités d'apparition des différentes valeurs de la v.a.

Par exemple

P(X=1) = 1/6, P(X=2) = 1/6, ......., P(X=6) = 1/6 c'est à dire P(X=k) = 1/6
pour k= 1,2,....6.

P(Y=k) = (1/2)k (les k-1 premiers lancers doivent donner Face et le


kème Pile; ils sont indépendants).

On peut donner la distribution de probabilité (on dit aussi loi de probabilité) sous la
forme d'une formule générale ou d'un tableau à simple entrée (dans le cas d'une v.a.
discrète).

Densité de probabilité :

Quelle est la probabilité que la taille d'un nouveau-né soit égale à 50 cm (on
supposera une précision de mesure illimitée) ?

Il y a une infinité de tailles possibles; la probabilité qu'elle vaille 50 est donc égale

à .......0 = .

Dans le cas d'une variable continue, toute probabilité ponctuelle (la probabilité
d'apparition d'une valeur) est nulle.
Pourtant, la probabilité que la taille du nouveau-né soit comprise entre 20 et 70 cm
n'est pas nulle (elle a même tendance à valoir quasiment 1).

Il y a donc un paradoxe : une somme de probabilités nulles, qui ne vaut pas 0. C'est
possible car le nombre de termes de la somme est infini.

Quand vous avez rencontré des "points" en géométrie, on vous a dit qu'ils n'avaient
pas de dimension, donc pas de longueur, et pourtant un segment de droite (composé
de points), lui, a une longueur. C'est ici le même paradoxe : une infinité de 0, ça ne
vaut pas forcément 0 !

Compte tenu de cette remarque, il n'est pas question de définir une distribution de
probabilité pour une v.a. continue puisque toutes les probabilités ponctuelles sont
nulles.

Dans le cas d'une v.a. continue, on définira une densité de probabilité pour
chaque valeur, une espèce de "probabilité linéique" analogue, par exemple à la
notion de masse volumique en Physique.

On notera cette densité f(x). C'est une fonction continue et la surface sous sa courbe
représentative est égale à 1 puisqu'elle représente la somme des probabilités,

d'où (la surface, c'est l'intégrale !).

Espérance :
L'espérance d'une v.a (qu'on notera E(.))., c'est concrètement "la valeur moyenne"
prise par cette v.a., on la calcule en multipliant les différentes valeurs possibles par
leur probabilité d'apparition et en faisant la somme des résultats obtenus.

Par
exemple,

Variance :

L'utilité de la variance (notée V(.)) sera de mesurer la dispersion de la v.a. par


rapport à son espérance.

Par définition, la variance sera égale à l'espérance du carré de l'écart à l'espérance


de la v.a. :

V(X) =E[(X-E(X))²]

Comme en Statistique, on n'utilise jamais cette définition pour le calcul


pratique de la variance.

Pour effectuer pratiquement ce calcul, on utilise la propriété suivante : la variance,


c'est l'espérance du carré moins le carré de l'espérance.

V(X) = E(X²) - E(X)²


Dans l'exemple du dé,

On appellera écart-type (noté ) la racine carrée de la variance

COUPLE DE VARIABLES
ALEATOIRES

Considérons le tableau suivant (appelé tableau à double entrée):

X \ Y 0 1 2 Total
1 1/10 3/10 2/10 6/10
2 2/10 1/10 1/10 4/10
Total 3/10 4/10 3/10 1

On étudie simultanément deux variables aléatoires : X qui peut prendre les valeurs
1 et 2,

Y qui peut prendre les valeurs 0,1 et


2.

On trouve dans le tableau les probabilités d'apparition simultanée des différentes


valeurs de X et Y.

Par exemple, la probabilité que X soit égale à 1 et Y égale à 2 vaut 2/10.


On appelle la donnée de ces probabilités : la loi de probabilité du couple (X,Y) (on
dit aussi conjointe ou croisée, on parle aussi de distribution de probabilité du
couple).

Le total des probabilités de la première ligne (6/10) représente la probabilité que X


prenne la valeur 1.

La colonne Total représente donc la distribution de probabilité de la seule variable


X (on parle de loi de probabilité marginale).

Il en va bien sûr de même pour la ligne Total qui représente la loi de probabilité de
Y.

Le total des probabilités présentes dans ce tableau est égal à 1.

Pour calculer l'espérance du produit X.Y, on multipliera chaque probabilité du


tableau par la valeur de X correspondante (qu'on trouve à gauche) et par la valeur
de Y (qu'on trouve au-dessus); on fait ensuite la somme des résultats obtenus :

La covariance de X et de Y se définira comme l'espérance du produit moins le


produit des espérances, ce qui donne ici :

cov(X,Y) = 1,3 - (1,4x1) = - 0,1

Comme vous pouvez le noter, rien n'empêche une covariance d'être négative (alors
qu'une variance, compte tenu de sa définition, est toujours positive).

Compte tenu de la définition, on a Cov(X,Y) = Cov(Y,X).


La covariance mesure le degré de dépendance linéaire entre les variables X et Y
(on dit que deux variables sont dépendantes linéairement quand la relation liant Y à
X est du type Y=aX+b).

On dit que deux variables sont indépendantes quand elles prennent leurs valeurs
indépendamment, c'est à dire quand la valeur prise par l'une n'influe pas sur la
valeur prise par l'autre.

Quand les variables sont indépendantes, elles sont a fortiori indépendantes


linéairement, donc la covariance est nulle.

En revanche, la réciproque est fausse : en effet si la covariance est nulle, cela


signifie que les variables sont indépendantes linéairement, ce qui ne signifie pas
qu'elles soient indépendantes, elles peuvent dépendre l'une de l'autre par un autre
type de relation (par exemple : Y = X²).

MANIPULATION DES OPERATEURS

(1) E(X + Y) = E(X) + E(Y) L'espérance de la somme est égale à la


somme des espérances

(2) E(aX + b) = a E(X) + b Par exemple E(2X+3) = 2E(X) + 3

(3) V(aX) = a² V(X) Quand on multiplie une va par une constante,


la variance est multipliée par le carré; ainsi par
exemple V(3X) = 9 V(X)

(4) V(X + b) = V(X) Quand on ajoute une constante à une va, on


ne change pas la variance, ce qui est
normal puisque la variance mesure la dispersion
(5) V(aX + b) = a² V(X) Simple combinaison des formules (3) et (4)

Les autres formules sur les variances et les covariances se déduisent de la remarque
suivante :

La Variance se manipule comme un carré

La Covariance se manipule comme un produit

Cela signifie qu'un calcul de variance est analogue à un calcul de carrés et qu'un
calcul de covariance est analogue à un calcul de produits; les calculs sont similaires
avec des variances à la place des carrés et des covariances à la place des produits.

Supposons, par exemple, qu'on ait à calculer V(X+2Y).

On sait que : (a) (X+2Y)² = X² + 4Y² + 4XY.

On en déduit donc que : (b) V(X+2Y) = V(X) + 4V(Y) + 4 cov


(X,Y)

Pour passer de (a) à (b), on a simplement remplacé les carrés par des variances et
les produits par des covariances

Autres exemples : V(3X+4Y) = 9V(X) + 16V(Y) + 24cov(X,Y) car (3X+4Y)²


= 9X² + 16Y² + 24XY
Cov(2X+Y,3X-Y) = 6V(X) - V(Y) + Cov(X,Y) car
(2X+Y)(3X-Y) = 6X² - Y² + XY

Cette méthode de calcul permet aussi d'établir les deux formules suivantes
(analogues aux identités remarquables) :

(6) V(X + Y) = V(X) + V(Y) + 2 Cov(X,Y)

(7) V(X - Y) = V(X) + V(Y) - 2 Cov(X,Y)

Il est à noter que les formules (6) et (7) se simplifient si les variables sont
indépendantes (car en ce cas, la covariance est nulle), on en déduit alors que :

la Variance de la somme et la Variance de la différence sont toutes deux égales


à la somme des Variances

LA LOI BINOMIALE

La loi binômiale se définira de la manière suivante :

Considérons une succession d'épreuves identiques et indépendantes,


chaque épreuve pouvant se solder soit par un succès, soit par un échec.

Si l'on note p la probabilité de succès à une épreuve

et si l'on définit la variable aléatoire X comme étant le nombre de


succès obtenus en n épreuves,

on dira (par définition) que X suit une loi binômiale de paramètres n et p

On note :

(le premier paramètre n représente le nombre d'épreuves, le second p représente la


probabilité de succès à une épreuve)

Exemple : Si l'on note X le nombre de "6" obtenu en lançant 12 dés, on sait que X
suivra une loi binômiale de paramètres 12 et 1/6.

Nous allons maintenant déterminer la distribution de probabilité d'une loi


binômiale, c'est à dire la probabilité qu'elle prenne telle ou telle valeur.

Remarquons tout d'abord que le nombre de succès en n épreuves peut aller de 0 à ...
n.

Nous allons donc déterminer P( X = k ) pour k prenant toutes les valeurs entre 0 et
n
Avoir k succès en n épreuves, c'est aussi avoir n-k échecs.

La probabilité d'avoir un succès est notée p; la probabilité d'avoir un échec sera


notée q et vaudra bien sûr 1-p.

La probabilité d'avoir k succès puis n-k échecs lors d'une succession de n épreuves
vaudra donc :

Mais cette probabilité ne représente qu'un des cas où les n épreuves comportent k
succès : c'est celui où tous les succès ont lieu d'abord.

On peut imaginer quantité d'autres cas, par exemple, tous les succès peuvent avoir
lieu à la fin, ou au milieu, ou après 3 épreuves, ou en alternance avec les échecs,
etc...

De toutes façons, chacun de ces cas aura la même probabilité d'apparition que le
premier évoqué, c'est à dire pk qn-k

Pour déterminer la probabilité d'avoir k succès (X=k), il suffit donc de compter tous
ces cas.

Or il y a autant de cas que de façons de choisir la place des k succès parmi les n
épreuves (la place des échecs est toute désignée une fois choisie celle des succès), il
y en a donc : .
La probabilité cherchée vaut donc
:

Exemple : Si l'on veut appliquer la formule pour déterminer la probabilité qu'il y ait
3 faces "6" lors du lancer de 12 dés, cela donne : 0,1615.

Nous allons maintenant donner l'Espérance et la Variance d'une loi binômiale (sans
calculs) :

E(X) = np

V(X) = npq

Ce qui donne, toujours dans l'exemple considéré, une espérance de 2 et une


variance de 5/3.

LA LOI HYPERGEOMETRIQUE

Considérons une population de N individus partagée en deux : les individus


"positifs" en proportion p (donc au nombre de Np) et les individus "négatifs" en
proportion 1-p notée q (donc au nombre de Nq)

Supposons qu'on prélève dans cette population un échantillon aléatoire de n


personnes, cet échantillon étant prélevé sans remise.

Si on s'intéresse au nombre de personnes positives dans cet échantillon, on dira,


par définition, qu'il suit une loi hypergéométrique de paramètres N,n,p

Notez qu'il y 3 paramètres pour une loi hypergéométrique : le premier, c'est la


taille de la population; le deuxième, c'est la taille de l'échantillon; le troisième, c'est
la proportion initiale d'individus positifs dans la population (initiale car cette
proportion est constamment modifiée puisque le tirage est effectué sans remise).

Notez aussi qu'on pourrait parfaitement définir la loi binômiale comme on vient de
définir la loi hypergéométrique; la seule différence est qu'alors le tirage devrait être
effectué avec remise, les individus de l'échantillon représentant des épreuves et les
individus positifs, des succès.

Cette remarque sera utile dans la suite, hypergéométrique : sans


remise et binômiale : avec remise.

Cela dit, si n est "petit" par rapport à N (dès que le rapport n/N, appelé taux de
sondage, est inférieur à 1/10) on pourra assimiler la loi hypergéométrique à la loi
binômiale.
La distribution de la loi hypergéométrique est la suivante

En effet, le nombre d'échantillons possibles est égal à et le nombre de cas


favorables s'obtient en multipliant le nombre de façons de choisir les k individus
positifs (parmi Np) et les n-k individus négatifs (parmi Nq)

L'espérance est égale à : np (comme la loi


binômiale).

La variance vaut :

( s'appelle facteur d'exhaustivité).

Remarque : Ce facteur étant clairement plus petit que 1, on en déduit que la


variance de la loi hypergéométrique est inférieure à celle de la loi binomiale
associée.

Donc que la variance du nombre d’individus positifs dans un échantillon est plus
faible si l’échantillon est prélevé sans remise qu’avec.
LA LOI DE POISSON
La loi de Poisson est une variable aléatoire entière à un paramètre (noté ). On

note:

Sa distribution de probabilité est la suivante : pour k = 0,


1, 2, 3, 4,......

Son Espérance et sa Variance valent : λ .

Le paramètre d'une loi de Poisson apparaît donc concrètement comme la valeur


moyenne prise par cette loi.

La loi de Poisson peut être définie comme régissant le nombre d'apparitions d'un
phénomène quand deux conditions sont remplies :

(1) La probabilité d'apparition du phénomène sur un court intervalle de


temps est proportionnelle à la durée de cet intervalle.

(2) La probabilité d'une apparition multiple du phénomène sur un très court


intervalle de temps est négligeable (infiniment petit du second ordre).
Compte tenu de ces conditions, on qualifie parfois la Loi de Poisson de "loi des
événements rares".

La loi de Poisson est, par exemple, celle qui régit les arrivées dans les files d'attente
ou les passages de véhicules sur les routes.

Il existe des tables de la loi de Poisson : ces tables sont de deux types, les premières
fournissent pour une valeur du paramètre et pour une valeur k la probabilité
ponctuelle P( X = k ); les secondes fournissent les probabilités cumulées P( X k )

Remarques :

1) La somme de deux lois de Poisson indépendantes est une loi de Poisson.

Son paramètre est égal à la somme des paramètres des deux lois de départ.

2) On peut approcher une loi binômiale de paramètres n et p par une loi de Poisson
de paramètre n p dès que n est suffisamment grand (on prendra n > 50) et que np
est suffisamment petit (on prendra np < 15))

LA LOI NORMALE

La Loi Normale est une variable continue (on l'appelle aussi loi de Gauss, loi de
Laplace-Gauss, 2ème Loi de Gauss).
Une variable suivra une loi normale si : elle dépend d'un grand nombre de causes,
indépendantes, dont aucune n'est prépondérante et dont les effets s'additionnent (ces
conditions définissant la loi normale sont appelées conditions de Borel).

Une Loi normale possède deux paramètres : le premier correspond à son espérance
(sa "moyenne") et sera donc noté : m; le second correspond à son écart-type (à la
racine carrée de sa Variance) et sera donc noté .

Une loi normale de paramètres m et sera notée : N (m,σ).

On a donc : E(X) = m V(X) = σ²

Comme c'est une variable aléatoire continue, les probabilités ponctuelles sont
nulles et l'on définit une densité de probabilité :

Ne vous affolez pas, cette formule est compliquée mais n'est d'aucune utilité
pratique.

Quand on aura à manipuler une loi normale, on utilisera la propriété suivante :

Si X→N(m,σ), en posant , on aura T→N(0,1)

Ainsi, par un changement de variable, on peut ramener une loi normale quelconque
à une loi normale de paramètres 0 et 1 (appelée loi normale centrée réduite).

Cette opération s'appelle : "centrer réduire". Vous devrez l'utiliser à chaque fois.

Compte tenu de cette propriété, seule reste à étudier la loi normale centrée réduite.
N(0,1) :

Si l'on trace la courbe représentative de la densité de probabilité, on obtient une


courbe en forme de cloche symétrique par rapport à l'axe des ordonnées :

On sait que la surface sous cette courbe représente la probabilité, donc on peut
définir la fonction de répartition (probabilité d'être avant une valeur donnée)
comme étant la surface sous la courbe de - à la valeur considérée (cf. Table 3). On
note cette fonction de répartition : .

Ainsi
:

En effet, la probabilité d'être après b est égale à 1 moins la probabilité d'être avant
et la probabilité d'être entre a et b est égale à la probabilité d'être avant b moins la
probabilité d'être avant a.

Notez que l'on a utilisé des inégalités "larges" ( et ) mais que l'on aurait pu sans
problème utiliser des inégalités strictes (< et >) puisqu'en rajoutant une valeur
ponctuelle, on ne change pas la probabilité dans le cas d'une variable continue.
On a donc ramené tout calcul de probabilité sur une loi normale à un calcul de
fonction de répartition de N(0,1).

Remarquons aussi que la probabilité d'être avant -t ( (-t) ) est égale (puisque la
courbe est symétrique) à la probabilité d'être après t, c'est à dire à 1 - (t).

Cette remarque permettra de déduire la fonction de répartition d'un nombre négatif


de celle du nombre positif opposé.

Pour récapituler, si l'on connaît la fonction de répartition de N(0,1) pour les


nombres positifs, on est capable de faire tout calcul de probabilité concernant une
loi normale quelconque.

Une Table nous donne pour toute valeur de t positive la valeur de (t) : les deux
premières décimales de t se trouvent sur la première colonne et la troisième
décimale sur la première ligne.

Par exemple : Π(1,12) = 0,8686 (ligne 1,1 et colonne 0,02)

Π(0,37) = 0,6443 (ligne 0,3 et colonne 0,07)

Π(-1,12) = 1-0,8686 = 0,1314

Combinaison de lois normales :

Toute combinaison linéaire de lois normales indépendantes est une loi


normale; les paramètres se déterminent par manipulation d'espérances et de
variances.

Par exemple, si X→ N(m,σ), si Y→N(m',σ'), si X et Y sont indépendantes, alors


En effet, le premier paramètre d'une loi normale, c'est l'espérance. Or l'espérance de
la somme est égale à la somme des espérances (cf. Variables aléatoires,
Manipulation des opérateurs).

Le second paramètre, c'est l'écart-type, la racine carrée de la variance. Or la


variance de la somme se ramène pour des variables indépendantes à la somme des
variances (la covariance étant nulle) (cf. idem qu'au-dessus)

Remarque : On aurait, par exemple, dans les mêmes conditions :

Approximations

1) Poisson par Normale :

On peut approcher une loi de Poisson par une loi Normale dès que est
suffisamment grand (on prendra > 15) :
2) Binômiale par Normale :

On peut approcher une loi binômiale par une loi Normale dès que n est
suffisamment grand et p suffisamment proche de 0,5 (on prendra n > 100 et npq >
5)

Remarque très importante :

Dans les approximations, on approche une variable aléatoire discrète ou entière


(binômiale ou Poisson) par une variable continue (la loi normale).

Si on se sert de ces approximations pour calculer des probabilités ponctuelles, on


obtiendra 0 puisque les probabilités ponctuelles d'une variable continue sont nulles.

Il faut donc remplacer la valeur ponctuelle k

par un intervalle centré sur k égal à [ k-½ , k+½ ]

Vous aimerez peut-être aussi