Vous êtes sur la page 1sur 31

RAPPEL EN PROBABILITE

CHAPITRE 1

Introduction
• La probabilité intervient dans l'étude d´un
phénomène partiellement ou complètement
imprévisible.
• Elle est à la base de plusieurs théories et
appliquées dans diverses disciplines : la
mécanique quantique, la fiabilité, la météorologie,
les radars, les sonars, les télécommunications,
ainsi que les secteurs industriel, agricole,
financier, scientifique et politique.

1
Introduction
• Récemment, les progrès de la collecte et de la
transmission d’informations liés à Internet ont mis
à disposition une quantité d’information
considérable, pouvant être utilisée dans des buts
très variés, commerciaux aussi bien qu’industriels,
dont le volume nécessite un traitement statistique
adapté à l’utilisation projetée.
• Cette spécialité faisant appel à l’informatique et
aux statistiques a reçu le nom de fouille de
données, (« data mining »)
• On fait appel aussi à la probabilité quand on veut
modéliser un phénomène observé et prendre en
compte les variations aléatoires: la modélisation
stochastique , en essayant de leur associer une loi
de probabilité.
3

Un ingénieur dans une spécialité quelconque sera


ramené un jour à gérer un projet dont les étapes
suivantes seront en totalité ou partiellement
indispensables:
•Analyser des résultats
• Faire ou calculer des Prédictions
• Contrôler et assurer la qualité (échantillonnage)
• Faire des Simulations (processus stochastiques)
• Prendre des Décisions (probabilités
d’occurrence et risque)

2
Rappel
Expérience aléatoire
Une expérience aléatoire est une expérience se
caractérisant de deux façons:
1. On ne peut pas prédire avec certitude le résultat.
2. Nous pouvons décrire à priori l’ensemble de
tous les résultats possibles.
L’espace de tous les résultats possibles de
l’expérience est appelé espace d’états. Il est noté
.
Un résultat possible de l’expérience est noté 
donc   

Exemples
• Lancer une pièce de monnaie
  P, F qui serait assimilé à   0, 1
• Lancer un dé
  1, 2, 3, 4, 5, 6
• Attendre l’arrivé d’un autobus qui arrivera
entre 4h00 et 4h15

  0, 15

3
Evénement aléatoire
• Un événement aléatoire associé à une expérience est
un sous ensemble de  .
Exemples:
1. Lancer une pièce de monnaie 3 fois.
Considérons les événements suivants:
A: « Obtenir face au premier lancer »
A   fpp, fpf , ffp, fff 
B: « Obtenir un nombre de face supérieur ou égale
au nombre de pile »
B   ffp, fpf , pff , fff 
C: « Attendre l’autobus moins de 5 mn »
C  0, 5

Rappel sur le calcul combinatoire

On appelle p-liste de E, un ensemble à n éléments, toute


suite de p éléments de E : (x1, x2, x3, …, xp), avec xi E,
i, i = 1, …, p.

Exemples :
E = {R, V, B} : (R, B, B, V, V, R) est une 6-liste de E.
E = {1, 2, 3, 4, 5, 6} : (1, 1, 2, 5, 4) est une 5-liste de E.

Une disposition est une collection d’éléments. Une


disposition peut être :
 Ordonnée ou non et
 Formée d’éléments Distincts ou non.

4
Le principe de multiplication
Soit une expérimentation complexe qui peut être divisée
en une séquence d’étapes 1, 2, 3, … et :
1 a N1 résultats possibles, n’importe quel résultat de
1 peut être suivi par N2 résultats de 2, n’importe
quelle combinaison de résultats de 1 et 2 peut être
suivie par N3 résultats de 3, et ainsi de suite …alors
l’expérience composée : 1 suivie de 2 suivie de 3,
… a N1 x N2 x N3 x … résultats possibles.
Exemple:
4 chemins relient le point A au point B, et 3 chemins relient
B à C. Combien y a-t-il d’itinéraires pour aller de A à C ?
Il s’agit d’une succession d’épreuves élémentaires, donc
le principe de multiplication peut s’appliquer, il existe
donc 4 fois 3, soit 12 itinéraires reliant A à C.
(N.B. Un diagramme en arbre peut également être
utilisé).
9

Arrangements
E étant un ensemble à n éléments, on appelle arrangement de
p éléments de E, toute suite de p éléments distincts à
disposition ordonnée
p
de E.
A
On le note n.
n!
Anp  n  (n 1)  (n  2)  ... (n  p 1) 
(n  p)!
Exemple
Dans un groupe on compte 18 filles et 13 garçons. On veut
former un comité exécutif de quatre membres pour remplir
les postes de président, de vice-président, de secrétaire et de
trésorier. De combien de façons peut-on former ce comité :
a) s’il n’y a pas de contrainte ?
b) si les postes de président et de secrétaire doivent être
occupés par une fille et les autres postes par un garçon ?

10

5
S’il n’y pas de contrainte:
31! 31 30  29  28  27!
A314    755160
(31  4)! 27!
Si les postes du président et du secrétaire doivent être
occupés par une fille et les autres postes par un garçon :
18! 13!
A182  A132    18  17  13  12  47736
(18  2)! (13  2)!

Combinaisons
E étant un ensemble à n éléments, on appelle combinaison
de p éléments de E, toute disposition non ordonnée (partie)
de p éléments distincts de E.
p
On la note Cn .
n! Anp
C n
p

p!(n  p)! p!
11

Calcul des probabilités


Considérons une expérience aléatoire donnée et un événement
A pour cette expérience.
On associe à chaque événement un nombre P(A) compris
entre 0 et 1. Il représente la chance que cet événement soit
réalisé.
Intuitivement on construit cette probabilité de cette manière:
Supposons qu’on répète une expérience n fois. On note nr
le nombre de fois que A se réalise le long de la répétition
de l’expérience, on note fn la fréquence de réalisation de A
Càd nr
fn 
n
On pose par suite
P ( A )  lim fn
n  

12

6
Calcul des probabilités

Soit  un ensemble fondamental, et E1, E2,…, En,…


une « famille » d’événements non nécessairement
mutuellement exclusifs et exhaustifs de .
Soit P une fonction qui associe à chaque événement Ei
un nombre dans l’intervalle [0,1].
Si
1. P ( Ei )  0, E i ,
2. P ()  1
3. Si Ei et Ej sont disjoints alors P E i  E j   P E i   P E j 
Alors P est une fonction de probabilité.

13

Règles de calcul

Soient E et F deux événements relatifs à la même


expérience aléatoire, nous avons:
1. P(E’) = P(Ec) =1 – P(E)
2. P() = 0
3. P(Ω)=1
4. Si E  F alors P(E)  P(F)
5. 0  P(E) 1
6. P(E  F) = P(E) - P(E  Fc) = P(F) - P(F  Ec)
7. P(E  F) = P(E) + P(F) - P(E  F) (règle d’addition
ou calcul des probabilités totales)
8. Lois de Morgan:
a. P((A  B)c)= P(Ac  Bc)
b. P((AB)c)= P(Ac  Bc)

14

7
Probabilité uniforme
La probabilité P sur l’espace fini Ω est uniforme si
1
P 
card ()
Sous l’hypothèse d’équiprobabilité où P est une
probabilité uniforme et A un événement
quelconque:
card ( A)
P( A) 
card ()

Le calcul des probabilités se ramène au calcul


Combinatoire.

15

Exemple
Contrôle de qualité.
Une boîte contient 30 objets dont 10 sont défectueux.
1. On prélève 5 objets en une fois, quelle est la probabilité
que, parmi ces 5 objets, 2 soient défectueux , P(2D) ?
2. On prélève successivement 5 objets avec remise, quelle
est la probabilité d’obtenir, 2 défectueux et 3 non
défectueux, P(2D_3ND) ?

Rép.
3
C 20 C102
1. P (2 D ) 
C305
2 3
5!  1   2 
2. P( 2 D _ 3ND )     
2! 3!  3   3 

16

8
Probabilité conditionnelle

Si A est un événement associé à une expérience


aléatoire et B un événement de probabilité non
nulle associé à la même expérience aléatoire,
alors la probabilité de réalisation de A lorsque B
est réalisé s’appelle la probabilité
conditionnelle de A sachant B et l’on note :

def
P( A  B)
P( A | B)  où P(B)  0
P( B)

17

Probabilité conditionnelle
1. Formule des probabilités composées:P ( A )  0 et P ( B )  0
P ( A  B )  P ( A)  P ( B | A)  P ( B )  P ( A | B )
2. Formule de multiplication des probabilités:
P( E1  E2  ...  En 1 )  0
P(E1  E2  ...  En )  P(E1 )  P(E2|E1 )  P(E3|E1  E2 )
... P(En|E1  E2 ... En1 )
3. Formule des probabilités totales:
n
P( Ei  E j )  0 i  j et  E i   def n
 P(Ei ) . P(A| Ei )
i 1
P( A) 
4. Formule de Bayes: i 1
n
P( Ei  E j )  0 i  j et  E i  
P(Ei )  P( A / Ei )
i 1
def
P ( Ei / A)  n

 P(E ) . P(A|E )
i 1
i i

18

9
Indépendance
Soit B un événement de probabilité non nulle, un
événement A sera dit indépendant de B si la connaissance
de la réalisation de B ne donne aucune information sur la
probabilité que A se réalise.
Autrement dit, si la probabilité de A, sachant B est
la probabilité de A, alors :
P(A/B) = P(A)
et donc P(AB) = P(B).P(A).
Remarques:
1. L’indépendance de A et B n’a rien à voir avec
l’incompatibilité A  B  
2. A et B sont in dépendants  A c et B c indépendants
 A c et B sont indépendants  A et B c sont indépendants
3. Des événement {An , nЄIN} sont indépendants ssi
      
P Ai1  Ai2  ....  Aik  P Ai1 P Ai2 ....P Aik .
pour toute sous suite finie d' indices i1 .....i k
19

Exemple
Certaines formations demandent aux étudiants qui font une
demande d’admission de passer 2 tests et d’obtenir pour le
premier test CG un résultat d’au moins 500 et d’au moins 600
pour le test de mathématique.

Un étudiant évalue ses chances d’obtenir la note minimale


requise pour l’examen de mathématique à 75% et évalue ses
chances de réussir les deux tests à 50%.

Si l’étudiant découvre qu’il a réussi le test de mathématique avec


une note supérieure à la note de passage, quelles sont ses
chances de passer l’examen CG avec la note minimale requise.
Réponse
A : Réussir l’examen CG
B : Réussir l’examen de Mathématique
P ( A  B ) 0.5
P( A / B)    0.666
P( B ) 0.75

20

10
Exemple
Un professeur sait par expérience que la probabilité de réussir
son cours est de 0,95 pour l’étudiant(e) qui travaille
régulièrement, de 0,5 pour celui ou celle qui travaille plus ou
moins et de 0,2 pour qui ne travaille pas du tout. Il estime, de
plus, que parmi les élèves qui suivent son cours, 50 %
travaillent régulièrement et 35 % travaillent plus ou moins. Si
l’on considère un(e) étudiant(e) au hasard dans un groupe
auquel ce professeur enseigne, trouver la probabilité :
a) qu’il (ou elle) réussisse le cours
b) Qu’ayant réussi, il (ou elle) n’ait pas travaillé du tout.

Réponse
A : l’étudiant(e) qui travaille régulièrement
B : l’étudiant(e) qui travaille + ou -
C : l’étudiant qui ne travaille pas de tout
R : réussir le cours

21

P(R) = P(A).P(R/A) + P(B).P(R/B) + P(C).P(R/C)


= (0.5)*(0.95) + (0.35)*(0.5) + (0.15)*(0.2) = 0.68

P (C )  P( R / C ) 0.15  0.2
P(C / R)    0.0441
P( R) 0.68

22

11
Variable aléatoire
• Une variable aléatoire est une fonction qui associe à
chaque résultat d’une expérience aléatoire un nombre
réel X :
x
• Elle nous fournit un moyen de décrire de façon
numérique les résultats d’une expérience.
• Elle associe une valeur numérique à chaque résultat
possible.
• L’usage des V.A. permet le calcul des probabilités par
des méthodes analytiques, sans passer par les éléments
de Ω.

23

Variable aléatoire discrète (V.A.D.)


• Lorsque l’ensemble des résultats est un ensemble fini ou
infini dénombrable.
• La Fonction de probabilité ou fonction masse de
probabilité d’une variable aléatoire discrète (v.a.d.) est la
distribution de probabilité définie par une fonction de
probabilité notée f(x). Celle-ci donne la probabilité que la
variable aléatoire X prenne la valeur x.
• La fonction de répartition est la somme des probabilités
des valeurs xj de X (inférieures à x) jusqu’à x:
F(x) = P( X  x ) = f(x1) + f(x2) +…+ f(xj)
tel que x1, ..xj,  x

24

12
Variable aléatoire discrète
 Espérance : la valeur moyenne de X

E(X)   E xP(X  x)
 Variance : l’ecart quadratique moyen de la
valeur de x par rapport à sa valeur moyenne
V(X)E(X E(X) )
2

 Ecart type: (déviation standard) de la variable


aléatoire X, noté (X) ou simplement , est défini
comme la racine carrée positive de Var(X)
 ( X )  Var ( X )

25

Exemple
Evolution de deux titres fictifs, l’un très volatil et l’autre
peu volatil.
• Observations toutes les unités de temps. Les variations
sont indépendantes et de même loi.
• Ces deux titres valent 100 au départ, 110 à la fin, ont tous
deux une moyenne de 105,52. L’écart type est égal à 16,24
pour le premier et à 1,32 seulement pour le second.

26

13
Variables aléatoires continues
 V.A. dont les valeurs sont dans R. Caractérisées par une
fonction de densité de probabilité f :
 b

 f ( x ) dx 1 P(a  X b)   f(x)dx


 a
 Cette fonction de densité est positive et intégrable.
 Fonction de répartition :
x
F (x )  P (X  x )   f ( t ) dt

 Espérance : 
E ( X )  x .f ( x ) d ( x )
 Variance: 


E ( X 2 )   t 2 f (t )dt V ( X )  E{[ X  E( X )]2 )  E( X 2 )  [E( X )]2


27

Une fonction de répartition d’une variable aléatoire


X est une fonction F(x) qui, pour tout x, indique la
probabilité pour que X soit inférieur ou égal à x.

Variable continue Variable discrète

28

28

14
LOIS DEPROBABILITÉ DISCRETES
 Loi uniforme
 X={1,2,…,n} :
1
P( X  k ) 
n
n 2 1
E ( X )  n 1 V (X )
2 12

 Loi de Bernouilli
 X={0,1} :
P( X  1 )  p
E ( X ) p V ( X )  p ( 1 p )

29

 Loi binomiale
On répète « n » fois dans des conditions identiques une
expérience où l’on observe l’apparition ou pas d’un
événement avec à chaque expérience la même probabilité
« p » d’apparition.
X= nombre d’apparition de l’événement = n fois une
bernouilli
 X={0,1,2, …, n) :

P ( X  k )  C nk p k ( 1  p )n  k

E ( X )  n p V ( X )  n  p  ( 1 p )

30

15
Exemple
• La probabilité qu'un tireur atteigne une cible est égale à
1/3. Sur 5 tirs, indépendants les uns des autres, quelle est
la probabilité que le tireur n’atteigne la cible aucune fois ?
Rép. 32/243
• Dans un atelier fonctionnent 10 machines identiques et
indépendantes. La probabilité pour que l’une quelconque
d’entre elles tombe en panne dans le mois est 0,1.
Déterminer les probabilités des évènements suivants:
1) Aucune panne dans le mois.
2) Il y a au moins une panne dans le mois.
Rép.
1)P(X=0)~~34,9%.
2) P(X>=1)=1-P(X=0).

31

 Loi géométrique
• On répète l'épreuve de Bernoulli de façon indépendante
jusqu'à l'obtention d'un succès.
• Soit X le nombre de répétitions nécessaires à l'obtention
d'un succès.
• L'événement X = k est la conjonction de k – 1 échecs
suivi d'un succès.
• L’évènement de probabilité p apparaît au kième essai :
P ( X  k )  P ( X 1  0 ; X 2  0 ;...; X k 1 )  ( 1 p ) k  1 p
1 1 p
E(X )  V (X ) 
p p2

32

16
 Loi hypergéométrique
 La distribution hypergéométrique permet de calculer
la probabilité d'obtenir x succès et n-x échecs lorsqu'on
choisit n éléments sans remise à partir d'une population
de taille N.
 La différence majeure entre cette loi et la loi binomiale
est que les tirages ne sont pas indépendants et la probabilité
de succès change d’un tirage à l’autre.
Crx .CNnxr
f ( x)  P( X  x) 
CNn
N= taille de la population;
n= taille de l’échantillon;
r= nombre d’individus dans la population qui possèdent
la caractéristique étudiée (considérés comme un succès);
N-r= nombre d’individus dans la population qui ne possèdent pas
la caractéristique étudiée (considérés comme un échec);
33

La distribution hypergéométrique
• Si X est une v.a. hypergéométrique alors :
E ( X )  n. p
 N n
VAR( X )  n. p.q. 
 N 1 
• Exemple:
On prélève au hasard un échantillon de 20 pièces dans une
production totale de 500 pièces comportant en tout 5 pièces
défectueuses. Quelle est la probabilité qu'il y ait exactement 2
pièces défectueuses dans l'échantillon ?
• Rép.
C52 .C500
18
P( X  2)  20
5

C500

34

17
Exemple:
On joue avec deux dés équilibrés à six faces numérotées
de 1 à 6. On jette un premier dé. On jette ensuite le deuxième
dé jusqu'à ce qu'il indique le même numéro que le premier.
Soit X le nombre de fois qu'il faut lancer le deuxième dé pour
qu'il indique le même numéro que le premier.
a) Etablir la loi de probabilité de X.
b) Calculer son espérance mathématique et sa variance.
Rép.
On lance le deuxième dé au moins une fois, donc X(ω)≥1.
Le numéro du premier dé étant fixé, la probabilité pour que
X = 1, càd la probabilité pour que le deuxième dé indique
le même numéro que le premier à son premier lancer est :
P (X = 1) = p = 1/6 . Le deuxième dé donne le même numéro
que le premier seulement au nème lancer ssi les n – 1 premiers
lancers ont donné un numéro différent et le nème a donné le
même numéro. Donc : P (X = n) = p q n – 1 ,q = 1 – p.
X est une variable géométrique de paramètre p =1/6 sur N*.
35

Distribution de Poisson (distribution des


événements rares)

• Une v.a.d. souvent utilisée pour décrire le nombre


d’occurrences d’un événement au cours d’un intervalle
de temps ou d’espace bien défini.
• Loi fréquemment utilisée pour modéliser le nombre
moyen X d’événements arrivant dans un temps donné
T.
• X={0,1,…} ,  = nombre moyen d’événement par
unité de temps.

k
P( X  k )  e
k!
E (X )  V ( X ) 

36

18
Relation avec la loi binomiale :
Si p<0,1 et n>50 : B(n,p)P(np)
Exemple:
Dans une grande usine, on sait par expérience qu’il se
produit en moyenne 1,8 accidents de travail par semaine.
Trouvons :
1- La probabilité qu’il se produise, dans cette usine, au plus
2 accidents dans une semaine;
2- La probabilité qu’il se passe 2 semaines sans qu’il se
produise d’accident dans cette usine.
Rép. 1
1,8 2 1
1. P[ X  2]  e [1  (1,8) 1!  (1,8) 2!]

2. P[X=0].P[X=0]=e-2*1,8

37

Lois de probabilité continues

 Loi uniforme
x  0 ; a  f(x ) 1 F (x ) x
a a
a a2
E( x )  V( x)
2 12
Exemple:
À partir de 7 heures, les bus passent toutes les quinze minutes
à un arrêt précis. Un usager se présente à cet arrêt entre
7 heures et 7 heures 30. On fait l'hypothèse que l'heure exacte
de son arrivée à cet arrêt est la variable aléatoire uniformément
répartie sur l'intervalle [0 ; 30].
1. Quelle est la probabilité que l'usager attende moins de cinq
minutes le prochain bus ?
2. Quelle est la probabilité qu'il attende plus de dix minutes ?

38

19
 Loi exponentielle
Utilisée en fiabilité pour représenter la durée de vie d’un
« matériel».
x0 f( x )  e   x F ( x ) 1 e   x
1 1
E( x )  V( x ) 
f(x)
 2
λ

x
Exemple:
La durée de vie X (en heures) d'un composant électronique
a été modélisée par la loi exponentielle de paramètre λ= 0,0006
sur [0; +∞ [ .
1. Quelle est la probabilité qu'un de ces composants,
pris au hasard, ait une durée de vie inférieure à 1 000 heures ?
2. Quelle est la probabilité qu'un de ces composants, pris au
hasard, soit encore en état de marche au bout de 500 heures ?
39

Loi Normale
• On appelle loi normale d’espérance
mathématique µ et d’écart type , notée µ,), la
loi de probabilité d’une variable aléatoire continue
telle que X()= et dont la densité de probabilité
f est définie par:
( x)2
1
f (x)   e 2 2

 2

40

20
Loi Normale
• Si la v.a. continue X suit une loi normale N(µ,)
alors la v.a. Z  X   suit la loi normale centrée
réduite N(0,1). 

• Fonction de répartition:
F (t )   (t )  P (T  t )    f ( x ) dx
t

• Propriété:
 (  t )  1   (t )

41

Loi normale centrée


y

1,5

0,5

0 x
-2 -1,5 -1 -0,5 0 0,5 1 1,5 2

-0,5

-1

42

21
Utilisation de la table numérique

43

Un extrait de la table numérique

44

22
Théorème central limite
• Si X1 , X2 , X3 , ... , Xn sont des variables aléatoires
indépendantes, de même loi de probabilité, d'espérance
µ et de variance σ², posons:
X 1  ...  X n Xn  E  Xn  Xn  
Xn  Z  
  Xn  
n
n
n
Zn tend, quand n→∞, vers la loi normale centrée réduite.
Approximation d’une binomiale par une normale:
Supposons que les conditions suivantes sont satisfaites :
n≥30, np≥10 et n(1-p)≥10, Par application du théorème
central limite si X v.a suit la loi B(n,p) alors X va Suivre
approximativement la loi normale N(np, √np(1-p)).

45

Applications:
• Au centre ville le temps mis par les automobilistes pour
circuler de l'avenue A à l'avenue B aux heures de pointe
suit une loi normale avec un temps moyen de 15,2 minutes
et un écart type de 1,7 minute. Calculer la probabilité pour
que le temps mis de A à B par un automobiliste choisi au
hasard soit compris entre 14,5 et 16,0 minutes.
• Rép: 0,3399
• Un recensement effectué par le service des loisirs d'une
petite municipalité révèle que le nombre d'heures de loisirs
consacrées à des activités physiques par semaine par
citoyen suit approximativement une loi normale de
moyenne 1,3 heure et d'écart type 0,5 heure.
Calculer la probabilité pour qu'un citoyen choisi au hasard
dans la municipalité s'adonne à plus de 2 heures par
semaine à des activités physiques.
Rép: 0,0808
46

23
Loi de khi deux (χ²)

• Soient X1, X2, . . . Xn, n lois normales centrées réduites


N (0, 1) indépendantes, la variable aléatoire somme :

 n2  X 12  X 22  .......  X n2
Suit la la loi de χ² à n degrés de liberté.

• On déduit donc

E( X )  n Var ( X )  2 n

47

 Propriétés:

 χ²   0, + ∞ 
 Distribution de χ² est continue.
 Sa courbe de densité est en cloche unimodale
asymétrique avec étalement vers la droite (pour les
faibles valeurs de n).

48

24
• La loi de 2 tend vers la loi normale quand n ∞
• Les deux lois deviennent quasiment identiques quand
n > 30

49

Table du χ² (la plus utilisée)


donne, en fonction du nombre de degrés de liberté,
les valeurs limites 2a du 2 correspondant au
coefficient de risque a

La valeur de a est lue en ligne, celle de n en


colonne, la valeur recherchée 2a se situant à
l’intersection.
50

25
Exemple : pour n = 8 et a = 0,05

a
0,99 ... ... 0,05 0,010
n
1 3,841
. .
8 ... ... ... ?
.
.
.
30

51

Exemples d’utilisation de la table

• Soit X une variable aléatoire qui suit la


loi Khi-2 à 8 degrés de liberté,
déterminer a ou calculer les probabilités:
P(X<a)=0,05;
P(0<X<4,6);
P(-a<X<a)=0,1;
P(X>15,5).

52

26
LOI de STUDENT ou de STUDENT-FISHER
La loi de STUDENT notée t à ν degrés de liberté est le
quotient d’une loi normale centrée réduite N (0, 1) par la
racine carrée d’une loi du khi2 à ν degrés de liberté divisée
par ν ; les deux lois étant indépendantes
N (0,1)
t
2
n
L’espérance mathématique de t est : E(t) = 0 si ν >1
La variance de t est :
n
Var (t ) 
n 2

53

Propriétés
a) t   - ∞, + ∞ [

b) représentation graphique de la loi de STUDENT


courbe en cloche symétrique, plus aplatie que la
courbe de Gauss (courbe hyper-normale)
P (t)
courbe normale

courbe hyper-normale

0 t
d’autant plus aplatie que n est plus petit

54

27
famille de distributions de t suivant le nombre ν de
degrés de liberté

P (t s)
n = 40

n = 10

n=3

0 ts

La loi de STUDENT tend vers la loi normale centrée


réduite quand ν ∞
Les deux lois deviennent quasiment identiques quand
ν > 30
55

Table de la variable de STUDENT-FISHER (la plus utilisée)

table à double entrée (du fait de la dépendance en n)

La valeur de a est lue en ligne, celle de n en colonne,


la valeur recherchée t se situant à l’intersection

56

28
Exemple : pour n = 10 et a = 0,05
a
0,90 ... ... 0,05 0,001
n
1 .
. .
10 ... ... ... ?
.
.
.
120
∞ 0,126 1,960 3,291

57

Exemples d’utilisation de la
table de student
• En utilisant la table de la loi de Student,
trouver la valeur de b telle que :
– P(|T|>b)=0,5, si n = 4, n degré de
liberté
– P(T>b)=0,3, si n = 15,
– P(T>b)=0,9, si n = 10
• Toujours à l’aide de la table de Student,
donner la valeur de :
– P(|T|>2,8)= ? si n = 25
– P(T<1,1)= ? si n = 11

58

29
LOI de SNEDECOR ou de FISHER-SNEDECOR

Considérons deux variables n 1 et n 2 deux lois


2 2

indépendantes qui suivent la loi  à ν1 et ν2 degrés de


2

liberté respectivement
La loi de SNEDECOR à ν1 et ν2 degrés de liberté notée
Fν1,ν2 est définie comme le quotient :

n2 1

Fν1,ν2 = n 1

n22
Propriétés n 2

a) F   0, + ∞ 
b) Attention : Fn1,n2 ≠ Fn2,n1

59

Représentation graphique de la loi de SNEDECOR

La famille de courbes de SNEDECOR dépendent des deux


degrés de liberté ν1 et ν2
Les courbes sont en cloche unimodales asymétriques avec
étalement vers la droite
P (F)
(n1, n2) = (2, 5)

(n1, n2) = (10, 10)

(n1, n2) = (5, 2)

0 F

60

30
Table de SNEDECOR
Similaire à celle de χ2
P (F)

0 Fa F
La table doit être à triple entrée (du fait de la
double dépendance en degrés de liberté), pour ça on
construit une table pour chaque valeur de α.
La valeur de ν1 est lue en ligne, celle de ν2 en
colonne, la valeur recherchée Fα se situant à
l’intersection

61

Exemple : pour a = 0,05, n1 = 20 et n2 = 10


Reportons-nous à la table a = 5%
n1
1 ... ... 20 ∞
n2
1 .
. .
10 ... ... ... ?
.
.
.
100
∞ 3,84 1,57 1,00

Soit F20,10 = 2,77

62

31

Vous aimerez peut-être aussi