Vous êtes sur la page 1sur 14

EPFL Probabilités et Statistique

Automne 2017 Guillaume Dehaene


Formulaire

1 Distributions discrètes

1.1 Bernoulli
(i). Correspond au lancer d’une seule pièce, avec probabilite p de réussite.
(ii). Tableau de probabilité :

Valeurs xi 0 1
Probabilité f (xi ) 1 − p p
(iii). Un seul paramètre : p la probabilité de réussir.
(iv). Notation : X ∼ B(p)
(v). Espérance et variance :

E(X) =p
V ar(X) = p(1 − p)

1.2 Binomiale
(i). Correspond au nombre de réussites dans un lancer de m pièces de manière indépendante,
avec probabilite p de réussite pour un lancer.
(ii). Fonction de masse, pour xi ∈ 0, 1 . . . m :
 
m xi
f (xi ) = p (1 − p)m−xi
xi
(iii). Deux paramètres : le nombre total de lancer m, et p la probabilité de réussir un lancer.
(iv). Notation : X ∼ B(m, p)
(v). Espérance et variance :

E(X) = mp
V ar(X) = mp(1 − p)
(vi). Le cas m = 1 correspond à une variable de Bernoulli.
(vii). Si m grand et p petit, on peut faire l’approximation :

.
X ∼ P oiss(λ = mp)
Ce résultat est parfois appelé la loi des petits nombres.

1.3 Poisson
(i). Utile pour modéliser le nombre d’évènements qui ont lieu pendant une période.
(ii). Fonction de masse, pour xi ∈ 0, 1 . . . :

λxi
f (xi ) = exp(−λ)
xi !
où xi ! est la factorielle de l’entier xi .
(iii). Un paramètre : le taux λ.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

(iv). Notation : X ∼ P oiss(λ)


(v). Espérance et variance :

E(X) =λ
V ar(X) =λ
(vi). Les variables de Poisson sont ”stables par addition”. Si X1 ∼ P oiss(λ1 ) et X2 ∼ P oiss(λ2 )
alors :

X1 + X2 ∼ P oiss(λ1 + λ2 )

1.4 Géométrique
(i). Utile pour modéliser un temps d’attente qui ne peut prendre que des valeurs discrètes
(nombre d’échanges avant un point au tennis, nombre de jours avant un évènement, etc).
(ii). Fonction de masse, pour xi ∈ 0, 1 . . . :

f (xi ) = (1 − p)xi p
(iii). Un paramètre : la probabilité p que l’évènement ait lieu la première fois.
(iv). Notation : X ∼ Geom(p)
(v). Espérance et variance :

1−p
E(X) =
p
1−p
V ar(X) =
p2

2 Distributions continues

2.1 Gaussienne
(i). Modèle par défaut pour les variables continues.
(ii). Fonction de densité :

(x − µ)2
 
1
f (x) = √ exp −
σ 2π 2σ 2
(iii). Deux paramètres : la moyenne µ et la variance σ 2 .
(iv). Notation : X ∼ N (µ, σ 2 ).
(v). Espérance et variance :

E(X) = µ
V ar(X) = σ 2
(vi). Peut être utilisée pour approximer des sommes de variables IID (Théorème Central Limite).
(vii). X peut être reliée à la Gaussienne standard Z ∼ N (0, 1) par standardisation :

X = σZ + µ
(viii). La densité et la fonction de réparation de Z sont notées : φ, Φ. De nombreux languages
informatiques peuvent calculer la valeur de Φ en tout points. Ce formulaire contient un
tableau de Φ.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

2.2 Uniforme
(i). Modèle d’une variable continue qui prend une valeur entre a et b sans préférence pour aucun
sous-ensemble de l’intervalle [a, b].
(ii). Fonction de densité :

1
f (x) = 1(x ∈ [a, b])
b−a
où 1(b) est la fonction indicatrice : 1(b) = 1 si b = V RAI et 1(b) = 0 sinon.
(iii). Deux paramètres : les bords de l’intervalle a, b.
(iv). Notation : X ∼ U (a, b) ou parfois X ∼ U ([a, b]).
(v). Espérance et variance :
a+b
E(X) = 2
(b−a)2
V ar(X) = 12

2.3 Exponentielle
(i). Modèle souvent utilisé pour le temps d’attente avant un évènement.
(ii). Fonction de densité :

f (x) = λ exp(−λx)1(x ≥ 0)
(iii). Un paramètre : le taux λ.
Attention : son interprétation est inverse de celui du taux pour la variable de Poisson.
(iv). Notation : X ∼ exp(λ).
(v). Espérance et variance :

E(X) = λ−1
V ar(X) = λ−2
(vi). Si à chaque intervalle de temps dt, on a une probabilité λdt d’avoir un événement, alors le
temps d’attente avant le premier événement est une variable exponentielle de taux λ.
(vii). Une variable exponentielle est ”sans mémoire” : sa distribution ne change pas si on condi-
tionne sur le fait d’avoir déjà attendu. Si on conditionne sur l’évènement X − x0 ≥ 0 alors
la variable Y = X − x0 est exponentielle : Y | (X ≥ x0 ) ∼ exp(λ).
(viii). Les variables exponentielles sont l’équivalent continu des variables géométriques.

2.4 Student
(i). Une variable de Student à des propriétés particulières qui les font apparaitre dans les modèles
statistiques.
(ii). Fonction de densité :
− d+1
Γ( d+1 ) x2
 2

f (x) = √ 2 d 1+
dπΓ( 2 ) d

(iii). Un paramètre : le degré de liberte d.


EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

(iv). La principale utilité de la variable de Student consiste à calculer la probabilité que sa valeur
soit incluse dans divers intervalles :

P(td ∈ [a, b])


qu’on peut calculer à partir de sa fonction de distribution.
(v). De nombreux langages informatiques sont capables de calculer la fonction de distribution
d’une variable de Student. Ils peuvent donc calculer ces probabilités. Ce formulaire contient
un tableau de valeurs seuils qui peut être utilisé à la place.
(vi). Pour un degré de liberté suffisament élevé d ≥ 200, on peut approximer une variable de
Student Td par une Gaussienne standard :

.
Td ∼ N (0, 1)

2.5 Gamma
(i). Une variable Gamma est une somme de plusieurs variables exponentielles.
(ii). Fonction de densité :

λk k−1
f (x) = x exp(−λx)1(x ≥ 0)
Γ(k)
où Γ(k) représente la fonction Gamma, une fonction aux propriétés remarquables que beau-
coup de languages informatiques peuvent calculer.
(iii). Deux paramètres : le taux λ et le paramètre de forme k.
(iv). Notation : X ∼ Γ(k, λ).
(v). Espérance et variance :
k
E(X) = λ
k
V ar(X) = λ2

(vi). Si à chaque intervalle de temps dt, on a une probabilité λdt d’avoir un événement, alors le
temps d’attente avant le premier événement est une variable exponentielle de taux λ. Le
temps d’attente avant le k-ème événement est une variable Γ(k, λ).
IID
(vii). Les variables Gamma sont reliées aux variables Gaussiennes. Si Xi ∼ N (0, 1) alors la
variable :
n
1X 2
S2 = X
n i=1 i

est une variable Γ(n/2, n/2).


(viii). Les variables χ2 (chi-carré, à prononcer ”ki-carré”) sont un cas particulier de variable
Gamma. Une variable χ2 de degré de liberté d est une variable Γ(d/2, 1/2).
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

3 Modèles statistiques

3.1 Modèle Gaussien : moyenne inconnue, variance connue

On a n observations IID X1 . . . Xn ∼ N (µ, σ 2 ). On veut déterminer la moyenne de la distribution


commune µ. On connait la variance σ 2 .
Estimateurs :

n
1X
µ̂ = X̄ = Xi
n i=1

Distribution d’échantillonage :
 
. 1 2
µ̂ ∼ N µ, σ
n

Intervalle de confiance :
 
σ σ
IC = µ̂ − sα √ , µ̂ + sα √
n n
sα doit être pris dans le tableau de la Gausienne standard.
Tests et p-valeur : pour tester µ = µ0 on utilise la statistique de résumé :

x − µ0
T = ∼ N (0, 1)
√σ
n

Pour trouver la valeur critique (test) ou la p-valeur, on utilise un tableau de la Gaussienne


standard.
Note : on peut utiliser ces estimateurs et ces propriétés même si les données ne sont pas Gaus-
siennes. Seules les valeurs aberrantes peuvent poser problème. Ceci découle du TCL.

3.2 Modèle Gaussien : moyenne inconnue, variance inconnue

On a n observations IID X1 . . . Xn ∼ N (µ, σ 2 ). On veut déterminer la moyenne et la variance de


la distribution commune µ, σ 2 . La variance est inconnue.
Estimateurs :
Pn
µ̂ = X̄ = n1 i=1 Xi
σˆ2 1 n
= S 2 = n−1 2
P
i=1 (Xi − X̄)

Distribution d’échantillonage : µ̂ est Gaussienne, S 2 est une chi-carré, un sous-type de variable


Gamma. Elles sont indépendantes l’une de l’autre.
 2

µ ∼ N µ, σn
S 2 ∼ χ2 (n − 1)
µ indépendante de S 2

La statistique de Student T suit une loi de Student de degré de liberté n − 1 : tn−1


EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

X −µ
T = ∼ tn−1
√S
n

On l’utilise pour calculer les intervalles de confiance et les tests pour µ.


Intervalles de confiance :
 
S S
IC = µ̂ − sα √ , µ̂ + sα √
n n
sα doit être pris dans le tableau de la variable de Student.

Tests et p-valeurs : pour tester µ = µ0 on utilise la statistique de résumé :

x − µ0
T = ∼ tn−1
√S
n

Pour trouver la valeur critique (test) ou la p-valeur, on utilise un tableau de la variable de


Student.
Grandes valeurs de n : pour n ≥ 200, une variable de Student se comporte comme une variable
Gaussienne. On peut alors utiliser le tableau de la Gaussienne.

Note : on peut utiliser ces estimateurs et ces propriétés même si les données ne sont pas tout à
fait Gaussiennes. Seules les valeurs aberrantes peuvent poser problème.

3.3 Test chi-deux χ2

On a n observations d’une variable discrète X1 . . . Xn . On voudrait savoir si ces observations


viennent d’une loi donnée : F ou non.
Soit k le nombre de ”classes” possibles / le nombre de valeurs que peut prendre les variables Xi .
On note o1 . . . ok le nombre d’observations de la categorie k. On note e1 . . . ek la prédiction de
notre modèle. On calcule les ek en combinant la probabilité que le modèle donne à chaque classe
avec n :

ek = n · p k

Test de distribution : le seul objectif du test χ2 est de savoir si les probabilités pk donnent
un bon modèle des données. Notre hypothèse nulle est donc : les données sont distribuées avec
probabilités pk .
La statistique de test est :

k
X (oi − ei )2
T =
i=1
ei

Cette statistique de test suit une loi χ2 de degré de liberté r. Deux cas possibles :
— Si les probabilités pk sont fixées, alors r = k − 1
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

— Si les probabilités pk dépendent de c paramètres qui sont ajustés aux données, alors r =
k − 1 − c.
Une grande valeur de T indique qu’il faut rejeter l’hypothèse nulle car les probabilités pk ne
donnent pas un modèle satisfaisant des données. On trouve la valeur critique T ∗ à l’aide d’un
tableau pour la variable χ2r .
Test d’indépendance : un cas particulier du test χ2 concerne l’observation jointe de paires
de variables (X1 , Y1 ) . . . . On peut alors se demander si l’hypothèse nulle : les variables sont
indépendantes, donne une bon modèle des données, ou s’il faut la rejetter.
Soit h le nombre de classes pour X et k le nombre de classes pour Y . Il faut calculer le nombre
d’observations de chaque cas possible à l’aide d’un tableau de contingence :
— ei,j est le nombre de cas X = xi , Y = yj .
— ei,. est le nombre de cas X = xi .
— e.,j est le nombre de cas Y = yj .
La statistique de résumé est :

k X
h ni,. n.,j 2
X ni,j − n
tobs = ni,. n.,j
i=1 j=1 n

Elle suit une distribution χ2 de degré de liberté r = (h − 1)(k − 1).


Note : ce degré de liberté correspond au cas où il faut estimer les probabilités des classes : P(X = xi )
et P(Y = yj ). On peut également faire un test χ2 d’indépendance en ayant un modèle fixé de ces
probabilités, auquel cas le nombre de degré de liberté r est plus élevé.

3.4 Régression linéaire

On a n observations composées de paires de deux valeurs scalaires : (xi , yi ). On veut prédire les
valeurs yi à partir des xi .
On les modélise par :

Yi = α + βxi + ση
η ∼ N (0, 1)

ou de manière équivalente mais avec une notation différente :

Yi ∼ N (α + βxi , σ 2 )

Estimateurs :
Pn
(xi −x̄)yi
β̂ = Pi=1
n 2
i=1 (xi −x̄)
α̂ = ȳ − β̂ x̄
ŷi = α̂ + β̂xi
σˆ2 = S 2 1
Pn 2
= n−2 i=1 (ŷi − yi )

Distribution d’échantillonage : α̂, β̂ sont Gaussiennes (pas indépendants l’un de l’autre). S 2


est chi-deux de degré de liberté n − 2 ( n points de données et 2 paramètres estimés). S 2 est
indépendant de la paire α̂, β̂.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

 h i
x̄2
α̂ ∼ N α, σ 2 n1 + Pn (x i −x̄) 2
 i=1 
1
β̂ ∼ N β, σ 2 Pn (x i −x̄)
2
i=1
2
σ
S 2 ∼ n−2 χ2n−2
(α̂, β̂) chacun indépendant de S 2

NB : α̂ et β̂ ne sont pas indépendants.


On peut construire une statistique de Student pour α ou β.

α̂−α0
Tα =  1/2 ∼ Tn−2
1 x̄2
S n + n (x −x̄)2
P
i=1 i
β̂−β0
Tβ =  1/2 ∼ Tn−2
1
S Pn
(x −x̄)2
i=1 i

On utilise ces deux derniers résultats pour construire des IC et des tests pour les paramètres
α, β.
Intervalles de confiance :

" 1/2 1/2 #


x̄2 x̄2
 
1 1
ICα = α̂ − sα S + Pn 2
, α̂ + sα S + Pn 2
n i=1 (xi − x̄) n i=1 (xi − x̄)
" #
S S
ICβ = β̂ − sα Pn 1/2
, β̂ + sα Pn 1/2
2
[ i=1 (xi − x̄) ] [ i=1 (xi − x̄)2 ]

Tests et p-valeur : la statistitique de résumé pour tester α = α0 , ou β = β0 :

α̂−α0
Tα =  1/2 ∼ Tn−2
1 x̄2
S n + n (x −x̄)2
P
i=1 i
β̂−β0
Tβ =  1/2 ∼ Tn−2
1
S Pn
(x −x̄)2
i=1 i

Pour trouver la valeur critique (test) ou la p-valeur, on utilise un tableau de la variable de


Student.
Grandes valeurs de n : pour n ≥ 200, une variable de Student se comporte comme une variable
Gaussienne. On peut alors utiliser le tableau de la Gaussienne.

Note : on peut utiliser ces estimateurs et ces propriétés même si les données ne sont pas Gaus-
siennes. Des problèmes peuvent se poser en cas de présence de valeurs aberrantes ou si la variance
du bruit dépend des covariables xi .

3.5 Régression linéaire avancée (hors programme)

On a n observations composées de paires d’une variable scalaire yi et de d variables scalaires


x1,i . . . xd,i .
On les modélise par :
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

Yi = β1 x1,i + · · · + βd xd,i + ση
Pd
Yi = j=1 βj xj,i + ση
η ∼ N (0, 1)

ou de manière équivalente mais avec une notation différente :


 
Xd
Yi ∼ N  βj xj,i , σ 2 
j=1

On note Y le vecteur des observations yi et X la matrice (d, n) des observations xj,i .


EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

Estimateurs :

h i−1
β̂ = XXT XY
Pd
ŷi = j=1 β̂j xj,i
ˆ
σ = S2
2 1
Pn 2
= n−d i=1 (yi − ŷi )

La variable conjointe β̂ est une Gaussienne multivariée. La distribution marginale de l’estimateur


de chaque coefficient β̂i est Gaussienne. S 2 est χ2n−d . β̂ et S 2 sont indépendantes.
Test et p-valeurs : on peut tester si un coefficient βi a une valeur donnée comme pour la
régression linéaire : on construit une statistique de Student, etc.
On peut aussi tester si les covariables xq+1 . . . xd sont utiles ou si les q premières covariables sont
suffisantes. Cela revient a tester l’hypothèse nulle : βq+1 = 0, . . . , βd = 0. Pour cela, on calcule
l’erreur résiduelle de la régression ”partielle” et de la régression ”complète” :
Pn
SCq = Pi=1 (ŷiq − yi )2
n
SCq = i=1 (ŷid − yi )2

Ces valeurs, toujours positives, indiquent à quel point Y est bien prédit dans chaque modèle. Puis
on calcule leur différence normalisée :

(SCq − SCd )/(d − q)


F =
SCd /(n − d − 1)

Sous le modèle nul, elle suit une distribution Fd−q,n−p−1 . En utilisant un tableau de cette distri-
bution (non-inclus dans ce formulaire), on peut donc trouver le seuil ou calculer la p-valeur.

Note : on ne peut pas utiliser le F-test quand les données ne sont pas gaussiennes.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

z Φ(z) z Φ(z) z Φ(z) z Φ(z) z Φ(z)

0.00 0.50 1.00 0.84 2.00 0.977 3.00 0.9986501 4.00 0.9999683
0.03 0.51 1.03 0.85 2.03 0.979 3.03 0.9987568 4.03 0.9999715
0.05 0.52 1.05 0.85 2.06 0.980 3.05 0.9988558 4.05 0.9999744
0.08 0.53 1.08 0.86 2.08 0.981 3.08 0.9989475 4.08 0.9999770
0.10 0.54 1.11 0.86 2.10 0.982 3.10 0.9990324 4.11 0.9999793
0.13 0.55 1.13 0.87 2.13 0.983 3.13 0.9991110 4.13 0.9999815
0.16 0.56 1.16 0.87 2.15 0.984 3.16 0.9991836 4.16 0.9999834
0.18 0.57 1.18 0.88 2.18 0.985 3.18 0.9992508 4.18 0.9999851
0.20 0.58 1.21 0.88 2.21 0.986 3.20 0.9993129 4.20 0.9999867
0.23 0.59 1.23 0.89 2.23 0.987 3.23 0.9993701 4.23 0.9999881
0.25 0.60 1.25 0.89 2.25 0.988 3.25 0.9994230 4.25 0.9999893
0.28 0.61 1.28 0.90 2.28 0.989 3.28 0.9994717 4.28 0.9999904
0.31 0.62 1.30 0.90 2.31 0.989 3.30 0.9995166 4.30 0.9999915
0.33 0.63 1.33 0.91 2.33 0.990 3.33 0.9995579 4.33 0.9999924
0.35 0.64 1.35 0.91 2.35 0.991 3.35 0.9995959 4.36 0.9999932
0.38 0.65 1.38 0.92 2.38 0.991 3.38 0.9996309 4.38 0.9999939
0.40 0.66 1.40 0.92 2.41 0.992 3.41 0.9996631 4.41 0.9999946
0.43 0.66 1.43 0.92 2.43 0.992 3.43 0.9996926 4.43 0.9999952
0.45 0.67 1.46 0.93 2.46 0.993 3.45 0.9997197 4.45 0.9999957
0.48 0.68 1.48 0.93 2.48 0.993 3.48 0.9997446 4.48 0.9999962
0.50 0.69 1.50 0.93 2.50 0.994 3.50 0.9997674 4.50 0.9999966
0.53 0.70 1.53 0.94 2.53 0.994 3.53 0.9997883 4.53 0.9999970
0.56 0.71 1.55 0.94 2.56 0.995 3.55 0.9998074 4.55 0.9999973
0.58 0.72 1.58 0.94 2.58 0.995 3.58 0.9998249 4.58 0.9999976
0.61 0.73 1.60 0.95 2.60 0.995 3.60 0.9998409 4.61 0.9999979
0.63 0.73 1.63 0.95 2.63 0.996 3.63 0.9998555 4.63 0.9999981
0.65 0.74 1.65 0.95 2.66 0.996 3.66 0.9998689 4.66 0.9999983
0.68 0.75 1.68 0.95 2.68 0.996 3.68 0.9998811 4.68 0.9999985
0.70 0.76 1.71 0.96 2.70 0.997 3.70 0.9998922 4.70 0.9999987
0.73 0.77 1.73 0.96 2.73 0.997 3.73 0.9999023 4.73 0.9999988
0.75 0.77 1.75 0.96 2.75 0.997 3.75 0.9999116 4.75 0.9999990
0.78 0.78 1.78 0.96 2.78 0.997 3.78 0.9999200 4.78 0.9999991
0.80 0.79 1.80 0.96 2.80 0.997 3.80 0.9999277 4.81 0.9999992
0.83 0.80 1.83 0.97 2.83 0.998 3.83 0.9999346 4.83 0.9999993
0.86 0.80 1.85 0.97 2.85 0.998 3.85 0.9999409 4.86 0.9999994
0.88 0.81 1.88 0.97 2.88 0.998 3.88 0.9999467 4.88 0.9999995
0.90 0.82 1.90 0.97 2.91 0.998 3.91 0.9999519 4.91 0.9999995
0.93 0.82 1.93 0.97 2.93 0.998 3.93 0.9999566 4.93 0.9999996
0.95 0.83 1.96 0.97 2.95 0.998 3.95 0.9999609 4.95 0.9999996
0.98 0.84 1.98 0.98 2.98 0.999 3.98 0.9999648 4.98 0.9999997

Table 1 – Table de la fonction de répartition de la Gaussienne standard Z ∼ N (0, 1) : Φ

NB : les valeurs sont arrondies. Le nombre de chiffres significatifs est fixe sur chaque co-
lonne.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

z∗ P(|z| ≤ z ∗ ) z∗ P(|z| ≤ z ∗ ) z∗ P(|z| ≤ z ∗ ) z∗ P(|z| ≤ z ∗ ) z∗ P(|z| ≤ z ∗ )

0.02 0.02 1.03 0.69 2.02 0.957 3.03 0.9975 4.03 0.999943
0.05 0.04 1.05 0.71 2.05 0.960 3.05 0.9977 4.05 0.999949
0.08 0.06 1.08 0.72 2.08 0.962 3.08 0.9979 4.08 0.999954
0.10 0.08 1.10 0.73 2.10 0.964 3.10 0.9981 4.10 0.999959
0.12 0.10 1.12 0.74 2.12 0.966 3.12 0.9982 4.12 0.999963
0.15 0.12 1.15 0.75 2.15 0.968 3.15 0.9984 4.15 0.999967
0.18 0.14 1.18 0.76 2.18 0.970 3.18 0.9985 4.18 0.999970
0.20 0.16 1.20 0.77 2.20 0.972 3.20 0.9986 4.20 0.999973
0.22 0.18 1.23 0.78 2.22 0.974 3.22 0.9987 4.23 0.999976
0.25 0.20 1.25 0.79 2.25 0.976 3.25 0.9988 4.25 0.999979
0.28 0.22 1.28 0.80 2.28 0.977 3.28 0.9989 4.28 0.999981
0.30 0.24 1.30 0.81 2.30 0.979 3.30 0.9990 4.30 0.999983
0.32 0.25 1.33 0.81 2.33 0.980 3.32 0.9991 4.32 0.999985
0.35 0.27 1.35 0.82 2.35 0.981 3.35 0.9992 4.35 0.999986
0.38 0.29 1.38 0.83 2.38 0.982 3.38 0.9993 4.38 0.999988
0.40 0.31 1.40 0.84 2.40 0.984 3.40 0.9993 4.40 0.999989
0.43 0.33 1.42 0.85 2.43 0.985 3.42 0.9994 4.42 0.999990
0.45 0.35 1.45 0.85 2.45 0.986 3.45 0.9994 4.45 0.999991
0.48 0.37 1.48 0.86 2.48 0.987 3.48 0.9995 4.48 0.999992
0.50 0.38 1.50 0.87 2.50 0.988 3.50 0.9995 4.50 0.999993
0.52 0.40 1.52 0.87 2.53 0.988 3.53 0.9996 4.53 0.999994
0.55 0.42 1.55 0.88 2.55 0.989 3.55 0.9996 4.55 0.999995
0.58 0.43 1.58 0.88 2.58 0.990 3.58 0.9996 4.58 0.999995
0.60 0.45 1.60 0.89 2.60 0.991 3.60 0.9997 4.60 0.999996
0.62 0.47 1.62 0.90 2.62 0.991 3.62 0.9997 4.62 0.999996
0.65 0.48 1.65 0.90 2.65 0.992 3.65 0.9997 4.65 0.999997
0.68 0.50 1.68 0.91 2.68 0.993 3.68 0.9998 4.68 0.999997
0.70 0.52 1.70 0.91 2.70 0.993 3.70 0.9998 4.70 0.999997
0.73 0.53 1.72 0.92 2.72 0.994 3.72 0.9998 4.73 0.999998
0.75 0.55 1.75 0.92 2.75 0.994 3.75 0.9998 4.75 0.999998
0.78 0.56 1.78 0.92 2.78 0.994 3.78 0.9998 4.78 0.999998
0.80 0.58 1.80 0.93 2.80 0.995 3.80 0.9999 4.80 0.999998
0.82 0.59 1.83 0.93 2.82 0.995 3.82 0.9999 4.82 0.999999
0.85 0.60 1.85 0.94 2.85 0.996 3.85 0.9999 4.85 0.999999
0.88 0.62 1.88 0.94 2.88 0.996 3.88 0.9999 4.88 0.999999
0.90 0.63 1.90 0.94 2.90 0.996 3.90 0.9999 4.90 0.999999
0.92 0.65 1.92 0.95 2.92 0.997 3.92 0.9999 4.93 0.999999
0.95 0.66 1.95 0.95 2.95 0.997 3.95 0.9999 4.95 0.999999
0.98 0.67 1.98 0.95 2.98 0.997 3.98 0.9999 4.98 0.999999
1.00 0.68 2.00 0.95 3.00 0.997 4.00 0.9999 5.00 0.999999

Table 2 – Quantiles centrés de la loi Gaussienne.

NB : les valeurs sont arrondies. Le nombre de chiffres significatifs est fixe sur chaque co-
lonne.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

d s5 s1 s0.1 d s5 s1 s0.1

1 12.706 63.657 636.619 21 2.080 2.831 3.819


2 4.303 9.925 31.599 22 2.074 2.819 3.792
3 3.182 5.841 12.924 23 2.069 2.807 3.768
4 2.776 4.604 8.610 24 2.064 2.797 3.745
5 2.571 4.032 6.869 25 2.060 2.787 3.725

6 2.447 3.707 5.959 26 2.056 2.779 3.707


7 2.365 3.499 5.408 27 2.052 2.771 3.690
8 2.306 3.355 5.041 28 2.048 2.763 3.674
9 2.262 3.250 4.781 29 2.045 2.756 3.659
10 2.228 3.169 4.587 30 2.042 2.750 3.646

11 2.201 3.106 4.437 32 2.037 2.738 3.622


12 2.179 3.055 4.318 34 2.032 2.728 3.601
13 2.160 3.012 4.221 36 2.028 2.719 3.582
14 2.145 2.977 4.140 38 2.024 2.712 3.566
15 2.131 2.947 4.073 40 2.021 2.704 3.551

16 2.120 2.921 4.015 50 2.009 2.678 3.496


17 2.110 2.898 3.965 100 1.984 2.626 3.390
18 2.101 2.878 3.922 150 1.976 2.609 3.357
19 2.093 2.861 3.883 200 1.972 2.601 3.340
20 2.086 2.845 3.850 ∞ 1.960 2.576 3.291

Table 3 – Quantiles de la loi de Student

NB : les valeurs sont arrondies. Le nombre de chiffres significatifs après la virgule est fixe
sur chaque colonne.

Soit Td une loi de student de degré de liberté d donné. Le tableau donne la valeur des seuil sα tels
que :

p(|Td | ≤ sα ) = 1 − α/100 (1)

pour α = 5, 1, 0.1.
EPFL Probabilités et Statistique
Automne 2017 Guillaume Dehaene

r s5 s1 s0.1 r s5 s1 s0.1

1 3.841 6.635 10.828 19 30.144 36.191 43.820


2 5.991 9.210 13.816 20 31.410 37.566 45.315
3 7.815 11.345 16.266 21 32.671 38.932 46.797
4 9.488 13.277 18.467 22 33.924 40.289 48.268
5 11.070 15.086 20.515 23 35.172 41.638 49.728

6 12.592 16.812 22.458 24 36.415 42.980 51.179


7 14.067 18.475 24.322 25 37.652 44.314 52.62
8 15.507 20.090 26.124 26 38.885 45.642 54.052
9 16.919 21.666 27.877 27 40.113 46.963 55.476
10 18.307 23.209 29.588 28 41.337 48.278 56.892

11 19.675 24.725 31.264 29 42.557 49.588 58.301


12 21.026 26.217 32.909 30 43.773 50.892 59.703
13 22.362 27.688 34.528 32 46.194 53.486 62.487
14 23.685 29.141 36.123 34 48.602 56.061 65.247
15 24.996 30.578 37.697 36 50.998 58.619 67.985
16 26.296 32.000 39.252 38 53.384 61.162 70.703
17 27.587 33.409 40.790 40 55.758 63.691 73.402
18 28.869 34.805 42.312 50 67.505 76.154 86.661

Table 4 – Quantiles de la loi χ2r

NB : les valeurs sont arrondies. Le nombre de chiffres significatifs après la virgule est fixe
sur chaque colonne.

Soit χ2r une loi chi-carré de degré de liberté r donné. Le tableau donne la valeur des seuil sα tels
que :

p(χ2r ≤ sα ) = 1 − α/100 (2)

pour α = 5, 1, 0.1.

Vous aimerez peut-être aussi