Vous êtes sur la page 1sur 19

1

PREMIERE PARTIE NOTIONS ELEMENTAIRES DE STATISTIQUE PROBABILISTE

1. Définitions de la probabilité Afin d'éviter des démonstrations très théoriques, nous donnons les définitions tirées de la norme NF X06-002. a) Définition déterministe de la probabilité (ou à priori) Lors de la réalisation d’un événement dont le nombre d’issues favorables peut être calculé au moyen de l’analyse combinatoire (compte tenu de l’hypothèse d’équiprobabilité des issues), on définit la probabilité de cet événement par le rapport du nombre d'issues favorables (h) au nombre d'issues possibles (n) :

P=

h n

C’est la définition classique que l’on utilise pour évaluer les issues d’un jeu de hasard. Exemple : La probabilité pour obtenir "pile" après un lancé d’une pièce parfaitement symétrique est de 0,5. b) Définition empirique de la probabilité Si après un grand nombre de réalisations d’une expérience (n réalisations) on observe h fois l’issue souhaitée, la probabilité de cet événement est la limite de la fréquence des observations de l'issue souhaitée :

 h P = n lim∞   →  n
En réalité, la fréquence observée en fonction de n oscille autour de sa valeur théorique et s'en rapproche indéfiniment lorsque n→∞ conformément à la "loi des grands nombres".

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

On peut associer à "pile" X = 1 et à "face" X = -1 ou encore 0 et 1 ou tout autre nombre. Variables aléatoires a) Définition Considérons un événement comportant un certain nombre d’issues. C’est un nombre réel. On peut associer une probabilité à une variable aléatoire discrète. Si on associe un nombre à chaque issue. b) Continuité et discontinuité d’une variable aléatoire. X est alors une variable aléatoire. par contre les valeurs particulières de la variable aléatoire sont notées x ou xi. On ne peut pas associer une probabilité à une variable aléatoire continue. ce nombre est appelé variable aléatoire ou aléa numérique. Par contre on peut associer à x une densité de probabilité f(x) et on peut associer à un intervalle [x. Cela signifie que la différence entre deux valeurs voisines peut être aussi petite que l’on peut l’imaginer. notion de densité de probabilité ♦ Variable discontinue ou discrète C’est une variable qui ne peut prendre que des valeurs isolées séparées par un intervalle fini.1 Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . Elle est généralement représentée par un entier. La densité de probabilité est définie de la même manière que la densité d’un milieu continu. La probabilité pour que X prenne une valeur particulière x dans R (l'ensemble des nombres réels) est toujours nulle. c’est-à-dire non infinitésimal. ou à chaque ensemble d’issues. ♦ Variable continue C’est une variable qui peut prendre toutes les valeurs d’un intervalle fini ou infini.2 2. Fig. On la note par une lettre majuscule X. x+∆x] une probabilité non nulle. Exemple : jeu de pile ou face : Les issues du jeu sont "pile" ou "face".

Exemple : On s’intéresse à la taille des personnes d’un certain âge. donc un nombre réel (un nombre réel est un nombre infiniment précis). Si la taille est considérée comme une variable aléatoire continue.75 et 1.7543 m. p(x) X Fig. Il faut donc "discrétiser" une variable aléatoire continue pour pouvoir en définir une probabilité non nulle.3 P(x ≤ X ≤ x + ∆x) ∆x f(x) = lim ∆x→0 Si l’intervalle est assez petit pour qu’on puisse considérer f(x) comme constant : P(x ≤ X ≤ x + ∆x) = f(x) ∆x On constate bien que cette probabilité tend vers 0 lorsque ∆x tend vers 0. La probabilité de rencontrer dans la population une valeur numérique aussi précise est nulle. Par contre il existe un certain nombre d’individus ayant une taille comprise entre 1. Il est d’ailleurs impossible de mesurer la taille d’une personne avec une telle précision. rien n’empêche d’examiner la probabilité pour rencontrer un individu de taille 1.76 m si l’échantillon est suffisamment grand. Généralités sur les lois de probabilités a) Définition Une loi de probabilité est une relation permettant d’associer une probabilité ou une densité de probabilité à chaque valeur d’une variable aléatoire. b) Représentation d’une loi de probabilité Si la variable est discrète : représentation comme un diagramme en bâtons. 2 Diagramme en bâtons Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . 3.7500 m ou même 1.

∞ et l’abscisse x. ou plus simplement fonction de distribution F ou fonction de répartition F est définie par : F(x) = P(X < x) d) Représentation graphique de la fonction de répartition La courbe est encore appelée "courbe des probabilités cumulées". 3 Lois de probabilité et fonctions de répartition (variables discrètes et continues) e) Fractile d'ordre α : t(α) Dans le cas d’une loi continue le fractile t(α) est l’abscisse x telle que la surface délimitée par la loi de probabilité entre . Fig. Dans le cas d’une loi continue F(x) représente la surface délimitée par la courbe représentation de la loi entre .∞ et t(α) soit égale à α. Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens .4 . Les fonctions F(t) et t(α) sont des fonctions réciproques l’une de l’autre.Pour une variable continue on représente la fonction densité de probabilité (voir figure 1) c) Fonction de répartition d’une loi de probabilité La fonction cumulative de distribution.

La surface totale intérieure à l’intervalle interfractile est 1-α. Les lois de probabilités discrètes n’ont pas de fractiles Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens .α ou F(t α) = α Fig. 4 Fractile tα d’une loi statistique encore appelé “ fractile inférieur ” Fig. On démontre que : P( X ≥ t 1-α) = α P( X ≤ t 1-α) = 1 .5 Si tα est le fractile d’ordre α on a les relations : P( X ≤ t α) = α P( X ≥ t α ) = 1 .F(t 1-α) = α Si la loi statistique est symétrique et centrée on a la relation tα = -t(1-α) Les fractiles symétriques délimitent chacun une surface extérieure de α/2. 6 Fractiles symétriques Remarques : les fractiles des lois de probabilités ont une importance considérable dans les tests statistiques.α ou 1 . Fig. 5 Fractile t(1-α) d’une loi statistique encore appelé “ fractile supérieur ” On s’intéresse également au fractile t(1-α) qui joue le même rôle que tα sur la partie des x élevés (Fig5).

7 Signification physique de l’espérance mathématique • Quelques propriétés de l’espérance mathématique E (α) = α (α est une constante) E (αX + βY) = αE(X) + βE(Y) Par contre E(XY) = E(X) . Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . Paramètres statistiques des variables aléatoires a) Espérance mathématique ♦ Définition L'espérance mathématique est un paramètre de position (ou paramètre de tendance centrale) défini par les relations ♦ Variable discrète E(X) = ∑ Xi . Son espérance mathématique est nulle. Variable continue ♦ Variable continue +∞ E(X) = −∞ ∫ X f(X) dX Physiquement. l'espérance mathématique est le centre de gravité de la loi de probabilité.6 4.P(Xi ) i =1 N Les indices 1 à N doivent englober tout le domaine de variation de X. La variable Z = X .E(X) est appelée variable aléatoire centrée. E(Y) uniquement si les variables x et y sont indépendantes. Fig.

V(X) = E((X . l’écart-type est la racine carrée de la variance. (une somme σ(X) + σ(Y) n’a aucun sens statistique) La variable aléatoire Z = X − E( X ) admet une espérance nulle et une variance de 1.7 b) Variance et écart-type ♦ Définitions La variance est l’espérance du carré de la variable centrée. Elles ne s’appliquent pas aux écarttypes.E(X))2) Pour une variable discrète V(X) = ∑ P(Xi )(Xi − E(X))2 i =1 n Pour une variable continue ∞ V(X) = −∞ ∫ (x − E(x)) 2 f(x)dx Enfin. Z est appelée σ variable centrée et réduite (ou variable normalisée). Physiquement. • Quelques propriétés de l’espérance mathématique V(αX) = α2 V(X) Pour deux variables aléatoires indépendantes V(X + Y) = V(X) + V(Y) V(X . Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . la variance est assimilable à un moment d'inertie (les masses étant égales aux probabilités) et l’écart-type est assimilable à un rayon de giration. σ = V(X) La variance et l’écart-type sont des paramètres de dispersion.Y) = V(X) + V(Y) Les propriétés d’additivité ne s’appliquent qu’aux variances .

µ1 = 0 et µ2 = V(X) Tous les moments centrés d’ordre impair (>1) donnent une indication sur la dissymétrie de la loi de probabilité. toutes choses égales par ailleurs (même espérance et même variance).8 c) Moments d’ordre supérieur. sa valeur donne une idée de l’importance de la dissymétrie et son signe montre si la dissymétrie provient de valeurs élevées de X (dissymétrie à droite ) ou des valeurs petites de X (dissymétrie à gauche). On n’utilise que le moment d’ordre 3 et on appelle coefficient d’asymétrie le coefficient : β = µ3 µ2 µ3 = 3 2 σ3 Le coefficient d’asymétrie est une grandeur sans dimension. le coefficient coefficient de Kurtosis ou aplatissement comparé à la loi Normale qui est également sans dimension: µ µ δ = 4 − 3= 4 − 3 µ2 σ4 2 Ce facteur permet donc de montrer qu’une distribution est plus aplatie ou moins aplatie qu’une distribution gaussienne. Tous les moments centrés d’ordre pair sont des variables de dispersion.E(X))n] On a donc M1 = E(X) . Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . dissymétrie et aplatissement ♦ Définitions On appelle moment d’ordre n la grandeur : Mn = E (Xn) Le moment centré d’ordre n est le moment d’ordre n de la variable centrée : µn = E[(X . On n’utilise que le moment µ4 et son coefficient associé.

p On fait n réalisations du jeu de façon que les épreuves soient indépendantes. ♦ Médiane La médiane Med est la valeur de x pour laquelle P (X ≤ x) = P (X ≥ x) = 1 2 Pour une distribution continue c’est la valeur qui sépare la courbe de densité de probabilité en deux portions de surface égale.une issue défavorable S avec la probabilité q = 1 . Cette valeur peut ne pas être unique. trimodale ou multimodale.une issue favorable S avec la probabilité p . On veut calculer la probabilité pour avoir k issues favorables appelées S. Une distribution unimodale est une distribution n’ayant qu’un seul mode. sinon elle est bimodale. Probabilité pour la réalisation de S : pk Probabilité pour n .k réalisations de S : (1 .k fois : pk (1 . parce que l’ordre des réalisations est indifférent) k Nombre de combinaisons de k objets parmi n : C n P(X = k) = Ckpk (1− p)n−k n Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . le nombre total de réalisations est variable et ne dépend pas de n.p) n-k (Si on n’associe pas n-k réalisations de S à k réalisations de S. Etude de quelques lois de probabilités discrètes a) Loi de Binomiale ♦ Réalisation On considère un jeu comportant 2 issues : . La médiane est le fractile d'ordre 1 2 5. sans tenir compte de l’ordre de leur réalisation.p)n-k Probabilité pour que S se réalise k fois et S n .9 d) Autres paramètres de position ♦ Mode Le mode est la valeur de X dont la probabilité est maximale.

1 (m = 4.p) σ = np(1.10 ♦ Paramètres statistiques E(X) = np V(X) = np(1. Le diagramme est symétrique lorsque p = q = 0.5 . σ = 1.9) Enfin. les valeurs de P(X=k) diminuent très vite à partir d’une certaine valeur de k. lorsque n est grand et p petit. Dans ce cas. Lorsque p et la médiane et le mode deviennent < E(X) Nous verrons ultérieurement l’importance de cette propriété. ce qui signifie que le diagramme en bâtons ne dépasse jamais une vingtaine de valeurs . 8 Diagramme en bâtons de la loi binomiale Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . la médiane et le mode sont égaux à E(X).p) ♦ Coefficients d’asymétrie et d’aplatissement β= q−p npq 1 − 6pq npq γ = 3+ ♦ Représentation graphique On représente la loi binomiale à l’aide d’un diagramme en bâtons. La figure ci-dessous représente le diagramme en bâtons de la loi binomiale pour n = 40 et p = 0. et q la dissymétrie augmente Fig.

Pour les grandes valeurs de n. β → 0 et γ → 3. (1 < np < 20) Exemple : p = 0. 9 Diagramme en bâtons de la loi de Poisson Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . le produit np n’étant pas très grand. Moyennant quelques approximations.73). la loi se rapproche d’une loi de Gauss.11 b) Loi de Poisson ♦ Expression de la loi de probabilité On obtient la loi de Poisson à partir de la loi binomiale lorsque n est très grand et p très petit. on meut démontrer : P(k) = ♦ Paramètres statistiques mk −m e k! On tire ces valeurs de la loi binomiale dont la loi de Poisson est une approximation. La figure ci-dessous représente la loi de Poisson pour m = 3 (σ = 1. Fig. En posant np = m dans les équations correspondantes de la loi binomiale on obtient : E(X) V(X) = m = m m 1 m 1 m σ = β = γ = 3 + ♦ Représentation graphique Le diagramme est toujours dissymétrique vers les valeurs élevées de X. la médiane et le mode sont inférieurs à la moyenne.05 et n = 100 fournit une très bonne approximation d’une loi de Poisson.

6. β = 0 et γ = 3 ♦ Paramètres statistiques Loi Normale N(m. Les files d’attente suivent également une loi de Poisson. V(x) = 1. γ = 3 qui est prise comme référence lorsqu’on veut comparer les autres lois statistiques à la loi Normale. L’aplatissement prend une valeur caractéristique.1) Si on remplace x par la variable aléatoire réduite x−m la fonction g devient : σ x2 2 g(x) = 1 2π e − C’est l’équation de la loi Normale Réduite.1) E(X) = 0 V(X) = 1 La loi est donc symétrique et le mode et la médiane sont égaux à la moyenne.σ) E(X) = m V(X) = σ2 Loi Normale réduite N(0. Etude de quelques lois de probabilités continues utiles pour l’interprétation de données expérimentales a) Loi de Gauss (Loi Normale et Loi Normale Réduite) ♦ Expression de la densité de probabilité La loi Normale est une fonction continue dépendant des deux paramètres m et σ − (x− m)2 2σ 2 g(x) = 1 σ 2π e ♦ Loi Normale Réduite N(0. Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens .12 ♦ Intérêt de la loi de Poisson la loi de Poisson est la loi suivie par les désintégrations radioactives ainsi que par d’autres événements rares comme les pannes sur les chaînes de fabrication ou les objets défectueux dans une production. On a évidemment E(x) = 0.

Il existe des tests statistiques permettant de prouver le caractère normal d’un ensemble de mesures et la normalité d'une distribution expérimentale est souvent une condition nécessaire pour l'application des tests statistiques sur les moyennes ou sur les variances.40 0. u 0 0.F(-u) F est la fonction de répartition de g(x).6740 1 g(u) 0.99 0.318 0.95 0.13 Fig.10 Représentation graphique de la loi Normale réduite et valeur des surfaces S(u) ♦ Valeurs remarquables de g(x) et de la surface comprises entre –u et u +u S(u) = -u ∫ f(x)dx = F(u) .6 3 ♦ Intérêt de la Loi Normale Beaucoup de mesures physiques se distribuent suivant une loi Normale.5 % 2 ln 2 2 2.5 0.4 10 -3 S(u) 0 0.75 0.995 Remarque Maximum de la courbe Erreur équiprobable Point d'inflexion Largeur à mi-hauteur Intervalle de confiance à 95 % Intervalle de confiance à 99 % Intervalle de confiance à 99.014 4.054 0. Ces valeurs ont une importance majeure pour la compréhension des tests statistiques.68 0.242 0. Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens .20 0.

14 b) Loi de Student Sa densité de probabilité dépend d’un paramètre ν. plus il faut prendre une abscisse t(1-α) élevée pour que l’intégrale : t(1−α ) −∞ ∫ f(x)dx ait une valeur donnée. ♦ Fractiles de la loi de Student Les valeurs des fractiles t(ν. Comme pour toute loi statistique.α) et t(ν. Lorsque ν = 0.1-α). 11 représentation graphique de la loi de Student Les courbes présentent la même allure qu’une courbe de Gauss mais elles sont plus aplaties. mais à α constant les valeurs de t(ν. Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens .α) = -t(ν. Lorsque ν → ∞ (en pratique lorsque ν > 40) la loi de Student est quasiment équivalente à la loi de Gauss. appelé "nombre de degrés de liberté". Puisque la loi est symétrique t(ν.1-α) de la loi de Student sont données dans les tables de Student-Fisher. sauf pour α = 100 %. plus une courbe est aplatie. la valeur de t est infinie pour toutes les valeurs de α.1-α) augmentent sensiblement lorsque ν diminue (voir fig 11 et 12). En effet. la valeur t(ν.1-α) à ν constant augmente lorsque α diminue. Ceci s’explique facilement par l ‘augmentation de l’aplatissement de la courbe. Elle est symétrique et a pour représentation graphique la famille de courbes dont quelques unes sont représentées ci-dessous : Fig.

Généralement on pose P = 1 .5% Remarque : Les tables de Student-Fisher sont présentées de différentes manières : les tables de fractiles appelées encore "tables unilatérales" donnent t(1-α.1 degrés de liberté.α (P > 0. 5% et 1% et 0.15 Fig.σ) la grandeur x−m où s = s n ∑ ( xi − m ) i 2 n−1 suit une loi de Student à ν = n .5) et on donne la table en fonction de P. ν) en fonction de 1-α et de ν pour des valeurs α < 0. On trouve également des tables donnant la valeur de t(P) de façon que : t(P) − t(P) ∫ f(x)dx = P = 1 − α Ces tables sont appelées "tables bilatérales de Student-Fisher" ♦ Intérêt de la loi de Student On peut montrer que pour un échantillon de n observations indépendantes d’une grandeur X distribuée aléatoirement suivant une loi Normale N(m. Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . 12 Fractiles de la loi de Student (dispersion bilatérale) en fonction de ν pour α = 10%.5. Cette loi présente donc un intérêt considérable dans tous les tests statistiques relatifs aux moyennes de petits échantillons.

1 (attention F ( ν1.1 − α) Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . ν1 . On prend généralement α = 0.α Les fractiles inférieurs peuvent être calculés sachant que F ( ν 2 . les fractiles deviennent infinis lorsque ν1 et ν2 sont nuls. ♦ Intérêt de la loi de Fisher-Snedecor Par conséquent. Numériquement. Fig. α) = à l’échange des degrés de liberté ν1.01 et on a toujours P = 1 .13 Représentation graphique de la loi de Fisher-Snedecor ♦ Fractiles de la loi de Fisher Les tables donnent les valeurs des fractiles supérieurs F(ν1. c’est à dire que les deux entrées de la table sont ν1 et ν2. c’est à dire les problèmes de précision et de qualité des mesures physico-chimiques.16 c) Loi de Fisher-Snédecor ♦ Expression de la densité de probabilité C’est la loi d’une variable aléatoire continue appelée F dont la densité de probabilité dépend de deux paramètres ν1 et ν2 (nombre de degrés de liberté) : Les représentations graphiques sont données à la figure 13 en fonction de ses deux paramètres ν1 et ν2. et ν2) Comme pour toutes les lois statistiques. 1-α) pour une valeur donnée de α. ν2. La loi est dissymétrique et d’autant plus aplatie que ν1 et ν2 sont petits.05 ou α = 0. les valeurs sont très élevées lorsque ν2 < 3. la loi de Fisher-Snedecor intervient dans tous les problèmes qui font intervenir des comparaisons de variances. ν2 .

) ♦ Fractiles de la loi du χ2 V(χ2) = 2ν Elle est dissymétrique et d’autant plus aplatie que ν est plus élevé (évolution contraire par Comme pour la loi de Fisher.5 et P > 0. La loi de Khi-deux.17 d) Loi du Khi-deux ♦ Densité de probabilité La densité de probabilité dépend d’un paramètre ν appelé "nombre de degrés de liberté".   1 n 2 La somme ci-dessus est d’autant plus petite que les valeurs de xi sont proches de la moyenne. On représente les fractiles soit en fonction de P.  x − m ∑  i σ  suit une loi de χ2 à ν degrés de liberté. σ). α représente la surface de la courbe entre χ2 et l’infini. appelée aussi loi de Pearson. Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . La loi du χ2 est donc utilisée dans les problèmes d’adéquation.P ♦ Intérêt de la loi de Khi-deux Dans le cas d’un échantillon de ν observations indépendantes d’une grandeur X qui suit une loi Normale N(m. une famille de courbes représentées à la figure 14 : fig. c’est à dire lorsqu’il faut prouver que des valeurs expérimentales xi sont proches de valeurs modèles (xi (théoriques).14 Représentation graphique de la loi du khi-deux E(χ2) = ν rapport aux autres lois.5). soit en fonction de α = 1 . a pour représentation graphique en fonction de ν. la somme : (α < 0.

P(X) Si VRAI on renvoie la fonction de répartition pour l’abscisse X.Khideux Khideux.Normale Standard. Si FAUX. E(x).Binomiale Paramètres k. n.Student P. on renvoie la probabilité.loi. σ P X. Toutefois les explications concernant ces lois sont souvent incomplètes ou erronées. 1 ou 2 Fractile de la loi Normale d’espérance E et d’écarttype σ pour la probabilité P Fractile de la loi Normale réduite pour la probabilité P Renvoie la probabilité cumulée de X à l’infini pour une loi de Student à ν degrés de liberté.Inverse P. Loi. Si 1 : distribution unilatérale. ν. Fonctions de répartition et fractiles à l’aide du logiciel EXCEL. VRAI/FAUX Loi. et ν2 degrés de liberté. la fonction renvoie la probabilité totale extérieure ATTENTION.18 7.Poisson X. si 2 : distribution bilatérale.Normale Standard z Loi.Normale. ν2 P. on renvoie l’ordonnée de la loi Normale pour l’abscisse x Renvoie la fonction de répartition de la loi Normale réduite pour l’abscisse z. ν Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . P étant la probabilité extérieure à l’intervalle –X. ν2 ν. Pour le fractile unilatéral introduire 2P Renvoie la probabilité cumulée de X à l’infini pour une loi de Fisher à ν1. E(X). ν1. Renvoie la probabilité cumulée de X à l’infini pour une loi de Pearson à ν degrés de liberté.F Inverse. Si FAUX. ν1.Inverse Loi. Le logiciel EXCEL permet de calculer toutes les lois de probabilités classiques. E(X).Inverse Loi.inverse X. σ.Student.Normale X. p VRAI/FAUX Significations n : nombre de tirages. Renvoie le fractile unilatéral d’une loi de Fisher à ν1. On accède à ces fonctions par : Insertion d’une fonction/fonctions statistiques Fonctions Loi. Si FAUX. X P. Renvoie le fractile unilatéral d’une loi de Pearson à ν degrés de liberté pour la probabilité 1-P Loi. +X . valeur P(X=k) comprise. p : probabilité d’un tirage Si VRAI on renvoie la probabilité cumulée de 0 à k. et ν2 degrés de liberté pour la probabilité 1-P. VRAI/FAUX Loi.F Loi. on renvoie la probabilité. valeur P(X) comprise. leurs fonctions de répartition et leurs fractiles. ν Loi. Calcul des lois de probabilités. P(X=k) Si VRAI on renvoie la probabilité cumulée de 0 à X (entier) . cette fonction renvoie le fractile bilatéral d’une loi de Student à ν degrés de liberté.

t(1-α/2) F(α). Poisson. F(1-α). χ2(1-α). u(α/2). χ2 (α). Fisher-Snedecor.19 STATISTIQUES PROBABILISTES CE QU’IL FAUT ABSOLUMENT RETENIR Calcul de l’Espérance mathématique Calcul de la variance Variable centrée réduite Propriétés d’additivité de l’espérance et de la variance E (αX + βY) = αE(X) + βE(Y) V(αX) = α2 V(X) V(X ± Y) = V(X) + V(Y) (X et Y : variables indépendantes) Loi de probabilité Fonction de répartition Fractiles unilatéraux. Student. t(1-α). Normale. u(1-α). t(α/2). Khi-deux Signification de: u(α). χ2 (α/2). u(1-α/2) t(α). χ2(1-α/2) Savoir lire les tables statistiques Pierre Jost Statistiques à l’usage des ingénieurs et des techniciens . Fractiles bilatéraux Allure générale des lois Binomiale.