Vous êtes sur la page 1sur 6

Université des frères Mentouri Constantine1

Faculté des Sciences de la Nature et de la Vie

Département Biologie et Ecologie Végétale

Spécialité : L3 Ecologie et environnement

Coefficient : 2

Module Biostatistique
Cours
Statistique Inférentielle

2018/2019

Dr. GAAD Djouher


Cours Séance 1 Statistiques inférentielle

Objectifs du cours

La statistique inferentielle = La statistique inductive

 La statistique inductive permet à partir d'un échantillon d'induire la loi de distribution de la population.
 Elle conduit aux tests d'hypothèses= test statistique
 On distingue deux approches : la paramétrique et la non paramétrique.

Univ.Cons 1
Cours Séance 1 Statistiques Inférentielle

Plan du cours

Séance 1 - Les lois de probabilité


Séance 2 - Les lois de probabilité (suite)
Séance 3 - Principe des tests statistiques
Séance 4 - Introduction à l’analyse de variance

Univ.Cons 1
Cours Séance 1 Statistiques Inférentielle

Séance 1

Les lois de probabilité

Univ.Cons 1
Cours Séance 1 Statistiques Inférentielle

Il est toujours possible d’associer à une variable aléatoire une probabilité et définir ainsi une loi de probabilité. Il existe un certain
nombre de lois de probabilités usuelles qui permettent de modéliser des phénomènes aléatoires.

On distingue :
I. Les lois discrètes associées aux variables aléatoires discrètes
 Loi uniforme
 Loi de Bernoulli
 Loi Binomiale
 Loi de Poisson
II. Les lois continues associées aux variables aléatoires continues
 Loi uniforme
 Loi normal
 Loi du khi-deux
 Loi de Student

Principales lois discrètes


A. Loi uniforme :
Une distribution de probabilité suit une loi uniforme lorsque toutes les valeurs prise par la variable aléatoire sont équiprobable
X(Ω) =} x1…….xn} P(X = xi) = 1/n

La notation p(X=x) signifie probabilité que la variable aléatoire X mérite x. Se note aussi p(x), voire px. Les différentes valeurs de x se
notent x1, x2,... xi, ... xn et les probabilités correspondantes p(x1), p(x2),... p(xi), ... p(xn).
Exemple 1 : La distribution des chiffres obtenus au lancer de dé suit une loi uniforme dont la loi de probabilité est la suivante :

X 1 2 3 4 5 6
p(X=xi)= 1/6 1/6 1/6 1/6 1/6 1/6

Univ.Cons 1
Cours Séance 1 Statistiques Inférentielle
B. Loi de Bernoulli B(p) :
Soit un ‘univers Ω constitué de deux éventualité S pour sucée et E pour échec, sur lequel on construit une variable aléatoire discrète,
« nombre de succès » tell que au cours d’une éprouve. SI S est réalisé, X=1 Si E est réalisé X=0. On appel variable de Bernoulli ou
variable indicatrice la variable aléatoire X telle que
X (Ω) = }0; 1}, paramètre p P(X = 1) = p, P(X = 0) = q avec q+p=1
Exemple 2 : On jette une pièce de monnaie ´équilibrée. Ω = {Pile, Face}. Soit X une variable aléatoire discrète

X(ω) = 1 si ω = ”Pile” X(ω) = 0 si ω = ”Face” P(X = 1) = p = 1/2 donc X ∼ B(1, 1/2)


C. Loi binomiale β(n; p) :
Soit un schéma de Bernoulli et soit X la variable aléatoire qui associe au schéma le nombre de succès : X : Ω → E = 1 . . . n

ω → X(ω) X suit une loi binomiale de paramètres n et p : X ∼ B(n, p).


Probabilité de l’obtention de k succès au cours de n ´épreuves indépendantes

∀k ∈ {0, 1, 2, . . . n}, P(X = k) = Ckn pk (1 − p) n−k Avec Ckn = n!/ k!(n − k)!

Exemple 3 : On jette 10 fois de suite une pièce de monnaie ´équilibrée. Quelle est la probabilité d’avoir un total de 8 piles ? Soit X
une variable aléatoire qui associe à ces 10 lancers de pièce le nombre de pile.
X ∼ B(10, 1/2) P(X = 8) = C810 (1/2)8 (1 – 1/ 2)10−8 P(X = 8) = 0.0439

Loi de Poisson P(ɻ) : La distribution de Poisson est construite avec un seul paramètre, lambda (λ), qui est à la fois la moyenne et
la variance. Le fait qu'une variable aléatoire X suive une loi de Poisson de paramètre λ s'écrit ainsi :

∀ λ k ∈ N P(X = k) =e- λ λk/k

Exemple 4 : A un guichet d'une banque, on sait que le nombre moyen de clients par heure Est de 12. On suppose que le nombre de
clients par heure est distribué selon une loin de Poisson.

Quelle est la probabilité pour qu'en une heure, le guichetier s'occupe de plus de 15 clients ?
Soit X ∼ P(λ ) avec λ = 12 P(X > 15) = 1 - P(X ⩽ 15) = e-121215/15 P(X > 15) = 0,1556.

Vous aimerez peut-être aussi