Vous êtes sur la page 1sur 23

Sara Brofferio Statistiques inférentielles- ING1

2 2.1
Introduction aux Probabilités

Probabilité des événements 29


2.1.1 Vocabulaire des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.2 Propriétés fondamentales des probabilités . . . . . . . . . . . . . . 30
2.1.3 Probabilités conditionnelles et indépendance . . . . . . . . . . . 31
2.2 Variables aléatoires 34
2.2.1 Variables aléatoires discrètes et continues . . . . . . . . . . . . . . . 35
2.2.2 Calcul des lois avec Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.3 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.4 Espérance, Variance, Covariance et Écart-type . . . . . . . . . . 38
2.2.5 Indépendance de Variables Aléatoires . . . . . . . . . . . . . . . . . 41
2.3 Principales Lois des probabilités 41
2.3.1 Lois uniformes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.2 Lois des succès (ou des proportions) . . . . . . . . . . . . . . . . . . . . 42
2.3.3 Lois des files d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.4 Loi Normale et associés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Version du 4 octobre 2022

Département Systèmes d’Information


2.1 Probabilité des événements
2.1.1 Vocabulaire des probabilités
Ω ensemble univers ou espace des possibles résultats d’une expérience aléatoire.
ω ∈ Ω un résultat ou événement élémentaire
E ⊆ Ω événement
P : E 7→ P(E) ∈ [0, 1] mesure de probabilité
P(E) probabilité de E
Si l’événement A est certain alors P(A) = 1 (A se réalisera surement)
Si l’événement A est impossible alors P(A) = 0 (A ne peut pas se réaliser)
Example — Individu tiré au hasard dans une population.

Ω = population de N = Card(Ω) individus


On tire au hasards un individus ω dans la popula-
tion de façon uniforme : tout individu a la même
probabilité (= N1 ) d’être extrait.
Un événement consiste à tirer un individus avec une
certaine caractéristique E :
E = ensemble d’individus de type E.

Card(E)
P(E) = Card(Ω) = proportion d’individus avec la caractéristique E

Exemple. Ω= l’ensemble des voitures d’une entreprise


E= ensemble des voitures électriques
P(E) = 0, 20 ←→ 20% des voitures de l’entreprise sont électriques 

Autres exemples :
I Lance d’une pièce : pile ou face ?
I Pièce produite par une machine : défectueuse ou non ? plus grande du calibre
fixé ?
I Observation météorologique : va-t-il pleuvoir ?

29
2.1.2 Propriétés fondamentales des probabilités

I Probabilité du complémentaire P(A) = 1 − P(A)

I Union et intersection P(A ∪ B) = P(A) + P(B) − P(A ∩ B).


En particulier si A et B sont deux événements disjoints i.e. A ∩ B = 0/ :

P(A ∪ B) = P(A) + P(B).

I Partition P(A) = P(A ∩ B) + P(A ∩ B)

I Probabilité de la différence P(A \ B) = P(A) − P(A ∩ B)

Exercice 2.1 Météo France a fait les prévisions suivantes pour demain :
la probabilité qu’il y ait du soleil est de 0,6
la probabilité qu’il y ait du vent est de 0,3
la probabilité qu’il y ait du soleil et du vent est de 0,1
a. Traduire les données du problème dans le langage des probabilités, utilisant les
événements S =demain il y aura du soleil et V =demain il y aura du vent.
b. Écrire les événements suivants utilisant le langage des ensembles et calculer leur
probabilité :
I Demain il n’y aura pas de soleil
I Demain il y aura du soleil ou du vent
I Demain il n’y aura ni du soleil ni du vent

Exercice 2.2 Parmi les élevés d’une école 15% possède un vélo et une trottinette et
30% un vélo mais pas de trottinette. On tire un élève au hasard.
a. Traduire les données du problème dans le langage des probabilités utilisant les
événements : V =l’élève choisi a un vélo et T =l’élève choisi a une trottinette
b. Quelle est la probabilité que l’élève ait un vélo ?
c. 40% des élèves ont une trottinette. Quelle est la probabilité que l’élève ait une
trottinette mais pas de vélo ?
d. Récapituler les résultats obtenus dans le un tableau de contingence ci-dessous :

vélo V pas de vélo V Tot


trottinette T
pas de trottinette T
Tot

30
2.1.3 Probabilités conditionnelles et indépendance
On note PB (A) ( ou P(A|B)) est la probabilité conditionnelle de A sachant B, c’est à dire
la probabilité de A lorsque on sait que B est réalisé.

P(A∩B)
PB (A) = P(B) ou P(A ∩ B) = PB (A) × P(B)

Example Ω= l’ensemble des voitures d’une entreprise. On choisi une voiture au


hasard.
E = la voiture est électriques, R = la voiture est rouge
PR (E) = 0, 8 ←→ 80% des voitures Rouge sont Électriques
P(E) = 0, 20 ←→ 20% des voitures sont Électriques
P(E ∩ R) = 0, 08 ↔ 8% des voitures sont Rouges et Électriques
P(R) = 0, 10 ←→ 10% des voitures sont Rouges
On vérifie que cela est cohérent car "8% est le 80% de 10% "
P(E∩R)=0,08 0,08
PR (E) = P(R) = 0,1 = 0, 8
P(E ∩ R) = PR (E) × P(R) = 0, 8 × 0, 1 = 0, 08


Example Un lance un dè à 6 faces.


D = on obtient 2 et P on obtient un nombre pair.

La probabilité d’ obtenir 2 sachant qu’on a un nombre pair :


1/6 1
PP (D) = P(D∩P)
P(P) = 3/6 = 3 

Deux événements A et B sont indépendants si la réalisation d’un événement n’a pas


d’influence sur la probabilité de l’autre c’est-à-dire si :

PB (A) = P(A) ou de façon équivalente si P(A ∩ B) = P(A) × P(B)

I Indépendance comme hypothèse raisonnable


Dans certaines situations on peut raisonnablement supposer que deux événements sont
indépendants, soit par déduction des caractéristiques du systèmes, soit parce que l’indépen-
dance a été démontrée par des études préalables.
On peut alors utiliser l’ hypothèse d’indépendance pour calculer les probabilités qui nous
intéressent.
Example Si on lance deux dés (un dé rouge et un dé vert) on peut raisonnablement
supposer que le résultat obtenu sur un dé est indépendant du résultat de l’autre dé . Cela
nous permet de calculer la probabilité d’obtenir deux 6.
En effet si R = avoir 6 sur le dé rouge et V = avoir 6 sur le dé vert, alors grâce à la
propriété d’ indépendance on déduit que

31
P(R ∩V ) = P(R) × P(V ) = 16 × 16 

I Vérifier l’indépendance
Dans d’autres situations, l’ indépendance est une propriété que on veut vérifier, car elle
nous dit si deux phénomènes sont liés. On calcule donc les probabilités relatives aux
événements et on vérifie s’ils sont indépendants ou non.
Example Une association contre le racisme a mené une opération de testing dans deux
discothèques ( Stardust et Utopia ) afin de vérifier si la sélection à l’entrée est influencé
sur critères lié à l’origine ethnique . Les graphiques suivants représentent les probabilité
d’etre accepté selon qu’on soit de type Caucasien ou non

I Stradust :
PCauc. (Accepté) = 0, 9 > 0, 7 = P(Accepté) −→ la sélection dépend du type.
I Utopia :
PCauc. (Accepté) = 0, 7 = P(Accepté) −→ la sélection est indépendante du
type.


Exercice 2.3 Dans un parc 25% des arbustes est malades (M). Certains arbustes sont
plantés à coté du lac (L) et certains arbustes sont plus jeunes (J) car ils ont été planté
plus récemment. On sait que :
I 40% des arbustes sont jeunes et
parmi les arbustes malade 25% sont jeunes
I 5% des arbustes sont malades et à coté du lac et
au total 20% des arbustes vivent à coté du lac.
On choisi un arbuste au hasard.
a. Traduire dans le langage probabiliste les données du problème
b. Déterminer si la maladie M est indépendante ou non de deux facteurs L ou J.
c. Quelles actions pourraient entreprendre les jardiniers pour endiguer la maladie ?
Arracher les arbustes près du lac ou arracher les vieux arbustes ?

32
Exercice 2.4 Une urne qui contient k boules Rouges et 2k boules Bleues. On effectue
deux tirages sans remettre la première boule dans l’urne. et on considère les deux deux
événements :

R1 = la première boule tirée est Rouge R2 = la deuxième boule tirée est rouge

a. Combien valent P(R1 ), PR1 (R2 ) et PR1 (R2 )


b. Calculer P(R1 ∩ R2 ), P(R1 ∩ R2 ) et P(R2 )
c. Comparer PR1 (R2 ) et P(R2 ).
Est-ce que R1 et R2 sont indépendants ?
Qu’est-ce qui se passe si k est très grand, c’est-à-dire lorsque k → +∞ ?

I Deux tirages avec remise sont indépendants


I Deux tirages sans remise ne sont pas indépendants, mais si la population dans
la quelle on fait les tirages est très grande alors les tirages sont proches de
l’indépendance

33
2.2 Variables aléatoires
Une variable aléatoire est un nombre aléatoire, c’est-à-dire une fonction

X : Ω→R
ω 7→ X(ω)

que à chaque possible résultat ω de l’expérience aléatoire associe un nombre X(ω).


Example

I l’age d’un individus tiré au hasard dans une population


I le nombre de "Face" obtenus sur 10 lancés d’une pièce
I le diamètre d’une pièce produite par une machine
I es heures d’ensoleillement dans une journée quelconque


le support X(Ω) de la variable aléatoire est l’ensemble de toutes les valeurs qu’on peut
obtenir.
Loi ou distribution de X est la mesure de probabilité, PX , sur R définit par

PX (A) := P(X ∈ A) = probabilité que X soit en A

pour A ⊂ R
Fonction de répartition ou cumulative FX (t) = P(X ≤ t)
Example — Lancé de dé. X résultat d’un lancé de dé.
Le support de X est X(Ω) = {1, 2, 3, 4, 5, 6}
PX (A) := P(X ∈ A) = probabilité que le resultat du dé soit en A
Par exemple PX (]2, 4]) = P(X ∈]2, 4]) = P(2 < X ≤ 4) = P(X ∈ {3, 4}) = 2
6
Fonction de répartition FX (t) = P(X ≤ t) = probabilité que le résultat du dé ≤ t. Par
exemple FX (4, 2) = P(X ≤ 4, 2) = 46


I Variable statistique
Une variable statistique peut être vu comme une variable aléatoire

On tire au hasard un individu ω dans une population Ω


X une variable statistique
X(ω) = valeur de X associée à l’individu ω.
Support de X= Toutes les valeurs xi que prend la variable statis-
tique
P(X = a) = Card{ω|X(ω)=a}
Card(Ω)
PX [a, b] = P(X ∈ [a, b]) = Card{ω|X(ω)∈[a,b]}
Card(Ω)
FX (t) = P(X ≤ t) = Card{ω|X(ω)≤t}
Card(Ω)

34
Example On choisit une voiture ω au hasard dans Ω := l’ensemble des voitures d’une
entreprise.
X(ω) := kilométrage de la voiture ω
PX ([10 000, 50 000]) = P(X ∈ [10 000, 50 000]) = 0, 15 ←→ 15% des voitures ont un
kilométrage compris entre 10 000 et 50 000 Km.
FX (30 000) = P(X ≤ 30 000) = 0, 20 ←→ 20% des voitures ont un kilométrage inférieur
à 30 000 Km 

I Fonction de reptation et probabilité d’un intervalle


Lorsqu’on connait la fonction de répartition on peut calculer la probabilité que X soit
dans un intervalle :
PX (t, +∞) = P(X > t) = 1 − P(X ≤ t) = 1 − FX (t)
PX ]a, b]P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a) = FX (b) − FX (a) pour tous a < b

Exercice 2.5 On sait que la durée de vie V en heure d’un composant électronique suit
un loi exponentielle de paramètre λ = 0.02 te que donc la fonction de répartition est
FV (t) = 1 − e−0.02∗t pour t ≥ 0 et 0 sinon.
Traduire en langage probabiliste et calculer.
a. La probabilité que la durée de vie du composant soit inférieur ou égal à 50 heures.
b. La probabilité que la durée de vie du composant soit supérieur (strictement) à 50
heures.
c. La probabilité que la durée de vie du composant soit comprise entre 25 heures
(exclus) et 50 heures (inclus).
d. Trouver un temps t0 tel qu’il y ait 90% de chance que de la durée de vie du
composant soit inférieur ou égal à t0

2.2.1 Variables aléatoires discrètes et continues


I Variables aléatoires discrètes
Le support de la variable est un ensemble des valeurs discret (i.e. les valeurs sont séparées) :
X(Ω) = {x1 , x2 , . . .}
Loi PX (xk ) = P(X = xk ) = pxk
P(X ∈ A) = ∑xk ∈A pxk
Fonction de répartition FX (t) = P(X ≤ t) = ∑ pxk
xk ≤t
Example

I X résultat d’un lancé de dé. X(Ω) = {1, 2, 3, 4, 5, 6} et P(X = xk ) = 1/6


I X loi de binomiale B(n, p) nombre de succès en n tirage avec probabilité de
succès p à chaque tirage.

35
Par exemple on tire 15 pommes dans un tas de pommes dont 20% sont rouges.
X= nb de pommes rouge dans le 15 tirée ∼ Binomiale avec n = 15 et p = 0.2.
X(Ω) = {0, 1, 2,3, · · · , 15}
P(X = k) = 15 k (
k 0.2 (1 − 0.2) 15 − k)


I Variables aléatoires continues


Le support de la variable n’a pas des valeurs isolées.
X(Ω) = R ou un intervalle
Densité f : R → R+
Z
P(X ∈ A) = f (x)dx = aire sous la courbe y = f (x) avec x ∈ A
A
Fonction de répartition
Z t
FX (t) = P(X ≤ t) = f (x)dx
−∞
FX est la primitive de f tel que FX (+∞) = 1
Probabilité de un intervalle
P(a < X ≤ b) = ab f (x)dx = FX (b) − FX (a)
R

La probabilité d’un point est nulle


P(X = a) = 0

Example

I Loi uniforme sur l’intervalle La loi uniforme sur l’intervalle [0, 1] est la loi
selon laquelle, intuitivement, que toutes les valeurs de l’intervalle ont les mêmes
chances d’apparaître.
Densité : f (x) = I[0,1] (x)
P(a < X ≤ b) = ab 1dx = b − a si a, b ∈ [0, 1]
R

Fonction
Rt
de répartition
F(t) = 0 1dx = t si 0 ≤ t ≤ 1

I La loi normale, N (µ, σ ) a comme densité courbe de Gauss ou courbe en cloche

36
qui dépend de deux paramétrés µ (son espérance) et σ (son écart type)
(x−µ)2

Densité : f µ,σ (x) = σ √12π e 2σ 2 .
La fonction Rx
de répartition de la loi normale
Fµ,σ (x) = −∞ f µ,σ (t)dx n’a pas une écriture ex-
plicite mais elle peut être calculée facilement à
l’aide des tables ou d’outils numériques.

2.2.2 Calcul des lois avec Excel


Les logiciels de calcul fournissent, pour les lois des variables aléatoires les plus courantes,
trois types de fonctions qui permettent de calculer respectivement la fonction de répartition,
la probabilité ponctuelle (ou densité) et l’inverse de la fonction de répartition.
Pour une variable aléatoire X de loi XXX, la syntaxe avec Excel est de la forme suivante
(avec quelque variations)
Fonction de répartition (cumulative) :
LOI.XXX.N(t ; paramètres ;1)= P(X ≤ t) = FX (t)
Probabilité poncuetulle ou Densité :
LOI.XXX.N(x ; paramètres ;0)=)= P(X = x) si la loi est discrète
LOI.XXX.N(x ; paramètres ;0)= f (x) densité en x, si la loi est continue
Inverse de la fonction de répartition :
LOI.XXX.INVERSE.N(p ;paramètres)= t = FX−1 (p)
Si la loi est continue, pour toute probabilité p ∈ [0, 1] renvoi l’inverse de la fonction
de répartition t = F −1 (p), c’est-à-dire le t tel que F(t) = P(X ≤ t) = p
Pour le loi discrète, renvoi l’inverse généralisé de F, c’est-à-dire le plus petit nombre
t tel que F(t) = P(X ≤ t) ≥ p.
Example X ∼ N (150, 15) Loi Normale d’espérance µ = 150 et écart-type σ = 15
Fonction de répartition :
LOI.NORMALE.N(140 ;150 ;15 ;1)=Fµ,σ (140) = P(X ≤ 140)
Densité :
LOI.NORMALE.N(140 ;150 ;15 ;0)= f µ,σ (x)
Inverse de la fonction de répartition :
LOI.NORMALE.INVERSE.N(0,5 ;150 ;15)= t
tel que F(t) = P(X ≤ t) = 0, 5, autrement dit l’inverse de la fonction de répartition
t = F −1 (0, 5)


Exercice 2.6 Une machine produit des pièces mécaniques de précision. On estime que
le diamètre X des pièces produites suit une loi normale de espérance µ = 530 mm et
écart-type σ = 2 mm.
Calculer à l’aide d’Excel

37
a. Le probabilité qu’une pièce ait un diamètre inférieur à 532 mm.
b. Le probabilité qu’une pièce ait un diamètre supérieur à 532 mm.
c. Le probabilité qu’une pièce ait un diamètre compris entre 528 et 532 mm.
d. La valeur x tel que 80% des pièces aient un diamètre inférieur à x mm
e. La valeur x tel que 70% des pièces aient un diamètre supérieur à x mm

2.2.3 Simulations
Les outils numériques ont souvent des générateurs de nombres (pseudo-)aléatoires qui
peuvent être utilisés pour simuler des variables aléatoires d’une loi souhaité.
La fonction ALEA() d’Excel permet de simuler une variable uniforme sur [0, 1]
Pour simuler les autres lois, on peut utiliser le résultat suivant

Soit F la fonction de répartition de la loi d’une loi P et F −1 son inverse a . Si U est une
variable aléatoire uniforme sur [0, 1] alors

X = F −1 (U)

est une variable aléatoire de loi P


a. lorsque la loi n’est pas continue et que F n’est pas inversible on utilise l’inverse généralisé
F −1 (p) := inf{t : F(t) ≥ p}.

Donc sur Excel la commande

LOI.XXX.INVERSE.N(ALEA() ; paramètres),

ou similaire, simule donc une réalisation de la loi XXX


Exercice 2.7 a. A l’aide de la fonction ALEA() d’Excel, simuler une réalisation
d’uneloi uniforme sur [0, 1]
b. Simuler une loi Normale d’espérance 150 et écart-type 15
c. Simuler une loi binomiale de paramètre p = 0.2 et n = 15
d. Démontrer le résultat ci-dessus pour un variable continue, en montrant que la
fonction de répartition de X = F −1 (U) est F

2.2.4 Espérance, Variance, Covariance et Écart-type


L’espérance d’une variable aléatoire E(X) est la valeur centrale et l’équivalent probabiliste
de la moyenne.
Variables discrètes E(X) := ∑∞
k=1 xk P(X = xk )
Z
Variables continues de densité f alors E(X) = x f (x)dx
R
Plus généralement si g est une fonction l’ésperncance de la variable aléatoire g(X) est :
Variables discrètes E[g(X)] := ∑∞
k=1 g(xk )P(X = xk )

38
Z
Variables continues de densité f alors E[g(X)] = g(x) f (x)dx
R
Variance Var(X) = E (X − E(X)) = E X − E [X]2
2
   2
p
Écart-type σ (X) = Var(X)
Covariance Cov(X,Y ) = E [(X − E(X))(Y − E(Y ))] = E [XY ] − E [X] E [Y ]
Example — Variable Statistique.

On tire au hasard un individu ω dans une population Ω


X une variable statistique
X(ω) = valeur de X associé à l’individus ω.
L’espérance de X en tant que variable aléatoire coïncide avec la
moyenne de X en tant que variable statistique sur Ω
N
1 x1 + · · · xN
E(X) = ∑ xk · N = N
= m(X)
k=1

Similairement, pour les autres paramètres : la variance, covariance et écart-type de X


vue comme une variable aléatoire coïncident avec leur équivalents statistiques
N
1 (x1 − m(X))2 + · · · + (xN − m(X))2
Var(X) = ∑ (xk − E(X))2 · N
=
N
k=1

Si X et Y sont deux variables aléatoires et a, b des nombres réels


I E(aX + b) = aE(X) + b
I E(X +Y ) = E(X) + E(Y )
I Var(aX + b) = a2 Var(X) et σ (aX + b) = |a|σ (X)
I Var(X +Y ) = Var(X) + 2 Cov(X,Y ) + Var(Y )

Exercice 2.8 Calculer l’espérance et de la variance pour la variable de Bernoulli :



1 avec probabilité p
X=
0 avec probabilité 1 − p

de paramètre p ∈ [0, 1]

Exercice 2.9 Calculer l’espérance, la variance et l’écart-type d’une variable aléatoire


uniforme sur [0, 1]

39
I Inégalité de Bienaymé-Tchebychev

Inégalité de Bienaymé-Tchebychev.
Pour toute variable aléatoire X avec Var(X) < ∞

Var(X)
P(|X − E(X)| ≥ ε) ≤ pour tout ε > 0.
ε2
c’est-à-dire pour tout k = ε/σ (X)

1
P(E(X) − kσ (X) < X < E(X) + kσ (X)) ≥ 1 −
k2

Démonstration. Pour démontrer la première inégalité, observez que pour tout ω ∈ Ω

|X(ω) − E(X)|2
I[|X−E(X)|≥ε] (ω) = I[|X−E(X)|2 >ε 2 ] (ω) ≤
ε2
En effet :
I Si |X(ω) − E(X)| ≥ ε alors le terme de gauche vaut 1 tandis que le terme de
droite est ≥ 1
I Si |X(ω) − E(X)| < ε alors le terme de gauche vaut 0 tandis que le terme de
droite est ≥ 0
donc
|X(ω) − E(X)|2
 
Var(X)
P(|X − E(X)| ≥ ε) = E(I[|X−E(X)|≥ε] ) ≤ E 2
= .
ε ε2

Exercice 2.10 On tire une pomme au hasard parmi toutes les pommes produites par une
exploitation agricole et on note X son poids. On sait que les pommes pèsent en moyenne
150 g avec un écart-type de 15 g. Utilisant l’inégalité de Bienaymé-Tchebychev :
a. Estimer la probabilité P(|X − 150| ≥ 30)
b. Estimer la probabilité P(100 < X < 200)
c. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) ≥ 0.80

40
2.2.5 Indépendance de Variables Aléatoires

Deux événements A et B sont indépendants si P(A ∩ B) = P(A)P(B).


Deux variables aléatoires X et Y sont indépendantes si pour tous A et B sous-ensembles
de R les événements [X ∈ A] et [Y ∈ B] sont indépendants,c-à-d :
P(X ∈ A,Y ∈ B) = P(X ∈ A)P(Y ∈ B) pour tous A, B ⊆ R.

Intuitivement deux variables sont indépendantes si connaitre la valeur de l’une ne donne


aucun renseignement sur la valeur de la deuxième.

Si X et Y sont indépendantes alors pour tout couple de fonction f et g

E( f (X)g(Y )) = E( f (X))E(g(Y ))

Donc
,→ E(XY ) = E(X)E(Y )
,→ Cov(X,Y ) = 0
,→ Var(X +Y ) =pVar(X) + Var(Y )
,→ σ (X +Y ) = σ (X)2 + σ (Y )2

Exercice 2.11 . On sait que les pommes produites par une exploitation agricole pèsent
en moyenne 150 g avec un écart-type de 15 g.
a. On tire au hasard deux pommes et on note X1 et X2 leur poids. Pourquoi peut-on
raisonnablement supposer que X1 et X2 sont indépendantes ?
b. Calculer l’espérance, la variance et l’écart-type de S = X1 + X2 .
c. Calculer l’espérance, la variance et l’écart-type de X = X1 +X2
2 .
d. On met n = 10 pommes choisis au hasard dans un sac. Calculer l’espérance, la
variance et l’écart-type de
I S le poids total du sac.
I X le poids moyen des pommes du sac

2.3 Principales Lois des probabilités


2.3.1 Lois uniformes

I Loi uniforme sur un ensemble fini U {x1 , x2 , . . . , xN }


Pour loi uniforme sur un ensemble fini toutes les valeurs de l’ensemble ont les mêmes
chances d’apparaître. P(X = xk ) = N1
card(A)
P(X ∈ A) = N
x1 +···xN (x1 −m(X))2 +···+(xN −m(X))2
E(X) = N = m(X) et Var(X) = N

41
I Loi uniforme continue U [a, b]
La loi uniforme sur un intervalle indique, intuitivement, que toutes les valeurs de l’intervalle
ont les mêmes chances d’apparaître.
1
Densité : f (x) = b−a I[a,b] (x)
E(X) = (a + b)/2, Var(X) = (b − a)2 /12

2.3.2 Lois des succès (ou des proportions)


I Loi de Bernoulli B(p)
La loi de Bernoulli B(p) est la loi d’une variable aléatoire qui ne prend que les valeurs 1
et 0. Elle correspond à une expérience à deux issues : succès (1) et échec (0).
Cette loi dépend d’un paramètre p ∈ [0, 1] :
P(X = 1) = p et P(X = 0) = 1 − p.
E(X) = p, Var(X) = p(1 − p)
Si A ⊂ Ω est un événement alors la fonction indicatrice de A

1 si ω ∈ A
X(ω) = IA (ω) :=
0 si ω 6∈ A

est une variable aléatoire de Bernoulli avec p = P(A)

I Loi binomiale B(n, p)


la Loi binomiale B(n, p) est loi du nombre de succès obtenus à l’issue de n épreuves de
Bernoulli indépendantes de paramètre p ∈ [0, 1] autrement dit c’est la loi de nombre de
succès en n tirages.
P(X = k) = nk pk (1 − p)n−k pour tout k ∈ {0, 1, . . . , n}.


E(X) = np, Var(X) = np(1 − p)


La loi binomiale X ∼ B(n, p) est la somme de n variables de Bernoulli indépendantes
Xi ∼ B(p) : X = X1 + · · · + Xn

I Fréquence empirique
La fréquence empirique est F = nombre succès
nombre tirage = proportion des succès parmi n tirages
La loi de F est donc la la loi d’une VA Binomiale X ∼ B(n, p) divisé par n en effet F = X
n

I Loi géométrique
C’est la loi qui modélise le temps d’attente du premier succès dans une série d’épreuves
de Bernoulli indépendantes à probabilité de succès p ∈ [0, 1].
P(X = k) = (1 − p)k−1 p pour tout k ∈ N∗ .
E(X) = 1/p, Var(X) = (1 − p)/p2

42
Example Dans une grande population 32% des individus sont des fumeurs.
I on choisit un individu au hasard on définit X = 1 si l’individu fume ; 0 sinon. X
suit une loi de Bernoulli de paramètre p = 0, 32.
I le nombre X de fumeurs parmi n = 300 individus tiré au hasard (avec remise) est
une loi Binomiale B(300; 0, 32)
I La proportion F de fumeurs dans l’échantillon de n = 300 individus suit une loi
B(300,0,32)
300
I Le nombre d’individus que on doit tirer avant d’extraire le premier fumeurs est
une loi géométrique de paramètre p = 0, 32


2.3.3 Lois des files d’attente


I Loi de Poisson Poi(µ)
La loi de Poisson sert comme modèle du nombre d’évènements se produisant dans un
laps de temps fixé. Nombre maximale de possibles événements est illimité (ou très très
grand par rapport au nombre moyen). On parle de Loi des évènements rares. C’est une
loi discrète à support infini qui dépend d’un paramètre µ > 0, qui est son espérance et est
définie par :
µ k −µ
P(X = k) = k! e pour tout k ∈ N.
E(X) = µ, Var(X) = µ
Example

I Nombre d’erreurs judiciaires en un an (Siméon Denis Poisson, 1837)


I Nombre de soldats Prussiens morts d’un coup de sabot en un an (Ladislaus
Bortkiewicz (1898))
I Nombre de clients qui arrive à un guichet en une heure. Si me nombre moyen de
clients par heure est 12.
I Le nombre de clients en une heure suit une loi de poisson Poi(12)
I Le nombre de clients en deux heures suit une loi de poisson Poi(24)


I Loi exponentielle E (λ )
La loi exponentielle est utilisée pour modéliser le temps de vie ou le temps d’attente d’un
phénomène
Cette loi à support en [0, +∞) semi-infini ne dépend que d’un paramètre λ (parfois appelé
l’intensité)
Densité : f (x) = λ e−λ x pour tout x ≥ 0 et 0 si x < 0 .
E(X) = 1/λ , Var(X) = 1/λ 2
Example

43
I En théorie des files d’attente temps d’attente entre l’arrivée de deux clients.
I Radioactivité : durée de vie d’un atome.
I la durée de vie d’une ampoule


I Relation entre loi de Poisson et loi exponentielle


Soit Xi ∼ E (λ ) une suite de variable indépendante, Tn = X1 + · · · + Xn et t > 0 alors la
variable Nt = ∑∞n=1 I[Tn <t] suit une loi de poisson de paramètre tλ
Example Si on suppose que le temps d’attente (en minutes) entre deux clients est
exponentielle de paramètre λ = 1/4 (i.e. le temps moyen entre le deux clients est 4
minutes).
Tn est le temps d’arrivée de l’n-ème clients.
Pour t = 60 minutes, N60 est le nombre de clients arrivés en 60 minutes=1h. N60 suit
une loi de Poisson de paramètre µ = 60 × 1/4 = 15 (i.e. on a 15 clients en moyenne
par heure) 

2.3.4 Loi Normale et associés


I Loi normale N (µ, σ )
La loi normale, ou loi gaussienne, est une loi centrale en théorie des probabilités et en
statistique. C’est en effet la loi limite des moyennes empirique des grands échantillon. Elle
décrit aussi des grandeurs sujette à une sommes d’erreurs mineures indépendantes.
Exemples Les grandeurs physiques comme poids, tailles, etc.

La loi normale est caractérisée par sa


moyenne µ et par son écart-type σ , son sup-
port est la droite réelle. Sa densité est com-
munément appelée la courbe de Gauss .
(x−µ)2

Densité : f (x) = √1 e 2σ 2 .
σ 2π

E(X) = µ,
Var(X) = σ 2 et
σ (X) = σ

Une loi normale est centré réduite (ou standard) si µ = 0 et σ = 1. Elle est désigné par la
lettre Z et on note Φ la fonction de répartition de Z
Z t
1 x2
Φ(t) = P(Z ≤ t) = √ e− 2 dx
2π −∞

44
Propriétés : Soit X ∼ N (µ, σ ) alors
I La loi de X est symétrique par rapport à µ, c’est-dire :
P(X < µ − k) = P(X > µ + k)

I Si X1 et X2 suivent des lois normale S = X1 + X2 suit un loi normale.


I Pour tout a, b ∈ R la variable aléatoire aX + b suit une loi normale d’espérance
aµ + b et écart-type |a|σ )

X−µ
I Z= σ ∼ N (0, 1) est une loi normale centrée réduite. Donc
 
x−µ x−µ
P(X ≤ x) = P(Z ≤ )=Φ c’est-à-dire P(X ≤ µ + tσ ) = Φ(t)
σ σ

I Pour tout t > 0


P(µ − tσ ≤ X ≤ µ + tσ ) = 2Φ(t) − 1
Donc l’Intervalle de confiance de niveau γ = 1 − α (ou de risque α) pour une
loi Normale est
γ +1 α
P(µ − tα σ ≤ X ≤ µ + tα σ ) = γ = 1 − α quand Φ(tα ) = = 1−
2 2

Démonstration Intervalle de confiance. Si X suit une loi N (µ, σ ), c’est-à dire Z =


X−µ
σ suit une loi normale standard . On en déduit que

45
X−µ
Pµ,σ (µ − tσ ≤ X ≤ µ + tσ ) ∼
= Pµ,σ (| | ≤ t)
σ
= P(|Z| ≤ t) = P(Z ≤ t) − P(Z < −t)
= P(Z ≤ t) − P(Z < −t)
= P(Z ≤ t) − (1 − P(Z ≥ −t)) = 2Φ(t) − 1

puisque par symétrie P(Z ≥ −t) = P(Z ≤ t). 

Exercice 2.12 On reprend l’énoncé de l’exercice 2.10 en supposant que le poids X


d’une pomme au hasard parmi toutes les pommes produites suit une loi Normale
d’espérance 150 g et un écart-type de 15 g. Calculer utilisant la formule de l’intervalle
de confiance
a. Calculer la probabilité P(100 < X < 200)
b. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) = 0.80
c. Comparer avec les résultats de l’exercice 2.10

Exercice 2.13 — Intervalles de confiance remarquables. Compléter le tableaux


ci-dessous avec les valeurs usuelles de tα et α tels que

P(µ − tα σ < X < µ + tα σ ) = γ = 1 − α

γ α tα
68,3% 1
3
95% 1,96
10%

I Loi du khi-deux χk2


La loi du χk2 avec k degrés de liberté est la loi de la somme de carrés de k lois normales
centrées réduites indépendantes : X = Z12 + · · · + Zk2
La loi du χ 2 est utilisé en inférence statistique et pour les tests statistiques.
E(X) = k, Var(X) = 2k
Conformément au théorème central limite, lorsque k est « grand » (k > 100), la loi d’une
variable de χk2 , somme de variables aléatoires indépendantes, peut être approchée par une
loi normale d’espérance k et de variance 2k.

I t de Student
La loi t de Student à k degré de liberté est une loi de probabilité, est la loi de la variable
Tk = √ Z où Z une variable aléatoire de loi normale centrée et réduite et U une variable
Uk /k

46
indépendante de Z et distribuée suivant la loi du χk2 .
E(Tk ) = k, Var(Tk ) = k/(k − 2) si k > 2
Pour n ≥ 30 la loi Tk est très convenablement approximée par une loi normale centrée
réduite N (0, 1).

Solutions des Exercices


Exo. 2.1
a. Traduire les données du problème dans le langage des probabilités. On considère
les événements :
S =demain il y aura du soleil et V =demain il y aura du vent.
P(S) = 0, 6 P(V ) = 0, 3 et P(S ∩V ) = 0, 1
b. Écrire les événements suivants et calculer leur probabilité :
(a) Demain il n’y aura pas de soleil = S
P(S) = 1 − P(S) = 1 − 0, 6 = 0, 4
(b) Demain il y aura du soleil ou du vent = S ∪V
P(S ∪V ) = P(S) + P(V ) − P(S ∩V ) = 0, 6 + 0, 3 − 0, 1 = 0, 8
(c) Demain il n’y aura ni du soleil ni du vent = (S ∪V )
P(S ∪V ) = 1 − P(S ∪V ) = 1 − 0, 8 = 0, 2
Exo. 2.2
I On considère les événements :
V =l’élève choisi a un vélo et T =l’élève choisi a une trottinette
P(V ∩ T ) = 0, 15 P(V ∩ T ) = 0, 3
I Quelle est la probabilité que l’élève ait un vélo ?
P(V ) = P(V ∩ T ) − P(V ∩ T ) = 0, 15 + 0, 3 = 0, 45
I 40% des élèves ont une trottinette. Quelle est la probabilité que l’élève ait une
trottinette mais pas de vélo ?
P(T \V ) = P(T ) − P(V ∩ T ) = 0, 4 − 0, 15 = 0, 25
I Compléter un tableau de contingence des fréquences :

vélo V pas de vélo V Tot


trottinette T 15% 25% 40%
pas de trottinette T 30% 30% 60%
Tot 45% 55% 100%

Exo. 2.3
a. P(M) = 0, 25

b. Pour J on sait que P(J) = 0, 4 et que PM (J) = 0, 25.

c. Puisque P(J) > PM (J), M et J ne sont pas indépendants.


Puisque P(M) × P(L) = 0, 25 × 0, 2 = P(M ∩ L) = 0, 05 on conclut que M et L sont
indépendants.

47
d. arracher les vieux arbustes
Exo. 2.4
k k−1 k
a. P(R1 ) = 3k , PR1 (R2 ) = 3k−1 et PR1 (R2 ) = 3k−1
b. Même question si le tirage est effectué sans remise.
k k−1 k−1 2k k 2k
P(R1 ∩ R2 ) = = , P(R1 ∩ R2 ) = =
3k 3k − 1 9k − 3 3k 3k − 1 9k − 3
ainsi que
k−1 2k 3k − 1 1
P(R2 ) = P(R1 ∩ R2 ) + P(R1 ∩ R2 ) = + = = ,
9k − 3 9k − 3 9k − 3 3
k−1 1
c. PR1 (R2 ) = 3k−1 6= 3 = P(R2 ), donc R1 et R2 ne sont pas indépendantes Lorsque
k → +∞
k−1 1
PR1 (R2 ) =→
3k − 1 3
les événement se rapprochent de l’indépendance.
Exo. 2.5
a. P(V ≤ 50) = FV (50) = 1 − e−0.02∗50 = 0, 632120559
b. P(V > 50) = 1 − P(V ≤ 50) = 0, 367879441
c. P(25 < V ≤ 50) = FV (50)−FV (25) = 1−e−0.02∗50 −(1−e−0.02∗25 ) = 0, 632120559−
0, 39346934 = 0, 238651219
d. On cherche t0 =? tel que P(V ≤ t0 ) = 0, 9 donc 1 − e−0.02∗t0 = 0, 9
e−0.02∗t0 = 0, 1
−0.02 ∗ t0 = ln 0.1
ln 0.1 ∼
t0 = −0.02 = 115, 13
Exo. 2.6 µ = 530 et σ = 2
a. P(X ≤ 532) = LOI.NORMALE.N(532; 530; 2; 1) = 0, 841344746
b. .P(X > 532) = 1 − P(X ≤ 532) = 0, 158655254
c. P(528 < X ≤ 532) = LOI.NORMALE.N(532; 530; 2; 1)−LOI.NORMALE.N(528; 530; 2; 1) =
0, 682689492
d. On cherche x tel que P(X ≤ x) = 0, 8 c’est-à-dire
x = F −1 (0, 8) = LOI.NORMALE.INV ERSE.N(0, 8; 530; 2) = 531, 6832425
e. On cherche x tel que P(X > x) = 0, 7 c’est-à-dire P(X ≤ x) = 1 − 0, 7 = 0, 3. Donc
x = F −1 (1 − 0, 7) = LOI.NORMALE.INV ERSE.N(1 − 0, 7; 530; 2) = 528, 951199
Exo. 2.7
a. =ALEA()
b. =LOI.NORMALE.INVERSE.N(ALEA() ;150 ;15)
c. =LOI.BINOMIALE.INVERSE(15 ;0,2 ;ALEA())
d. P(X ≤ t) = P(F −1 (U) ≤ t) = P(F(F −1 (U)) ≤ F(t)) puisque F est croissante
= P(U ≤ F(t)) = F(t)
Exo. 2.8 E(X) = 1P(X = 1) + 0P(X = 0) = P(X = 1) = p
Var(X) = E((X − E(X))2 ) = (1 − E(X))2 P(X = 1) + (0 − E(X))2 P(X = 0)
= (1 − p)2 p + p2 (1 − p) = p(1 − p)

48
Exo. 2.9 E(X) = xI[0,1] (x)dx = 01 xdx = 21 12 − 12 02 = 1
R R
2
puisque 12 x2 est une primitive de la fonction x
R1 1 2 1 1 3 1 1 3 1 1
Var(X) = (x−E(X))2 I[0,1] (x)dx = + 213 ) =
R
0 (x− 2 ) dx = 3 (1− 2 ) − 3 (0− 2 ) = 3 ( 23
1
12
puisque 13 (x − 12 )3 est une primitive de la fonction (x − 21 )2
σ (X) = 1/12 ∼
p
= 0, 29
Exo. 2.10
2
a. P(|X − 150| ≥ 30) ≤ 15 302
= 212 = 41
b. P(100 < X < 200) = P(150 − 50 < X < 150 + 50) = 1 − P(|X − E(X)| ≥ 50) ≥
15 2
1 − Var(X)

50 2 = 1 − 50 = 0, 91
c. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) > 0.80.
On cherche ε tel que : P(150 − ε < X < 150 + ε) = 1 − P(|X − E(X)| ≥ ε) ≥
15 2
1 − Var(X)

ε 2 = 1 − ε = 0, 8
2
Donc 15 = 0, 2 et ε = √15

ε 0,2
= 33, 54.
En conclusion [a; b] = [116, 5; 183, 5]
Exo. 2.11
a. On peut raisonnablement supposer que X1 et X2 sont indépendantes, car le nombre
de pommes totales est beaucoup plus grande que nombre de pommes tirées.
b. E(S) = E(X1 ) + E(X2 ) = 150 + 150 = 300g.
Var(S) = Var(X1 ) + Var(X2 ) = 152 + 152 = 2 × 152 puisque on peut supposer X1 et
X2 indépendantes.
√ √
σ (S) = 152 + 152 = 2 × 15
c. E(X) = E(X1 )+E(X
2
2)
= 150g.
Var(X) = 22 Var(S) = 212 2 Var(X1 ) = 12 152
1

σ (X) = 12 σ (S) = 21 2 × 15 = √12 × 15
d. Mets 10 pommes choisis au hasard dans un sac. Calculer l’espérance, la variance et
l’écart-type de
I S = X1 + · · · + Xn
E(S) = E(X1 ) + · · · + E(Xn ) = n × E(X) = 10 × 150 = 1 500 g
Var(S) =pVar(X1 ) + · · · +√Var(Xn ) = n × Var(X) = 10 × 152 g2
σ (S) = n × Var(X) = 10 × 15
I X = X1 +···+X
n
n

E(X) = 1n (E(X1 ) + · · · + E(Xn )) = E(X) = 150 = g


Var(X) = n12 (Var(X1 ) + · · · + Var(Xn )) = n1 × Var(X) = 10
1
× 152 g2
σ (X) = √1n × σ (X) = √110 × 15 g

Exo. 2.12
a. P(100 < X < 200) = P(150− 50 50 50
15 15 < X < 150+ 15 15) = 1−2∗Φ(− 15 ) =2*LOI.NORMALE.STAND
1=0,999141879.
b. Déterminer un intervalle [a, b] centré en E(X) et tel que P(a < X < b) = 0.80
On cherche un intervalle de confiance avec un niveau de risque α = 1−0, 8 = 0, 2. Le

49
tα tel que Φ(tα ) = (0.8+1)/2 est tα ==LOI.NORMALE.STANDARD.INVERSE.N(0.8+1)/2)=1,2815
Donc [a; b] = [150 − 1, 28 ∗ 15; 150 + 1, 28 ∗ 15] = [130, 8; 169, 2]
c. Comparer avec les résultats de l’exercice 2.10.
Comme attendu les résultats sont plus précis : en a. on trouve une probabilité plus
grande et en b un intervalle plus petit.
Exo. 2.13

1−α α tα
68,3% 31,7% 1
99,7% 0,3% 3
95% 5% 1,96
90% 10% 1,64

50

Vous aimerez peut-être aussi