Vous êtes sur la page 1sur 29

Table des matières

Chapitre I............................................................................................................................................................... 4
ANALYSE COMBINATOIRE ............................................................................................................................ 4
Section 1 ............................................................................................................................................................. 4
Arrangements .................................................................................................................................................... 4
1.1 Arrangement sans répétition ................................................................................................................. 4
1.2 Arrangement avec répétition ................................................................................................................. 4
Section 2 ............................................................................................................................................................. 5
Permutation ....................................................................................................................................................... 5
2.1 Permutation sans répétition ....................................................................................................................... 5
2.2 Permutation avec répétition ...................................................................................................................... 5
Section 3 ............................................................................................................................................................. 5
Combinaison ...................................................................................................................................................... 5
3.1 Combinaison sans répétition ..................................................................................................................... 5
3.2 Combinaison avec répétition..................................................................................................................... 6
Chapitre II ............................................................................................................................................................. 7
PROBABILITES................................................................................................................................................... 7
Section 1 ............................................................................................................................................................. 7
Evénement ......................................................................................................................................................... 7
1.1 Définition .................................................................................................................................................. 7
1.2 Opérations sur les événements .................................................................................................................. 7
1.3 Relations entre les événements ................................................................................................................. 8
1.4 Propriétés des événements ........................................................................................................................ 8
Section 2 ............................................................................................................................................................. 9
2.1 Ensemble des parties d’un ensemble ..................................................................................................... 9
2.2 Système complet d’événements.............................................................................................................. 9
Section 3 ............................................................................................................................................................. 9
Axiomatiques des probabilités ......................................................................................................................... 9
3.1 Axiome de KOLMOGOROV ................................................................................................................. 10
3.2 Probabilité sur un ensemble fini ............................................................................................................. 11
Section 4 ........................................................................................................................................................... 12
Probabilités conditionnelles et indépendance ............................................................................................... 12
4.1 Probabilités conditionnelles .................................................................................................................... 12
4.2 Evénements indépendants pour une probabilité P .................................................................................. 12
4.3 Théorème des probabilités totales et théorème de Bayes ....................................................................... 13
Chapitre III.......................................................................................................................................................... 15
VARIABLE ALEATOIRE ................................................................................................................................ 15
Section 1 ........................................................................................................................................................... 15
Variable aléatoire ............................................................................................................................................ 15
1.1 Définition d’une variable aléatoire ......................................................................................................... 15
1.2 Types de variables aléatoires .................................................................................................................. 16
Section 2 ........................................................................................................................................................... 16
Loi de probabilité aléatoire ............................................................................................................................ 16
Section 3 ........................................................................................................................................................... 16
Fonction de répartition ................................................................................................................................... 16
Section 4 ........................................................................................................................................................... 16
Valeurs caractéristiques des variables aléatoires......................................................................................... 16
4.1 Le mode .................................................................................................................................................. 16
1
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
4.2 La médiane .............................................................................................................................................. 17
4.3 L’espérance (valeur moyenne) ................................................................................................................ 17
4 .4 La variance ............................................................................................................................................. 17
Section 5 ........................................................................................................................................................... 17
Moments d’une variable aléatoire ................................................................................................................. 17
Chapitre IV .......................................................................................................................................................... 19
QUELQUES LOIS USUELLES DISCRETES ................................................................................................ 19
Section 1 ........................................................................................................................................................... 19
Variable de Bernoulli ...................................................................................................................................... 19
1.1 Définition ................................................................................................................................................ 19
1.2 Espérance mathématique et variance ...................................................................................................... 19
Section 2 ........................................................................................................................................................... 19
Loi binomiale ................................................................................................................................................... 19
2.1 Définition ................................................................................................................................................ 19
2.2 Espérance mathématique ........................................................................................................................ 20
2.3 Variance .................................................................................................................................................. 20
2.4 Ecart type ............................................................................................................................................ 20
Section 3 ........................................................................................................................................................... 21
La loi de Poisson .............................................................................................................................................. 21
3.1 Définition ................................................................................................................................................ 21
3.2 Espérance mathématique ........................................................................................................................ 21
3.3 Variance .................................................................................................................................................. 21
3.4 Approximation de la loi binomiale par la loi de Poisson ........................................................................ 21
Section 4 ........................................................................................................................................................... 22
La loi géométrique .......................................................................................................................................... 22
4.1 Définition ................................................................................................................................................ 22
4.2 Espérance mathématique et variance ...................................................................................................... 22
𝑬𝑿 = 𝟏𝒑 ....................................................................................................................................................... 22
Section 5 ........................................................................................................................................................... 23
Loi de Pascal .................................................................................................................................................... 23
5.1 Définition ................................................................................................................................................ 23
5.2 Espérance mathématique et variance ...................................................................................................... 23
Section 6 ........................................................................................................................................................... 24
Loi hypergéométrique .................................................................................................................................... 24
Chapitre V ........................................................................................................................................................... 25
COUPLES DE VARIABLES ALEATOIRES DISCRETES .......................................................................... 25
Section 1 ........................................................................................................................................................... 25
Lois du couple de variables aléatoires ........................................................................................................... 25
1.1 Loi de probabilité conjointe 𝑿 et 𝒀 ...................................................................................................... 25
1.2 Tableau de contingence de la loi conjointe du couple 𝑿, 𝒀 .................................................................... 25
Section 2 ........................................................................................................................................................... 26
Lois marginales ............................................................................................................................................... 26
2.1 Loi marginale de 𝑿 ................................................................................................................................ 26
2.2 Loi marginale de 𝒀 ................................................................................................................................ 26
Section 3 ........................................................................................................................................................... 26
Lois conditionnelles de 𝑿 et 𝒀 ........................................................................................................................ 26
3.1 Probabilité conditionnelle de 𝑿 sachant 𝒚𝒋......................................................................................... 26
3.2 Probabilité conditionnelle de 𝒀 sachant 𝒙𝒊 ......................................................................................... 26
Section 4 ........................................................................................................................................................... 27
2
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Les caractéristiques marginales..................................................................................................................... 27
4.1 Moyenne et variance marginales de 𝑿 .................................................................................................... 27
4.2 Moyenne et variance marginales de 𝒀 .................................................................................................... 27
Section 5 ........................................................................................................................................................... 27
Les caractéristiques conditionnelles .............................................................................................................. 27
5.1 Moyenne et variance conditionnelles de 𝑿 sachant 𝒚𝒋 ........................................................................... 27
5.2 Moyenne et variance conditionnelles de 𝒀 sachant 𝒙𝒊 ........................................................................... 27
Section 6 ........................................................................................................................................................... 28
Covariance de 𝑿 et 𝒀....................................................................................................................................... 28

3
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre I
ANALYSE COMBINATOIRE

Elle a pour but de dénombrer les différentes dispositions que l’on peut former à partir d’un ensemble d’éléments
discernables deux à deux ou non discernables.
Une disposition est une suite d’éléments. Elle peut être :
- sans répétition, chaque élément figure au plus une fois dans la disposition ;
- avec répétition, un élément peut figurer plusieurs fois dans la disposition ;
- ordonnée, chaque élément est caractérisé non seulement par le nombre de fois où il apparaît dans la disposition,
mais aussi par sa place dans la disposition ;
- non ordonnée, si l’ordre des éléments ne compte pas.

Section 1
Arrangements
1.1 Arrangement sans répétition
Il s’agit d’une disposition ordonnée de p éléments pris parmi n , (discernables sans répétition) chacun d’eux ne
pouvant figurer au maximum qu’une fois dans le même arrangement.
On a donc :
- n possibilités pour le premier élément ;
- n  1 possibilités pour le deuxième élément ;
-.
-.
-.
- n  i  1 possibilités pour le i èm e élément ;
-.
-.
-.
- n  p  1possibilités pour le p ièm e élément.
Au total, cela fait donc n(n  1)(n  2)...(n  p  1) possibilités.
 p,n N2, p  n , Anp  n! ⋁(𝑘, 𝑛) ∈ ℕ2 , 𝑘 ≤ 𝑛, 𝐴𝑘𝑛 = (𝑛−𝑘)
𝑛!
(n p)!
Exemple 1.1 : 12 candidats se présentent aux élections à un conseil d’administration comportant 8 places. La
liste des élus est publiée suivant le nombre de voix obtenu. Combien y a-t-il de listes possibles ?

1.2 Arrangement avec répétition


Il s’agit d’une disposition ordonnée de p éléments pris parmi n , discernables, avec répétition éventuelle. Pour
chacun des p éléments, il y a n possibilités. On en déduit donc :
 p,n N2, Anp nxnxn...xn np.

Exemple 1.2: Quelle est la capacité d’un réseau téléphonique, dont un numéro d’appel est constitué de 8 chiffres?
𝑝 𝑝 𝑝−1
Propriétés 1.1: 𝐴𝑛 = 𝐴𝑛−1 + 𝑝𝐴𝑛−1
𝒑
Démonstration 1.1 : Parmi les 𝑨𝒏 arrangements, il y a ceux qui contiennent un élément particulier a et ceux qui
ne le contiennent pas.
𝒑
- pour ceux qui ne le contiennent pas, il y a 𝑨𝒏−𝟏 possibilités : les 𝑝 éléments de l’arrangement sont pris parmi
les (𝑛 − 1) éléments autres que a ;

4
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
- pour ceux qui le contiennent, en plus de a, ils y contiennent (𝑝 − 1) autres éléments, qui sont pris parmi
𝑝−1
les (𝑛 − 1) autres que a. Il y a 𝐴𝑛−1 arrangements de (𝑝 − 1) éléments ne contenant pas a. Pour chacun de ces
𝑝−1
arrangements, il y ensuite 𝑝 positions possibles pour intercaler a. Donc il y a au total 𝑝𝐴𝑛−1 arrangements de 𝑝
éléments contenant a.
𝑝 𝑝−1
Donc il y a au total 𝐴𝑛−1 + 𝑝𝐴𝑛−1 arrangements de 𝑝 éléments pris parmi n .

Démonstration 1.2

𝑛! (𝑛 − 𝑝 + 𝑝)(𝑛 − 1) (𝑛 − 𝑝)(𝑛 − 1)! (𝑛 − 1)!


𝐴𝑘𝑛 = = = +
(𝑛 − 𝑝)! (𝑛 − 𝑝)! (𝑛 − 𝑝)! (𝑛 − 𝑝)!
(𝑛 − 1)! (𝑛 − 1)! 𝑝 𝑝−1
= +𝑝 = 𝐴𝑛−1 + 𝑝𝐴𝑛−1
(𝑛 − 1 − 𝑝)! ((𝑛 − 1) − (𝑝 − 1))!

Section 2
Permutation
2.1 Permutation sans répétition
Il s’agit d’une disposition ordonnée des n éléments de l’ensemble, sans répétition.
𝑛!
On déduit donc : ∀ 𝑛 ∈ ℕ, 𝑃𝑛 = 𝐴𝑛𝑛 = (𝑛−𝑛)! = 𝑛!
Exemple 1.1: On dispose de 7 cartons sur lesquels on a écrit respectivement les lettres A, B, C, D, E, F, G.
Combien peut-on écrire de « mots » de 7 lettres ?

2.2 Permutation avec répétition


Il s’agit d’une disposition ordonnée donc d’éléments partiellement discernables. Parmi n éléments, on trouve 
éléments a,  éléments b,…,  éléments z avec n =    ... .
Si tous les éléments étaient discernables, on aurait n! Permutations. Ici toutes permutations des
 éléments a,  éléments b,…,  éléments z correspondent à la même permutation avec répétition.
𝑛! 5! 120
nN,Pn  n! = = = 10
!!...! 𝑛1 !𝑛2! 2!3! 2∗6
𝑛!
𝑛1 ! ∗ 𝑛2 ! ∗ … ∗ 𝑛𝑝 !

Exemple 1.2: Combien d’anagramme peut-on faire avec le mot STATISTIQUE?

Section 3
Combinaison
3.1 Combinaison sans répétition
Il s’agit d’une disposition non ordonnées de 𝑝 éléments discernables pris parmi n , sans répétition. Pour une
𝑝
disposition ordonnée de 𝑝 éléments pris parmi n sans répétition, il y a 𝐴𝑛 possibilités. Parmi celles-ci 𝑝!
𝑝
permutations correspondent à la même disposition non ordonnée. On en déduit donc : ∀(𝑝, 𝑛) ∈ ℕ2 , 𝑝 ≤ 𝑛, 𝐶𝑛 =
𝑝
𝐴𝑛 𝑛!
=
𝑝! 𝑝!(𝑛−𝑝)!

Exemple 1.3 : 12 candidats se présentent aux élections à un conseil d’administration comportant 8 places. La
liste des élus est publiée par ordre alphabétique. Combien y a-t-il de listes possibles?

5
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
𝑝 𝑛! 𝑝 𝑝−1
Propriétés 1.2 : 𝐶𝑛 = = 𝐶𝑛−1 + 𝐶𝑛−1
𝑝!(𝑛−𝑝)!
𝑝 𝑝 𝑝−1
𝐶𝑛 = 𝐶𝑛−1 + 𝐶𝑛−1
𝒑
Démonstration 1.3 : Parmi les 𝑪𝒏 combinaisons de 𝒑 éléments pris parmi 𝒏, il y en a qui contiennent un élément
particulier a et d’autre ne le contiennent pas.
- pour ceux qui le contiennent, en plus de a, ils y contiennent (𝑝 − 1)autres éléments, qui sont pris parmi les
𝑝−1
(𝑛 − 1) autres que a. Il y a 𝐶𝑛−1 combinaisons de (𝑝 − 1)éléments ne contenant pas a ;
𝑝
- pour ceux qui ne le contiennent pas, il y a 𝐶𝑛−1 possibilités : les 𝑝 éléments de la combinaison sont pris parmi
les (𝑛 − 1)éléments autres que a.
𝑝 𝑝 𝑝−1
Donc 𝐶𝑛 = 𝐶𝑛−1 + 𝐶𝑛−1

Triangle de Pascal
𝑝 0 1 2 3 4 (𝑝 − 1) 𝑝
𝑛 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1

𝑝−1 𝑝
(𝑛 − 1) 𝐶𝑛−1 𝐶𝑛−1
𝑝
𝑛 𝐶𝑛

Formulation du Binôme de Newton


On retrouve ainsi la formulation du développement d’un binôme. ∀ 𝑛 ∈ ℕ, (𝑎 + 𝑏)𝑛 = ∑𝑛𝑘=0 𝐶𝑛𝑘 𝑎𝑘 𝑏 𝑛−𝑘
Tout terme en 𝑎𝑘 𝑏 𝑛−𝑘 est répété autant de fois qu’on peut prendre 𝑘 éléments a et (𝑛 − 𝑘)éléments 𝑏 dans un
rang différent parmi l’ensemble des 𝑛 facteurs (𝑎 + 𝑏)L’ordre des facteurs important peu, on obtient 𝐶𝑛𝑘 termes
𝑎𝑘 𝑏 𝑛−𝑘 .
En faisant dans la formule du binôme de Newton :(𝑎 = 𝑏 = 1), on obtient : ∑𝑛𝑘=0 𝐶𝑛𝑘 = 2𝑛 .
La somme des coefficients du développement du binôme de Newton est égal à 2𝑛 .

3.2 Combinaison avec répétition


Il s’agit d’une disposition non ordonnées de 𝑝 éléments pris parmi 𝑛, discernables, avec, répétition
éventuellement. Dans ce cas, on n’a donc pas obligatoirement 𝑝 ≤ 𝑛.
Considérons que l’on introduise des séparateurs entre 𝑛 éléments discernables 𝑎𝑎 ∥ 𝑏𝑏𝑏 ∥ 𝑑
On a alors (𝑛 − 1) séparateurs. Toute combinaison revient alors à placer les (𝑛 − 1) séparateurs et les 𝑝
éléments dans un ordre donnée. Toute combinaison avec répétition est donc une permutation avec répétition des
(𝑛 − 1) séparateurs et des 𝑝 éléments. Posons 𝑚 = (𝑛 − 1) + 𝑝 . ∀(𝑝, 𝑛) ∈ ℕ2 , 𝑚 = (𝑛 − 1) + 𝑝.
𝑝 𝑚! (𝑛+𝑝−1)! 𝑝
𝐾𝑛 = 𝑃𝑚 = = = 𝐶𝑛+𝑝−1
𝑝!(𝑛−𝑝)! 𝑝!(𝑛+𝑝−1−𝑝)!

6
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre II
PROBABILITES

La théorie des probabilités est l’étude de modèles mathématiques des phénomènes dans lesquels le hasard
intervient. Il n’est alors pas possible d’en prévoir avec certitude les résultats. La notion de hasard recoupe
plusieurs situations : des phénomènes non déterministes ou des phénomènes dont on est incapable d’appréhender
quantitativement toutes les causes. On parle dans les deux cas d’épreuve ou d’expérience aléatoire et le résultat
obtenu sera un événement.
Les outils appropriés dans ce cadre sont ceux de la statistique mathématique, la base de cette discipline étant la
théorie des probabilités. Nous allons en exposer ici les principes.

Section 1
Evénement
1.1 Définition
- On appelle épreuve aléatoire une expérience dans laquelle on connaît tous les résultats possibles, mais dont on
ne peut pas prévoir l’issue avec certitude.
- On appelle ensemble fondamental ou univers, noté Ω, tous les résultats possibles d’une expérience aléatoire. Un
élément ω de Ω est appelé résultat ou issue.

Exemples 2.1:
1) un lancer de dé : Ω = {1, 2, 3, 4, 5, 6} ou le lancer d’une pièce Ω = {pile, face}

2) le nombre de lancers nécessaires d’un dé pour obtenir la face 1 : Ω = N

3) le poids d’une personne tirée au hasard dans la population : Ω = IR+

Remarque : Ω peut être fini (exemple 1), infini dénombrable (exemple 2) et infini non dénombrable (exemple
3). Dans les deux premiers cas, Ω est dit discret, dans le dernier, il est dit continu.

- On appelle événement associé à une expérience aléatoire un sous-ensemble de Ω. On dira qu’un événement est
réalisé si l’un de ses éléments est observé à l’issue de l’expérience aléatoire.

Notation : Un événement sera désigné par une lettre capitale A, B, C, etc. Il sera décrit par la propriété le
caractérisant ou par le sous-ensemble correspondant de Ω.

Exemple 2.2 : dans le cas du lancer de dé, on pourra s’intéresser à l’événement A : "obtenir un nombre pair" ou
de façon équivalente à A = {2, 4, 6}.

1.2 Opérations sur les événements


Sur les événements, on peut appliquer les opérations habituelles de la théorie des ensembles.

1.2.1 L’union
L’événement A∪B est réalisé dès que A ou B est réalisé. Dans un lancer de dé, si l’événement A est “obtenir un
nombre pair” et l’´événement B “obtenir un multiple de 3”, l’´événement A ∪ B est l’´événement “obtenir un
nombre pair OU un multiple de 3”, c’est-`a-dire {2, 3, 4, 6}.

7
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
1.2.2 L’Intersection
L’évènement A ∩ B est réalisé d`es que A et B sont réalisés conjointement dans la même expérience. Dans un
lancer de d´e, si l’événement A est “obtenir un nombre pair” et l’´événement B “obtenir un multiple de 3”,
l’événement A ∩ B est l’´événement “obtenir un nombre pair ET multiple de 3”, c’est-`a-dire {6}.

1.2.3 La différence
L’événement A\B est réalisé quand A est réalisé et que B ne l’est pas.

1.2.4 Le complémentaire
Le complémentaire de l’événement A est l’événement Ω\A. Le complémentaire est noté 𝐴̅.

Exemple 2.3 : L’expérience peut consister à jeter un dé, alors


Ω = {1, 2, 3, 4, 5, 6},
et un événement, noté A, est “obtenir un nombre pair”. On a alors
A = {2, 4, 6} et 𝐴̅ = {1, 3, 5}.

1.3 Relations entre les événements


1.3.1 Evénements mutuellement exclusifs
Si A ∩ B = ∅ on dit que A et B sont mutuellement exclusifs ou incompatible, ce qui signifie que A et B ne peuvent
pas se produire ensemble.

Exemple 2.4 : Si on jette un dé, l’événement “obtenir un nombre pair” et l’événement “obtenir un nombre impair”
ne peuvent pas être obtenus en même temps. Ils sont mutuellement exclusifs. D’autre part, si l’on jette un dé, les
événements A : “obtenir un nombre pair” n’est pas mutuellement exclusif avec l’événement B : “obtenir un
nombre inférieur ou égal à 3”. En effet, l’intersection de A et B est non-vide et consiste en l’événement “obtenir
2”.

1.3.2 Inclusion
Si A est inclus dans B, on écrit A ⊂ B. On dit que A implique B.

Exemple 2.5 : Si on jette un dé, on considère les événements


A “obtenir 2” et B “obtenir un nombre pair”.
A = {2} et B = {2, 4, 6}.
On dit que A implique B.

1.4 Propriétés des événements


Soit p la propriété caractérisant l’événement A et q la propriété caractérisant l’événement B.

Dénomination Propriété Sous-ensemble


Evénement certain p se réalise toujours A=Ω
Evénement impossible p ne se réalise jamais A=
Evénement élémentaire p se réalise pour une seule éventualité A = {ω}
événement p ne se réalise pas 𝐴̅ ou 𝐶𝐴
complémentaire
A implique B p implique q AB
A ou B p ou q se réalise (soit p, soit q, soit les 2) AB
A et B p et q se réalisent A∩B
A et B incompatibles p et q ne peuvent pas se réaliser en même temps A∩B=
8
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Exemple 2.6 : On tire une boule d’une urne contenant 12 boules numérotées de 1 à 12.
Soit E = {1, 2, 3, 4, 5, 6} et F = {4, 5, 6, 7, 8, 9}.
On a alors: Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}, 𝐸̅ = {7, 8, 9, 10, 11, 12}, E ∩ F = {4, 5, 6},
E  F = {1, 2, 3, 4, 5, 6, 7, 8, 9} .

Parmi les plus importantes propriétés algébriques de la réunion et de l’intersection de deux événements on a:
1. loi commutative: E  F = F  E ; E ∩ F = F ∩ E.
2. loi associative: E  (F  G) = (E  F) G ; E ∩ (F ∩ G) = (E ∩ F) ∩ G.
3. loi distributive: E ∩(F G) = (E ∩ F)  (E ∩ G) ; E  (F ∩ G) = (E F)∩(E G).
4. loi d’idempotence: E  E = E ; E ∩ E = E.

Une propriété moins évidente des opérations sur les événements est donnée par les lois de Morgan:

̅̅̅̅̅̅̅
𝐸 ∪ 𝐹 = 𝐸̅ ∩ 𝐹̅ ;

̅̅̅̅̅̅̅
𝐸 ∩ 𝐹 = 𝐸̅ ∪ 𝐹̅

Section 2
Ensemble d’événements
Les considérations avec lesquelles on choisit l’espace d’une manière correcte sont une partie de l’art d’appliquer
la théorie mathématique des probabilités à l’étude de phénomènes réels. L’espace d’échantillonnage est
l’ensemble de tous les résultats possibles d’un phénomène. Un espace est un ensemble complet dans le sens que
seulement les objets de l’ensemble sont considérés.

2.1 Ensemble des parties d’un ensemble


On va associer à Ω l’ensemble ℱ de toutes les parties (ou sous-ensembles) de Ω.

Exemple 2.7 : Si on jette une pièce de monnaie alors Ω = {P, F}, et ℱ = {∅, {F}, {P}, {F, P}}.

2.2 Système complet d’événements


Les événements A1, . . ., An forment un système complet d’événements, s’ils constituent une partition de Ω, c’est-
à-dire si
- tous les couples 𝐴𝑖 , 𝐴𝑗 sont mutuellement exclusifs quand i ≠ j
- ⋃𝑛𝑖=1 𝐴𝑖 = Ω
Système complet d’événements

𝐴1 ------------ 𝐴𝑖 ----------- 𝐴𝑛

Section 3
Axiomatiques des probabilités
La probabilité est une mesure comprise entre 0 et 1 permettant de quantifier les chances qu’un événement se
produise.

9
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
3.1 Axiome de KOLMOGOROV
Une probabilité P(.) est une application de 𝐴 dans [0, 1], telle que :
- P(Ω) = 1,
- Pour tous ensemble dénombrable d’événements A1, … , An mutuellement exclusifs (tels que Ai ∩ Aj = ∅,
pour tout i ≠ j),
P(A1 ∪ A2 ∪ A3 ∪ · · · ∪ An) = P(A1)+P(A2)+P(A3)+· · ·+P(An).
A partir des axiomes, on peut déduire les propriétés suivantes :

Propriété 2.1 P(∅) = 0.

Démonstration 2.1 : Comme ∅ est d’intersection vide avec ∅, on a que


P (∅ ∪ ∅) = P (∅) + P(∅).
Donc,
P (∅) = 2P (∅),
ce qui implique que P(∅) = 0.

Propriété 2.2 : P(𝐴̅) = 1 − P(𝐴).

Démonstration 2.2 :
On sait que
𝐴 ∪ 𝐴̅ = Ω et 𝐴 ∩ 𝐴̅ = ∅.
Ainsi, on a que
P(Ω) = P(𝐴 ∪ 𝐴̅) = P(𝐴) + P(𝐴̅).
Mais, par la définition d’une probabilité, P(Ω) = 1. Donc,
P(𝐴) + P(𝐴̅).) = 1
On en déduit que P(𝐴̅).) = 1 − P(𝐴).

Propriété 2.3 P(A) ≤ P(B) si A ⊂ B.

Démonstration 2.3 :
Comme A ⊂ B, on a
B = (B ∩ (𝐴̅) ∪ A.
Mais on a que
(B ∩ 𝐴̅) ∩ A = ∅.
Ainsi, on a
P(B) = P(B ∩ 𝐴̅) )+ P(A).
Or une probabilité est à valeur dans [0,1], donc P(B ∩ (𝐴̅) ≥ 0. On a alors
P(B) ≥ P(A).
Propriété 2.4 P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

Démonstration 2.4 :
On a
A ∪ B = A ∪ (B ∩ 𝐴̅),
et
A ∩ (B ∩ 𝐴̅) = ∅.

Donc
P(A ∪ B) = P(A) + P(B ∩ 𝐴̅).
Il reste à montrer que
10
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
P(B ∩ 𝐴̅) = P(B) − P(A ∩ B)
En effet,
B = (B ∩ 𝐴̅) ∪ (B ∩ A)
avec
(B ∩ 𝐴̅) ∩ (B ∩ A) = ∅
Donc
P(B) = P(B ∩ 𝐴̅) + P(B ∩ A),
ce qui donne
P(B ∩ 𝐴̅) = P(B) − P(A ∩ B).

Propriété 2.5 : 𝑷(⋃𝒏𝒊=𝟏 𝑨𝒊 ) ≤ ∑𝒏𝒊=𝟏 𝑷(𝑨𝒊 )

Démonstration 2.5 :
Notons respectivement
B1 = A1, B2 = (A2\A1), B3 = (A3\(A1 ∪ A2)),
B4 = (A4\(A1 ∪ A2 ∪ A3)), . . . ,Bn = (An\(A1 ∪ A2 ∪ A3 ∪ · · · ∪ An−1)).
Comme
⋃𝑛𝑖=1 𝐴𝑖 = ⋃𝑛𝑖=1 𝐵𝑖
et que Bi ∩ Bj = ∅ pour tout j ≠ i, alors
𝑷(⋃𝒏𝒊=𝟏 𝑩𝒊 ) = ∑𝒏𝒊=𝟏 𝑷(𝑩𝒊 ),

De plus, comme, pour tout i, Bi ⊂ Ai, on a que P(Bi) ≤ P(Ai), ce qui donne finalement
𝑷(⋃𝒏𝒊=𝟏 𝑨𝒊 ) = 𝑷(⋃𝒏𝒊=𝟏 𝑩𝒊 ) = ∑𝒏𝒊=𝟏 𝑷(𝑩𝒊 ) ≤ ∑𝒏𝒊=𝟏 𝑷(𝑨𝒊 ) .

Propriété 2.6 : Si A1, … , An forment un système complet d’événements, alors


𝑛

∑ 𝑃(𝐵 ∩ 𝐴𝑖 ) = 𝑃(𝐵)
𝑖=1
Démonstration 2.6 :
Si A1, . . . , An forment un système complet d’événements, alors
𝑩 = ⋃𝒏𝒊=𝟏(𝑩 ∩ 𝑨𝒊 )
Mais on a, pour tout i, j tels que i ≠ j
(𝑩 ∩ 𝑨𝒊 ) ∩ (𝑩 ∩ 𝑨𝒋 ) = ∅
Finalement, on a que
𝒏 𝒏

𝑷(𝑩) = 𝑷 (⋃(𝑩 ∩ 𝑨𝒊 )) = ∑ 𝑷(𝑩 ∩ 𝑨𝒊 )


𝒊=𝟏 𝒊=𝟏
3.2 Probabilité sur un ensemble fini
Soit Ω = {𝜔1 , 𝜔2 , … , 𝜔𝑛 } un ensemble fini. Sur l’espace probabilisable (,()), on peut construire une
probabilité P en se donnant des nombre 𝑝𝑖 = 𝑃({𝜔𝑖 }) tels que : ∀ 𝑖 ∈ {1, 2, … 𝑛}, 𝑝𝑖 ≥ 0
𝑛

∑ 𝑝𝑖 = 1
𝑖=1

Cas particulier : calcul de probabilités dans le cas équiprobable


Soit une expérience aléatoire et soit un événement A lié à cette expérience aléatoire. Dans le cas équiprobable,
c’est à dire où chaque élément de Ω a la même probabilité d’être tiré :

11
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
𝐶𝑎𝑟𝑑(A) 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃(𝐴) = =
𝐶𝑎𝑟𝑑(Ω) 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠
Avec Ω l’ensemble fondamental.
Attention, cette relation n’est valable que dans le cas équiprobable. Ainsi, lorsque l’on joue au loto, il y a deux
événements possibles : gagner ou perdre, mais la probabilité des deux n’est malheureusement pas de 1/2 ! Dans
le cas contraire, le calcul de probabilité se ramène à un problème de dénombrement. On utilise à cette fin des
éléments de combinatoire ...

Section 4
Probabilités conditionnelles et indépendance
4.1 Probabilités conditionnelles
Soit l’événement A de probabilité non nulle. La probabilité de l’événement B sachant que l’événement A est
réalisé est définie par :
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵\𝐴) =
𝑃(𝐵)

Exemple 2.8 : Supposons que l’on ait deux urnes identiques et que l’une contienne 5 boules rouges et 5 boules
blanches, la deuxième 1 boule rouge et 9 boules blanches. Il est clair que la probabilité de l’événement R "tirer
une boule rouge" diffère suivant que l’événement U1 "l’urne 1 a été tirée" plutôt que U2 "l’urne 2 a été tirée" se
soit réalisé.

Exemple 2.9 : Si on jette un dé, et que l’on considère les deux événements suivants :
- A l’événement « avoir un nombre pair » et
- B l’événement « avoir un nombre supérieur ou égal à 4 ».
On a donc
3 1
𝐴 = {2, 4, 6} et 𝑃(𝐴) = =
6 2
3 1
𝐵 = {4, 5, 6} et 𝑃(𝐵) = =
6 2
2 1
(𝐴 ∩ 𝐵) = {4, 6} et 𝑃(𝐴 ∩ 𝐵) = =
6 3
1
𝑃(𝐴 ∩ 𝐵) 3 2
𝑃(𝐴\𝐵) = = =
𝑃(𝐵) 1 3
2

Propriété 2.7 :
-  A,  B avec P(A)>0 et P(B)>0
P(A B) = P(B|A) × P(A) = P(A|B) × P(B)
-  A,  B tels que B  A, P(A\B) = 1

4.2 Evénements indépendants pour une probabilité P


Deux événements A et B sont indépendants en probabilité si :
P (A ∩ B) = P (A) × P (B)

Propriétés 2.8:
1. Si A et B sont indépendants en probabilité, alors :
- P (A |B) = P (A) si P (B)  0
- P (B |A) = P (B) si P (A)  0
- P(AB) = P(A) + P(B) – P(A) x P(B)
12
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
La réalisation de l’événement B n’affecte pas la probabilité de réalisation de l’événement A et réciproquement.
2. 𝐴 et 𝐵 indépendants ⟺ 𝐴̅ et 𝐵 indépendants
𝐴 et 𝐵 indépendants ⟺ 𝐴 et 𝐵̅ indépendants
𝐴 et 𝐵 indépendants ⟺ 𝐴̅ et 𝐵̅ indépendants

4.3 Théorème des probabilités totales et théorème de Bayes


Théorème 2.1 (Théorème des probabilités totales)
Soit un ensemble d’événements A1, A2,. . . , An, tels que ⋃𝑖 𝐴𝑖 = Ω et 𝐴𝑖 ∩ 𝐵𝑖 = ∅ pour tout i # j, alors : On parle
de système complet d’événements et dans la théorie des ensembles, on dit alors que les événements A1, A2,. . . ,
An forment une partition de Ω. Dans ce cas :

P (B) = P (A1 ∩ B) + P (A2 ∩ B) + . . . + P (An ∩ B) (1)


Or P (Ai ∩ B) = P(B\Ai)P(Ai) (2)
En remplaçant (2) dans (1), on obtient :
P (B) = P (B |A1)P (A1) + P (B |A2 )P (A2) + . . . + P (B |An )P (An)
Ce qui revient à :
𝑛

𝑃(𝐵) = ∑ 𝑃(𝐵\𝐴𝑖 )𝑃(𝐴𝑖 )


𝑖=1

Illustration du théorème des probabilités totales


𝐴1 𝐴𝑖 𝐴𝑛

En effet,
𝑛 𝑛

∑ 𝑃(𝐴𝑖 )𝑃(𝐵\𝐴𝑖 ) = ∑ 𝑃(𝐵 ∩ 𝐴𝑖 )


𝑖=1 𝑖=1
Comme les événements Ai ∩ B sont mutuellement exclusifs,
𝑛 𝑛

∑ 𝑃(𝐵 ∩ 𝐴𝑖 ) = 𝑃 ⋃(𝐵 ∩ 𝐴𝑖 ) = 𝑃(𝐵)


𝑖=1 𝑖=1

Théorème 2.2 (Théorème Bayes)

Soit A1, …, An un système complet d’événements, avec i # j, alors :


𝑃(𝐵\𝐴𝑖 )𝑃(𝐴𝑖 )
𝑃(𝐴𝑖 \𝐵) = 𝑛
∑𝑖=1 𝑃(𝐵\𝐴𝑖 )𝑃(𝐴𝑖 )
En effet, par le théorème des probabilités totales,
𝑃(𝐵\𝐴𝑖 )𝑃(𝐴𝑖 ) 𝑃(𝐵 ∩ 𝐴𝑖 )
𝑛 = = 𝑃(𝐴𝑖 \𝐵)
∑𝑖=1 𝑃(𝐵\𝐴𝑖 )𝑃(𝐴𝑖 ) 𝑃(𝐵)

13
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Exemple 2.10 : Supposons qu’une population d’adultes soit composée de 30% de fumeurs (A1) et de 70% de
non-fumeurs (A2). Notons B l’événement “mourir d’un cancer du poumon”. Supposons en outre que la probabilité
de mourir d’un cancer du poumon est égale à P(B\A1) = 20% si l’on est fumeur et de P(B\A2) = 1% si l’on est
non-fumeur. Le théorème de Bayes permet de calculer les probabilités a priori, c’est-à-dire la probabilité d’avoir
été fumeur si on est mort d’un cancer du poumon. En effet, cette probabilité est notée P (A1|B) et peut être calculée
par
𝑃(𝐵\𝐴1 )𝑃(𝐴1 ) 0,3 ∗ 0,2 0,06
𝑃(𝐴1 \𝐵) = = = = 0,896
𝑃(𝐵\𝐴1 )𝑃(𝐴1 ) + 𝑃(𝐵\𝐴2 )𝑃(𝐴2 ) 0,3 ∗ 0,2 + 0,7 ∗ 0,01 0,06 + 0,007
La probabilité de ne pas avoir été non-fumeur si on est mort d’un cancer du poumon vaut quant à elle :

𝑃(𝐵\𝐴2 )𝑃(𝐴2 ) 0,7 ∗ 0,01 0,07


𝑃(𝐴2 \𝐵) = = = = 0,104
𝑃(𝐵\𝐴1 )𝑃(𝐴1 ) + 𝑃(𝐵\𝐴2 )𝑃(𝐴2 ) 0,3 ∗ 0,2 + 0,7 ∗ 0,01 0,06 + 0,007

14
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre III
VARIABLE ALEATOIRE

- L'ensemble Ω des résultats d'une expérience aléatoire n'est pas nécessairement constitué de grandeurs
numériques, ce qui ne facilite pas leur manipulation. Pour une expérience donnée, on peut s'intéresser non pas
spécifiquement au résultat lui-même mais à une de ses grandeurs caractéristiques. Ainsi, si l'expérience consiste
à choisir de façon aléatoire un individu dans une certaine population, on pourra par exemple envisager plus
particulièrement l'âge de cette personne, sa taille, ... L'introduction de la notion de variable aléatoire permet de
prendre en compte ces diverses situations de façon satisfaisante. Pour les besoins du calcul (par exemple celui de
la moyenne des résultats), il est nécessaire de convertir les résultats d’une expérience aléatoire sous forme
numérique. On a alors recours à la notion de variable aléatoire.

Section 1
Variable aléatoire
1.1 Définition d’une variable aléatoire
Une variable aléatoire, notée v.a. dans la suite est une application de Ω dans ℝ.
Ω⟶ℝ
𝜔⟶𝑥
Autrement dit, une variable aléatoire associe une valeur numérique aux résultats possibles d’une expérience
aléatoire. Par convention, on notera toujours par une majuscule la variable aléatoire (par exemple, X) et par des
minuscules les valeurs (ou réalisations) qu’elle peut prendre (par exemple, xi).

Exemple 3.1 : Considérons l’expérience aléatoire suivante : deux lancers consécutifs d’une pièce. L’ensemble
des résultats possibles est : Ω = {(F, F), (F, P), (P, F), (P, P)}.

Chacun des événements de Ω a une probabilité 1/4. Une variable aléatoire va associer une valeur à chacun des
événements de Ω. Considérons la variable aléatoire représentant le nombre de « Piles » obtenus
Les réalisations correspondantes de la variable aléatoire sont X(Ω) = {0, 1, 2}.

0 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 1/4


𝑋 = {1 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 1/2
2 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 1/4

C’est une variable aléatoire discrète dont la distribution de probabilités est présentée en Figure 3.1
Figure 3.1- Distribution de « Piles » obtenus

Remarque 3.1 : Plusieurs variables aléatoires peuvent être définies à partir d’un même espace fondamental.

15
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
1.2 Types de variables aléatoires
On distingue les variables aléatoires discrètes des variables aléatoires continues. Les premières ne peuvent prendre
qu’un nombre fini de valeurs ou infini dénombrable du type 0, 1, 2, . . . ou plus formellement X(Ω) est fini ou
infini dénombrable (exemple : la variable aléatoire X résultat du jet d’un dé). A contrario, les variables aléatoires
continues peuvent prendre n’importe quelle valeur réelle à n (v.a. continue) qui permet de déterminer la
probabilité que cette variable prenne une valeur donnée l’intérieur d’un intervalle ou d’une suite d’intervalles
(exemple : la variable X taille d’une personne tirée dans la population). Dans ce cas, X(Ω) est infini non
dénombrable.

Section 2
Loi de probabilité aléatoire
De façon générale, on appelle loi de probabilité d’une variable aléatoire la relation (variable aléatoire discrète) ou
la fonction (variable aléatoire continue) qui permet de déterminer la probabilité que cette variable prenne une
valeur donnée (variable aléatoire discrète) ou appartienne à un intervalle donné (variable aléatoire continue).

Loi de probabilité aléatoire discrète


Pour définir la loi de probabilité d’une variable aléatoire discrète, on pourra donner l’ensemble de ses valeurs
possibles X(Ω) = {x1, x2, . . . , xn} et les probabilités associées P (X = x1), P (X = x2),. . . , P (X = xn). Elle est
souvent présentée sous forme de tableau de probabilités analogue au tableau de fréquences étudié en statistique
descriptive.

Exemple 3.2 : La loi de probabilité de la variable aléatoire 𝑋: "résultat du jet d’un dé" est donnée par :

𝑥𝑖 1 2 3 4 5 6
𝑃(𝑋 = 𝑥𝑖 ) 1 1 1 1 1 1
6 6 6 6 6 6

Section 3
Fonction de répartition
La fonction de répartition F d’une variable aléatoire X est la fonction qui associe à toute valeur x de X, la
probabilité que X soit inférieure ou égale à X. F (x) = P (X ≤ x).
- Dans le cas d’une variable aléatoire discrète : F (x) = P (X ≤ x) = ∑𝑘≤𝑥 𝑃(𝑋 = 𝑥)

Propriétés 3.1 :
lim F(x) = 0
x−∞
lim F (x) = 1
x+∞
0 ≤ F (x) ≤ 1 car F (x) est une probabilité
F (x) est une fonction non décroissante de x

Section 4
Valeurs caractéristiques des variables aléatoires
On retrouve à ce niveau les différents paramètres présentés dans la première partie.

4.1 Le mode
- Pour une variable aléatoire discrète, c’est rechercher la valeur xi qui maximise les probabilités individuelles P
(X = xi).

16
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
4.2 La médiane
- Pour une variable aléatoire discrète, c’est rechercher la plus petite valeur xi telle que
F (xi) ≥ 0.5.

4.3 L’espérance (valeur moyenne)


- Pour une variable aléatoire discrète : 𝐸(𝑋) = 𝜇 = ∑𝑖 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 )
1
Exemple 3.3 : Dans le cas d’un lancer de dé, 𝐸(𝑋) = 𝜇 = ∑𝑖 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) = ∑6𝑖=1 𝑖 = 3,5
6
Remarques 3.2
a. L’espérance mathématique correspond à la notion de moyenne arithmétique utilisée en statistique descriptive :
μ =  f i xi
i

b. Il existe des lois de probabilités où l’espérance E(X) n’est pas définie car  xi P ( X  xi )  xf ( x)dx peut
i 
diverger (la somme ou l’intégrale n’existe pas ou vaut ±∞).

Propriétés 3.2 : Soit a un réel et X et Y deux variables aléatoires. Alors :


a. E(a + X) = a + E(X)
b. E(aX) = aE(X)
c. E(X + Y) = E(X) + E(Y)
d. E(XY) = E(X)E(Y ) si X et Y sont indépendants en probabilité.

4 .4 La variance
On appelle variance de X, et on note V (X), l’espérance de la variable aléatoire (X − E(X))2, si elle existe. Elle
est donc obtenue par :
- Pour une variable discrète : V (X) = σ2 = E[X − E(X)]2 = ∑𝑖[𝑥𝑖 − 𝐸(𝑋)]2 𝑃(𝑋 = 𝑥𝑖 )

Remarques 3.3 :
a. De même, noter la similitude de ces formules avec celle de la variance donnée dans la partie 1.
b. Comme l’espérance, la variance V (X) peut ne pas exister.
c. On pourra également obtenir la variance par : V (X) = E(X2) − E(X)2 (théorème de Koenigs). En pratique, on
utilise plutôt cette formule qui simplifie considérablement les calculs.

Propriétés 3.3 : Soit a un réel et X et Y deux variables aléatoires. Alors :


a. V (a + X) = V (X)
b. V (aX) = a2V (X)
c. V (X + Y) = V (X) + V (Y) + 2cov(X, Y )
avec cov(X, Y) = E[X − E(X)][Y − E(Y )] = E(XY ) − E(X)E(Y )
d. V (X + Y) = V (X) + V (Y) si X et Y sont indépendants en probabilité.

Section 5
Moments d’une variable aléatoire
Soit k IN*, et X une variable aléatoire telle que Xk possède une espérance mathématique. Alors, E(Xk) s’appelle
le moment d’ordre k de X. Le moment E[X − E(X)]k est le moment centré d’ordre k de X. On le note 𝜇𝑘 .

17
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Moments d’une variable aléatoire discrète
Soit X une variable aléatoire discrète, et soit X={x1, x2, ….} l’ensemble des valeurs prise par X et {p1, p2, ….}
les probabilités correspondantes.
Le moment d’ordre k a pour expression, sous réserve d’existence : 𝑚𝑘 = ∑𝑖 𝑥𝑖𝑘 𝑃(𝑋 = 𝑥𝑖 )
𝑘
Le moment centré d’ordre k a pour expression, sous réserve d’existence : 𝜇𝑘 = ∑𝑖=1(𝑥𝑖 − 𝐸(𝑋)) 𝑃(𝑋 = 𝑥𝑖 )
Propriétés 3.4 :
Si X admet un moment d’ordre k, alors ∀ 𝑟 ∈ ℕ∗ , 𝑟 ≤ 𝑘 , elle admet un moment d’ordre r.
Le moment d’ordre 1 𝑚1 correspond à l’espérance mathématique.
2
Le moment centré d’ordre 2 correspond à la variance. 𝜇2 = 𝐸(𝑋 2 ) − (𝐸(𝑋)) = 𝑚2 − 𝑚1

18
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre IV
QUELQUES LOIS USUELLES DISCRETES

Section 1
Variable de Bernoulli
1.1 Définition
Une variable de Bernoulli est une variable qui ne peut prendre que deux valeurs exclusives, souvent désignées
par « succès » et « échec », avec les probabilités respectives p et q. Ces deux événements sont complémentaires
et on a : 𝑝 + 𝑞

Exemple 4.1 : On tire au hasard une carte d’un jeu de 32 cartes et on s’intéresse à l’événement « la carte tirée est
une dame ».
Le succès est l’événement 𝐴 : « la carte tirée est une dame »
L’échec est l’événement 𝐴̅ : « la carte tirée n’est pas une dame »
4 1
𝑃(𝐴) = =
32 8
28 7
𝑃(𝐴̅) = =
32 8
D’où
𝑃(𝐴) + 𝑃(𝐴̅) = 1

1.2 Espérance mathématique et variance


Considérons une variable de Bernoulli qui prend les valeurs 1 avec la probabilité p et 0 avec la probabilité q.
On a 𝐸(𝑋) = 𝑝 et 𝐸(𝑋) = 𝑝 et 𝑉(𝑋) = 𝑝𝑞
Démonstration4.1 : L’espérance mathématique est donnée par 𝐸(𝑋) = ∑1𝑖=0 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) = 0 ∗ 𝑞 + 1 ∗ 𝑝 = 𝑝
La variance est donnée par
1

𝑉(𝑋) = ∑[𝑥𝑖 𝐸(𝑋)]2 𝑃(𝑋 = 𝑥𝑖 ) = [(0 − 𝑃)2 ∗ 𝑞] + [(1 − 𝑝2 ) ∗ 𝑝] = 𝑝2 𝑞 + 𝑞 2 𝑝 = 𝑝𝑞(𝑝 + 𝑞)


𝑖=0

Section 2
Loi binomiale
2.1 Définition
Une variable aléatoire X obéit à une loi binomiale quand la probabilité de 𝑋 = 𝑘 est donnée par la relation
𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 où :
- n = nombre d’épreuves
- p = probabilité de l’événement considéré
q = probabilité de l’événement contraire
- 0≤𝑘
On note 𝑋~𝐵(𝑛, 𝑝)

Exemple 4.2 : On tire au hasard une carte d’un jeu de 32 cartes. La carte tirée est remise dans le jeu. Cette épreuve
est répétée quatre fois et on cherche la probabilité de l’événement A : « on a tiré trois cœurs »

19
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
1 3
Au cours de chaque épreuve la probabilité de tirer 1 cœur est de et celle de tirer un non cœur est de .
4 4
L’événement A est réalisé quand on a tiré un cœur et un non cœur. Le nombre de cas de figures de cette sorte est :
𝐶43 = 4
1 3 3 1
La probabilité cherchée est donc : 𝑃(𝑋 = 3) = 𝐶43 ( ) ( ) ≈ 0,047
4 4
NB : on a bien 𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 = 1
En effet, le recours au binôme de Newton permet d’écrire : 𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 = (𝑝 + 𝑞)𝑛 . Or par
définition, (𝑝 + 𝑞)𝑛 = 1
Donc 𝑃(𝑋 = 𝑘) = (𝑝 + 𝑞)𝑛 = 1𝑛

2.2 Espérance mathématique


La variable aléatoire binomiale 𝑋~𝐵(𝑛, 𝑝) est la somme de n variables de Bernoulli : 𝑋 = ∑𝑛𝑖=1 𝑋𝑖
En utilisant les propriétés de l’espérance mathématique, il vient :
𝑛

𝐸(𝑋) = 𝐸 [∑ 𝑋𝑖 ] = 𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 ) = ⏟


𝑝 + 𝑝 + ⋯ + 𝑝 = 𝑛𝑝
𝑖=1 𝑛 𝑓𝑜𝑖𝑠

2.3 Variance
De façon analogue, on montre que 𝑉(𝑋) = 𝑛𝑝𝑞

2.4 Ecart type


Par définition, 𝜎𝑋 = √𝑉(𝑋) = √𝑛𝑝𝑞

NB : La loi binomiale 𝑋~𝐵(1, 𝑝) est équivalente à une loi de Bernoulli

Exemple 4.3 : Le dirigeant d’une société constate quen70% des cadres embauchés sont encore dans l’entreprise
5 ans après. Il recrute six jeunes cadres. Calculer la probabilité que 5 ans après :
1) Les 6 aient quitté l’entreprise
2) Deux d’entre eux soient encore dans l’entreprise
3) 3 d’entre eux au plus aient quitté l’entreprise
4) Calculer E(X), V(X) et 𝜎𝑋
Réponse
Désignons par X « le nombre de nouveaux cadres encore présents dans l’entreprise 5 ans après leur recrutement ».
X est une variable aléatoire qui suit une loi binomiale de paramètres n=6 et p=0,70. 𝑋~𝐵(6; 0,70)
1) La probabilité que les 6 cadres aient quitté l’entreprise 5 ans après :

𝑃(𝑋 = 0) = 𝐶60 (0,70)0 (0,30)6 = (0,30)6 = 0,000729. Soit 0,0720%

2) La probabilité que deux d’entre soient encore dans l’entreprise 5 ans après :
𝑃(𝑋 = 2) = 𝐶62 (0,70)2 (0,30)4 = 0,0595. Soit 5,95%

3) La probabilité que 3 d’entre eux au plus aient quitté l’entreprise 5 ans après :
𝑃(𝑋 ≥ 3) = 1 − [𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3)]
𝑃(𝑋 = 1) = 𝐶61 (0,70)1 (0,30)5 = 0,01021
𝑃(𝑋 = 2) = 𝐶62 (0,70)2 (0,30)4 = 0,0595

𝑃(𝑋 = 3) = 𝐶63 (0,70)3 (0,30)3 = 0,01852

20
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
D’où 𝑃(𝑋 ≥ 3) = 1 − [0,01021 + 0,595 + 0,1852] = 0,7452. Soit 74,52%

E(X) = np = (6) (0,70) = 4,2


V(X) = npq = (6) (0,70) ((0,30) = 1,26
𝜎𝑋 = √𝑉(𝑋) = √1,26 = 1,12

Section 3
La loi de Poisson
La loi de Poisson est parfois appelée la loi des événements rares ou des petits nombres. Elle est associée à la
description des événements dont les probabilités de réalisation sont faibles.

3.1 Définition
Soit une variable aléatoire réelle X et 𝜆 un nombre réel strictement positif. X est dite variable de Poisson si la loi
𝜆𝑘
est définie par : 𝑃(𝑘) = 𝑃(𝑋 = 𝑘) = 𝑒 −𝜆
𝑘!
Avec e = 0,71828
On note 𝑋 ∼ 𝑃(𝜆)
NB : la somme des probabilités est bien égale à 1.
𝜆𝑘 𝜆𝑘
En effet, on a ∑∞ ∞
𝑘=0 𝑃(𝑘) = ∑𝑘=0 𝑒
−𝜆
= 𝑒 −𝜆 ∑∞
𝑘=0
𝑘! 𝑘!
𝜆𝑘
Or quand k tend vers l’infini, ∑∞
𝑘=0 𝑘! tend vers 𝑒 𝜆

𝜆𝑘
Donc ∑∞
𝑘=0 = 𝑒 −𝜆 𝑒 𝜆 = 1
𝑘!

3.2 Espérance mathématique


𝑒 −𝜆 𝜆𝑘 𝜆𝑘−1
On a 𝐸(𝑋) = ∑∞ ∞
𝑘=0 𝑘𝑃(𝑘) = ∑𝑘=0 𝑘 = 𝑒 −𝜆 𝜆 ∑∞ −𝜆 𝜆
𝑘=1 (𝑘−1)! = 𝑒 𝜆𝑒 = 𝜆
𝑘!

3.3 Variance
Il est démontré de façon similaire que 𝑉(𝑋) = 𝜆
NB : soient 𝑋1 , 𝑋2 , … , 𝑋𝑛 n variables de Poisson de paramètres 𝜆1 , 𝜆2 , … , 𝜆𝑛 et une loi Z telle que
𝑍 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
Alors on a 𝑍 ∼ 𝑃(𝜆1 + 𝜆2 + ⋯ + 𝜆𝑛 )

3.4 Approximation de la loi binomiale par la loi de Poisson


Considérons une variable aléatoire 𝑋~𝐵(1, 𝑝)
Si 𝑛 → ∞ et 𝑝 → 0, alors le produit 𝑛𝑝 ⟶ 𝜆 > 0 : la loi binomiale converge alors vers la loi de Poisson :.
𝐵(𝑛, 𝑝) → 𝑃(𝜆)
Dans la pratique, l’approximation de la loi binomiale par la loi de Poisson s’effectue pour : 𝑛 ≥ 50, 𝑝 ≤ 0,10 et
𝑛𝑝 ≤ 5
L’espérance mathématique de la loi binomiale est alors l’espérance de la loi de Poisson : 𝜆 = 𝑛𝑝

NB : Avec la distribution binomiale on pouvait diviser les 𝑛 épreuves en 𝑘 succès et 𝑛 − 𝑘 échecs. Avec la
distribution de Poisson on ne peut compter que le nombre de succès et alors le nombre total d’épreuves n’a pas
de sens. Par exemple, dans le cas des clients qui sont à un guichet, on ne connaît pas le nombre de personnes qui
n’y sont pas !

Exemple 4.4 Soit une boîte avec 200 fusibles. La probabilité qu’un fusible soit défectueux est de 2%. Quelle est
la probabilité de trouver au maximum 5 fusibles défectueux ?
21
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
4 𝜇 = 𝑛𝑝 = 200 ∗ 0,02 = 4
4𝑥
𝑃(𝑋 ≤ 5) = ∑5𝑥=0 𝑒 −4 = 0,785
𝑥!
Si l’on avait utilisé la distribution binomiale on aurait obtenu 𝑃(𝑋 ≤ 5) = 0,788, donc l’approximation est déjà
très bonne.

Section 4
La loi géométrique
4.1 Définition
On effectue des épreuves de Bernoulli indépendantes jusqu’au 1er succès.
X : « le nombre d’essais nécessaires jusqu’au 1er succès (en incluant ce dernier) »
RX = {1, 2, 3, 4, …}
Notation : X ~ G(p), avec une probabilité de succès p telle que :
(1 − 𝑝)𝑥−1 𝑝, 𝑠𝑖 𝑥 = 1, 2, 3
𝑝(𝑥) = 𝑃(𝑋 = 𝑥) = {
0, 𝑠𝑖𝑛𝑜𝑛

4.2 Espérance mathématique et variance


𝟏
𝑬(𝑿) =
𝒑
1−𝑝
𝑉(𝑋) =
𝑝2

Exemple 4.5 Jeu de 52 cartes


EA : « Tirer des cartes avec remise d’un jeu de 52 cartes »
X : « nombre de cartes nécessaires pour obtenir un 1er as »
a) Quelle est la probabilité d’obtenir le 1er succès au 7ème tirage ?
b) Quelle est la probabilité d’obtenir le 1er succès avec moins de 3 tirages ?
c) Quelle est la probabilité d’obtenir le 1er succès avec plus de 5 tirages ?

Réponse
Ainsi : nous avons une probabilité de succès p = 4/52 = 1/13 (puisqu’il y a 4 as dans un jeu de 52 cartes)
RX = {1, 2, 3, …}
X ~ G (1/13)
a) Probabilité d’obtenir le 1er succès au 7ème tirage
𝑋 = 7 ⟺ 𝐸𝐸𝐸𝐸𝐸𝐸𝑆 (E : échec et S : succès)

1 6 1
𝑃(𝑋 = 7) = (1 − ) ( ) = 0,048
13 13

b) Probabilité d’obtenir le 1er succès avec moins de 3 tirages


1 0 1 1 1 1 1 12 25
𝑃(𝑋 < 3) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) = (1 − ) ( ) + (1 − ) ( ) = + =
13 13 13 13 13 169 169

Remarque 4.1 (au moins x + 1 échecs consécutifs avant le 1er succès)


𝑥

𝑃(𝑋 > 𝑥) = 1 − 𝑃(𝑋 ≤ 𝑥) = 1 − ∑(1 − 𝑝)𝑗−1 𝑝 = (1 − 𝑝)𝑥


𝑗=1

22
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
c) Probabilité d’obtenir le 1er succès avec plus de 5 tirages
1 5
𝑃(𝑋 > 5) = (1 − ) = 0,67
13

d) Espérance mathématique et la variance

𝑋~𝐺(1/13)
1
𝐸(𝑋) = = 13
1
13
1 12
1 − 13
𝑉(𝑋) = 13
2 = 1
1
( ) 132
13

Section 5
Loi de Pascal
5.1 Définition
Effectuer des épreuves de Bernoulli indépendantes de paramètre p, jusqu’à l’obtention du r e succès.
Soit X : « le nombre d’essais nécessaires à l’obtention du r e succès »
RX = {r, r + 1, r + 2, …}
Notation : X ~ Pascal (r, p) [ou X ~ Bin.Nég.(r, p)], avec une probabilité p de succès

Remarque 4.2 : 𝑃𝑎𝑠𝑐𝑎𝑙(1, 𝑝) = 𝐺(𝑝)


𝑟−1 (1
𝐶𝑥−1 − 𝑝)𝑥−𝑟 𝑝𝑟 , 𝑠𝑖 𝑥 = 𝑟, 𝑟 + 1, 𝑟 + 2, …
𝑝(𝑥) = 𝑃(𝑋 = 𝑥) = {
0, 𝑠𝑖𝑛𝑜𝑛

5.2 Espérance mathématique et variance


X ~ Pascal (r, p) alors nous avons : X = X1 + X2 + X3 + … + Xr.
Les variables Xi sont indépendantes et suivent toutes la même loi G(p).
1 1 1 𝑟
𝐸(𝑋) = 𝐸(𝑋1 + 𝑋2 + ⋯ +𝑋𝑛 ) = 𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 ) = + + ⋯ + =
𝑝 𝑝 𝑝 𝑝
1
Puisque 𝐸(𝑋𝑖 ) =
𝑝
1−𝑝 1−𝑝 1 − 𝑝 𝑟(1 − 𝑝)
𝑉(𝑋) = 𝑉(𝑋1 + 𝑋2 + ⋯ +𝑋𝑛 ) = 𝑉(𝑋1 ) + 𝑉(𝑋2 ) + ⋯ + 𝑉(𝑋𝑛 ) = + + ⋯+ =
𝑝 𝑝 𝑝 𝑝
1−𝑝
Puisque 𝑉(𝑋𝑖 ) = et puisque les 𝑋𝑖 sont indépendantes
𝑝

Exemple 4.6 : Jeu de 52 cartes


a) Quelle est la probabilité d’obtenir le 4e as au 10e tirage ?
b) Calculer l’espérance mathématique et la variance

Soit X : « le nombre de cartes nécessaires pour obtenir 4 as quand on pige avec remise ». X ~ Pascal (4, 1/13)

23
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
a) Probabilité d’obtenir le 4e as au 10e tirage

𝑋 = 10 ⟺ 𝑂𝑏𝑡𝑒𝑛𝑖𝑟 𝑙𝑒 4è 𝐴𝑠 à 𝑙𝑎 10è 𝑐𝑎𝑟𝑡𝑒 𝑡𝑖𝑟é𝑒.

1 4 12 6
𝑷(𝑋 = 10) = 𝐶93 ( ) ( ) = 0,0018
13 13

b) Espérance mathématique et la variance


1
𝑋~𝑃𝑎𝑠𝑐𝑎𝑙 (4, )
13
4
𝐸(𝑋) = = 4 ∗ 13 = 52
1
13
12
𝑉(𝑋) = 4 ∗ 13 2 = 4 ∗ 12 ∗ 13 = 624
1
( )
13

Section 6
Loi hypergéométrique
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non indépendantes. Si dans une
population de taille N, on a 2 types de populations N1 individus type 1 en proportion
𝑁
𝑝 = 1 et N2 individus type 2 :
𝑁

On fait n tirages sans remise dans la population et la variable aléatoire


X = nombre individus de type 1 dans l’échantillon
X obéit au schéma hypergéométrique H (N, n, p)
𝑋 = ∑𝑛𝑖=1 𝑋𝑖 avec 𝑋𝑖 des variables aléatoires de Bernoulli non indépendantes.
𝑥
𝐶𝑁 𝐶 𝑛−𝑥
Si X H(N, n, p), alors 𝑃(𝑋 = 𝑥) = 1 𝑁2
𝑛
𝐶𝑁
𝑁−𝑛
L’espérance mathématique de la distribution hypergéométrique est 𝑛𝑝 et la variance 𝑛𝑝𝑞 . Lorsque N tend
𝑁−1
2
vers l’infini on a 𝜎 = 𝑛𝑝𝑞 , qui est la variance de la distribution binomiale. On peut montrer que la distribution
hypergéométrique tend vers la distribution binomiale lorsque N tend vers l’infini.

24
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Chapitre V
COUPLES DE VARIABLES ALEATOIRES DISCRETES

Soient 𝑿 et 𝒀 deux variables aléatoire discrètes telles que 𝑿(𝛀) ={𝑥𝑖 tel que 𝑖 IN} et 𝒀(𝛀) = {𝑦𝑗 tel que 𝑗 
IN}. Le couple (𝑋, 𝑌)prend ses valeurs dans 𝑿(𝛀) ∗ 𝒀(𝛀) = (𝒙𝒊 , 𝒚𝒋 ) quelque soit (𝑖, 𝑗) (IN x IN). L’étude des
deux variables se fait alors simultanément.

Exemples 4.1 :
- Choisir un individu dans une population, 𝑿 : taille d’un individu, 𝒀: poids d’un individu.
- On jette un dé et une pièce. La variable aléatoire 𝑍 = (𝑿 = nombre impaire, 𝒀 = pile) définie une variable à deux
dimensions.
- On jette deux dés. On définit la variable 𝑿 comme le nombre de points du premier dé et la variable aléatoire 𝒀
comme la somme des points des deux dés.

Section 1
Lois du couple de variables aléatoires
Soient 𝑥𝑖 les valeurs possibles de la variable 𝑿 et, 𝑦𝑗 les valeurs possibles de la variable 𝒀. Le couple (𝑋, 𝑌)est
défini par l’ensemble {(𝒙𝒊 , 𝒚𝒋 )} des points possibles.

1.1 Loi de probabilité conjointe 𝑿 et 𝒀


Si à chacune des valeurs possibles du couple (𝑋, 𝑌) on associe la probabilité de l’événement correspondant, on
obtient la loi conjointe du (𝑋, 𝑌)
Désignons par 𝑃𝑖𝑗 , la probabilité que 𝑿 et 𝒀 prennent respectivement les valeurs 𝑥𝑖 et 𝑦𝑗 .
𝑃𝑖𝑗 = 𝑃 ((𝑋, 𝑌) = (𝑥𝑖 , 𝑦𝑗 ))
𝑃𝑖𝑗 = 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 )
𝑃𝑖𝑗 = 𝑃(𝑋 = 𝑥𝑖 ∩ 𝑌 = 𝑦𝑗 )
Avec ∑𝑖 ∑𝑗 𝑃𝑖𝑗 =1

1.2 Tableau de contingence de la loi conjointe du couple (𝑿, 𝒀)

L’utilisation d’un tableau permet de donner de façon synthétique les valeurs des différentes probabilités.

valeurs 𝑦1 𝑦2 .…….. 𝑦𝑘 total


valeurs de 𝒀
de 𝑿
𝑥1 𝑃11 𝑃12 … …
𝑥2 𝑃21 𝑃22 .…….. .……..
... .…….. .…….. .…….. .……..
.…….. .…….. 𝑃𝑛𝑘
𝑥𝑛 𝑃𝑛1 𝑃𝑛2
total

25
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Section 2
Lois marginales
Les lois marginales correspondent aux lois de chacune des deux variables.

2.1 Loi marginale de 𝑿

La totalisation des probabilités 𝑃𝑖𝑗 suivant l’indice 𝑗. 𝑃𝑖. = ∑𝑗 𝑃𝑖𝑗 = ∑𝑗 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) = 𝑃(𝑋 = 𝑥𝑖 )

Les 𝑃𝑖. constituent la loi de probabilité marginale de 𝑿.

2.2 Loi marginale de 𝒀


La totalisation des probabilités 𝑃𝑖𝑗 suivant l’indice 𝑖. 𝑃.𝑗 = ∑𝑖 𝑃𝑖𝑗 = ∑𝑖 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) = 𝑃(𝑌 = 𝑦𝑗 )

Les 𝑃.𝑗 constituent la loi de probabilité marginale de 𝒀.

∑ 𝑷𝒊. = ∑ 𝑷.𝒋 = ∑ ∑ 𝑷𝒊𝒋


𝒊 𝒋 𝒊 𝒋

Section 3
Lois conditionnelles de 𝑿 et 𝒀

3.1 Probabilité conditionnelle de 𝑿 sachant 𝒚𝒋

Supposons que la probabilité que Y prenne la valeur 𝒚𝒋 ne soit pas nulle: 𝑃.𝑗 ≠ 0 ; la probabilité conditionnelle
de 𝑋 = 𝑥𝑖 , sachant 𝑌 = 𝑦𝑗 , est égal à :
𝑗 𝑃𝑖𝑗
𝑃𝑖/𝑗 = 𝑃𝑖 = 𝑃(𝑋 = 𝑥𝑖 /𝑌 = 𝑦𝑗 ) =
𝑝.𝑗
𝑗
Les probabilités 𝑃𝑖/𝑗 ou 𝑃𝑖 correspondant aux différentes valeurs de 𝑥𝑖 de 𝑋 constituent la loi conditionnelle de
𝑋 liée par 𝑌 = 𝑦𝑗 .

3.2 Probabilité conditionnelle de 𝒀 sachant 𝒙𝒊

Supposons que la probabilité que 𝑿 prenne la valeur 𝑥𝑖 ne soit pas nulle: 𝑃𝑖. ≠ 0; la probabilité conditionnelle de
𝑌 = 𝑦𝑗 , sachant 𝑋 = 𝑥𝑖 , est égal à :
𝑃𝑖𝑗
𝑃𝑗/𝑖 = 𝑃𝑗𝑖 = 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 ) =
𝑃𝑖.

Les probabilités 𝑃𝑗/𝑖 ou 𝑃𝑗𝑖 correspondant aux différentes valeurs de 𝑦𝑗 de 𝒀 constituent la loi conditionnelle de
𝒀 liée par 𝑋 = 𝑥𝑖 .

Les probabilités 𝑃𝑖𝑗 , 𝑃𝑖. , 𝑃.𝑗 , 𝑃𝑖/𝑗 , 𝑃𝑗/𝑖 sont liées par les relations qui traduisent la formule des probabilités
composées par : 𝑃𝑖𝑗 = 𝑃𝑖. ∗ 𝑃𝑗/𝑖 = 𝑃.𝑗 ∗ 𝑃𝑖/𝑗 .

26
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Section 4
Les caractéristiques marginales

4.1 Moyenne et variance marginales de 𝑿


Avec les distributions marginales, on peut définir les moyennes marginales, et les variances marginales :

Moyenne marginale 𝑿
𝜇𝑋 = ∑ 𝑥𝑖 𝑃𝑖.
𝑖
Variance marginale 𝑿

𝜎𝑋2 = ∑(𝑥𝑖 − 𝜇𝑋 )2 𝑃𝑖. = ∑ 𝑥𝑖2 𝑃𝑖. − 𝜇𝑋2


𝑖 𝑖

4.2 Moyenne et variance marginales de 𝒀

Moyenne marginale 𝒀
𝜇𝑌 = ∑ 𝑦𝑗 𝑃.𝑗
𝑗
Variance marginale 𝒀

2
𝜎𝑌2 = ∑(𝑦𝑗 − 𝜇𝑌 ) 𝑃.𝑗. = ∑ 𝑦𝑗2 𝑃𝑖. − 𝜇𝑌2
𝑗 𝑗
Section 5
Les caractéristiques conditionnelles

5.1 Moyenne et variance conditionnelles de 𝑿 sachant 𝒚𝒋


Moyenne conditionnelle de 𝑿 sachant 𝒚𝒋
𝑛 𝑛 𝑛 𝑃𝑖𝑗
𝑗
𝜇𝑋 (𝑦𝑗 ) = ∑ 𝑥𝑖 𝑃𝑖/𝑗 = ∑ 𝑥𝑖 𝑃𝑖 = ∑ 𝑥𝑖
𝑖=1 𝑖=1 𝑖=1 𝑃.𝑗
Variance conditionnelle de 𝑿 sachant 𝒚𝒋
𝑛 2 𝑛 2 𝑛 2 𝑃𝑖𝑗
𝑗
𝜎𝑋2 (𝑦𝑗 ) = ∑ (𝑥𝑖 − 𝜇𝑋 (𝑦𝑗 )) 𝑃𝑖/𝑗 = ∑ (𝑥𝑖 − 𝜇𝑋 (𝑦𝑗 )) 𝑃𝑖 = ∑ (𝑥𝑖 − 𝜇𝑋 (𝑦𝑗 ))
𝑖=1 𝑖=1 𝑖=1 𝑃.𝑗

𝑛 𝑛 𝑛 𝑃𝑖𝑗
𝑗
𝜎𝑋2 (𝑦𝑗 ) = ∑ 𝑥𝑖2 𝑃𝑖/𝑗 − 𝜇𝑋2 (𝑦𝑗 ) = ∑ 𝑥𝑖2 𝑃𝑖 − 𝜇𝑋2 (𝑦𝑗 ) = ∑ 𝑥𝑖2 − 𝜇𝑋2 (𝑦𝑗 )
𝑖=1 𝑖=1 𝑖=1 𝑃.𝑗

5.2 Moyenne et variance conditionnelles de 𝒀 sachant 𝒙𝒊


Moyenne conditionnelle de 𝒀 sachant 𝒙𝒊
𝑝 𝑝 𝑛 𝑃𝑖𝑗
𝜇𝑌 (𝑥𝑖 ) = ∑ 𝑦𝑗 𝑃𝑗/𝑖 = ∑ 𝑦𝑗 𝑃𝑗𝑖 = ∑ 𝑦𝑗
𝑗=1 𝑗=1 𝑖=1 𝑃𝑖.

Variance conditionnelle de 𝑿 sachant 𝒚𝒋


𝑝 2 𝑝 2 𝑝 2 𝑃𝑖𝑗
𝜎𝑌2 (𝑥𝑖 ) = ∑ (𝑦𝑗 − 𝜇𝑌 (𝑥𝑖 )) 𝑃𝑗/𝑖 = ∑ (𝑦𝑗 − 𝜇𝑌 (𝑥𝑖 )) 𝑃𝑗𝑖 = ∑ (𝑦𝑗 − 𝜇𝑌 (𝑥𝑖 ))
𝑗=1 𝑗=1 𝑗=1 𝑃𝑖.

27
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
𝑝 𝑝 𝑝 𝑃𝑖𝑗
𝜎𝑌2 (𝑥𝑖 ) = ∑ 𝑦𝑗2 𝑃𝑗/𝑖 − 𝜇𝑌2 (𝑥𝑖 ) = ∑ 𝑦𝑗2 𝑃𝑗𝑖 − 𝜇𝑌2 (𝑥𝑖 ) = ∑ 𝑥𝑖2 − 𝜇𝑌2 (𝑥𝑖 )
𝑗=1 𝑗=1 𝑗=1 𝑃𝑖.

Section 6
Covariance de 𝑿 et 𝒀

La covariance de 𝑿 et 𝒀 est donnée par :


𝜎𝑋𝑌 = 𝐶𝑜𝑣(𝑋, 𝑌) = ∑ ∑(𝑥𝑖 − 𝜇𝑋 ) (𝑦𝑗 − 𝜇𝑌 )𝑃𝑖𝑗
𝑖 𝑗
𝜎𝑋𝑌 = 𝐶𝑜𝑣(𝑋, 𝑌) = ∑𝑖 ∑𝑗 𝑥𝑖 𝑦𝑗 𝑃𝑖𝑗 − 𝜇𝑋 𝜇𝑌

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝐸(𝑋))(𝑌 − 𝐸(𝑌))]


= 𝐸[𝑋𝑌 − 𝑌𝐸(𝑋) − 𝑋𝐸(𝑌) + 𝐸(𝑋)𝐸(𝑌)]
= 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) − 𝐸(𝑋)𝐸(𝑌) + 𝐸(𝑋)𝐸(𝑌)
= 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)

28
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS
Exercice 1 : Une multinationale décide de lancer un dentifrice pour chien. Le nom de ce nouveau produit
indispensable doit comporter trois lettres. 1) Combien de noms peut-on former avec toutes les lettres de
l’alphabet? 2) Combien de noms peut-on former comportant une consonne et deux voyelles? 3) Combien de noms
peut-on former comportant une consonne et deux voyelles différentes?

Exercice 2 :On veut étudier l’influence de l’ordre de la prise de trois médicaments sur l’efficacité d’un
traitement constitué par ces trois produits. De combien de façons possibles peut-on organiser ce traitement ?

Exercice 3 : Un conseil communal comprend 7 libéraux, 4 socialistes et 3 verts. Combien de commissions


différentes constituées de 2 libéraux, 2 socialistes et 1 vert peut-on former.

Exercice 4 : 1) Dans un lot de vingt pièces fabriquées, on en prélève simultanément quatre. Combien de
prélèvements différents peut-on ainsi obtenir ? 2) On suppose alors que sur les vingt pièces, quatre sont
mauvaises. Dans combien de prélèvements : a) les quatre pièces sont bonnes? b) au moins une pièce est
mauvaise? c) une et une seule est mauvaise? d) deux au moins sont mauvaises?

Exercice 5 : Une urne contient deux boules rouges, trois boules vertes et six boules blanches. Une boule rouge
permet de gagner 5 euros, chaque boule verte permet de gagner 15 euros et les boules blanches ne rapportent
rien. Un joueur tire simultanément cinq boules. Quelle est la probabilité pour que ce joueur gagne exactement
40 euros?

Exercice 6 : Une urne contient une boule rouge, trois boules vertes et seize boules blanches. La boule rouge
permet de gagner 10 euros, chaque boule verte permet de gagner 5 euros et les boules blanches ne rapportent rien.
Un joueur tire simultanément cinq boules. Quelle est la probabilité pour que ce joueur gagne exactement 10 euros?
On veut étudier l’influence de l’ordre de la prise de trois médicaments sur l’efficacité d’un traitement constitué
par ces trois produits. De combien de façons possibles peut-on organiser ce traitement ?

Exercice 7 : Les tests utilisés pour diagnostiquer la présence du virus VIH qui cause le SIDA sont souvent
imparfaits, et peuvent donner des résultats appelés faux positifs (la personne n'a pas le virus, mais le test le
détecte) ou faux négatifs (la personne a le virus, mais le test ne le détecte pas). Dans le cas du VIH, les tests
utilisés ont un taux de faux positifs de 0.4% et un taux de faux négatifs de 3%. On suppose que 0.05% des
hommes sont infectés par le VIH. Définissons les événements suivants:
D = le test détecte le virus; A = avoir réellement le virus. 1) Déterminer, (𝐷/𝐴̅) , 𝑃(𝐷 ̅ /𝐴) , 𝑃(𝐴), 𝑃(𝐷̅ /𝐴̅) ,
̅
𝑃(𝐷/𝐴) , 𝑃(𝐴). 2) Trouver la probabilité qu'un homme testé positif pour le VIH soit réellement infecté par le
virus.

29
BOUREIMA ZERBO/COURS DE PROBABILITE 1/L1S2/2021-2022/UFR-SEG/UTS

Vous aimerez peut-être aussi