Académique Documents
Professionnel Documents
Culture Documents
Crédits : 5
Public cible : Étudiants en deuxième année de Licence en sciences économiques et de
gestion
Semestre : 3
Pré-requis : Statistiques descriptives (ECO 104C) ;
Séries chronologiques de base (ECO 204C)
Analyse mathématique (ECO103C)
Bibliographie :
Lectures conseillées (dans l'ordre d'importance)
1. Hurlin C. et Mignon Valérie (2015) "Statistique et probabilités en économie-gestion" Dunod, ISBN
978-2-1007-8023-5
2. Scheaffer R. L, Mulekar M. S., McClave J. T (2010) "Probability and Statistics for Engineers", Fifth
Edition Cengage Learning.
3. David S. Moore (2010). “The Practice of Statistics for Business and Economics” Third Edition
4. Lecoutre Jean-Piérre (2001), « Statistiques et probabilités Travaux dirigés »
5. De Groot M. H. et Schervish M. J. (2012) "Probability and Statistics" Fourth Edition. Addison-
Wesley.
6. McClave J. T., Sincich T. (2013) "Statistics", Twelfth Edition Pearson
7. Newbold P., Carlson W. L., Thorne B. M., (2013) "Statistics for Business and Economics" Global
Edition Perason
8. Mendenhall W. M., Sincich T. L., (2015) "Statistics for Engineering and the Sciences" Sixth Edition
Taylor & Francis Group.
9. Anderson-Sweeney-Williams (2008) : « Statistiques pour l’économie et la gestion » Traduction de la 4e
édition américaine par Claire Borsenberger. Ouvertures économiques, Nouveaux Horizons, éd de
Boeck.
10. Bouffard F. Viviani J-L, Zouhhad R. (2005) « Mathématiques appliquées : manuels et applications » 6e
édition Dunod.
3
11. Cheng-Few Lee, John C. Lee, Alice C. Lee (2013) “Statistics for Business and Financial Economics”
Third Edition
12. Christian Larousse (1977), “Statistique exercices corrigés avec rappels de cours” tome 3, sciences
économiques 3e année. ed Dunod, 4e edition.
13. Dominick Salvatore, D. Reagle (2002) « Statistics And Econometrics ». McGRAW-HILL New
York 2e éd.
4
SÉANCE N°1
Objectifs : souligner l’importance des calculs de probabilités en économie et en gestion, et faire quelques rappels
sur les ensembles.
Chapitre 0 : INTRODUCTION
Les méthodes statistiques sont aujourd'hui utilisées dans presque tous les secteurs de l'activité humaine
et font partie des connaissances de base de l'ingénieur, du gestionnaire, de l'économiste, du biologiste, de
l'informaticien ... Parmi les innombrables applications dans le domaine industriel: la fiabilité des matériels,
le contrôle de qualité, l'analyse des résultats de mesure et leur planification, la prévision, et dans le
domaine de l'économie et des sciences de l'homme: les modèles économétriques, les sondages, les
enquêtes d'opinion, les études quantitatives de marché, etc.
Statistique et probabilités
La théorie des probabilités est une branche des mathématiques qui traite des propriétés de certaines
structures modélisant des phénomènes où le «hasard» intervient. En tant que théorie mathématique
abstraite, elle repose sur une axiomatique et se développe de façon autonome par rapport à la réalité
physique. Seuls les noms des concepts utilisés (événements, variables ...) renvoient à l'expérience.
La théorie des probabilités permet de modéliser efficacement certains phénomènes aléatoires et d'en
faire l'étude théorique. Quels sont ses liens avec la statistique qui repose plutôt sur l'observation de phénomènes
concrets? On peut en voir schématiquement trois: tout d'abord les données observées sont souvent
imprécises, entachées d'erreur. Le modèle probabiliste permet alors de représenter comme des variables
aléatoires les déviations entre « vraies », valeurs et valeurs observées.
Deuxièmement on constate souvent que la répartition statistique d'une variable au sein d'une
population est voisine de modèles mathématiques proposés par le calcul des probabilités (lois de
probabilité).
Enfin et c'est à notre avis le rôle le plus important du calcul des probabilités, les échantillons d'individus
observés sont la plupart du temps tirés au hasard dans la population, ceci pour assurer
mathématiquement leur représentativité: si le tirage est fait de manière équiprobable chaque individu de
la population a une probabilité constante et bien définie d'appartenir à l'échantillon. Les caractéristiques
observées sur l'échantillon deviennent, grâce à ce tirage au sort, des variables aléatoires et le calcul des
probabilités permettent d'étudier leurs répartitions. Mentionnons ici les méthodes de validation par ré
échantillonnage (bootstrap, validation croisée) qui consistent à re-tirer des observations à l'intérieur de
l'échantillon initial.
5
La statistique, au sens le plus général, est une discipline qui consiste dans le recueil, le traitement et
l’interprétation de données d’observations sur des systèmes physiques (réels ou simulés). En particulier,
elle permet de construire des modèles (probabilistes ou non) qui représentent correctement la réalité
mesurable du monde physique. Il s’agit d’une discipline faisant souvent appel au raisonnement inductif :
à partir d’un certain nombre d’observations élémentaires on cherche à construire des lois générales qui
“expliquent” ces observations. Étant donné ce caractère inductif, les résultats obtenus par la statistique
peuvent ˆêtre remis en question par de nouvelles observations, comme c’est le cas dans le domaine des
sciences naturelles en général.
Il y a donc une interdépendance forte entre probabilités et statistique, mais également une différence
fondamentale dans leur approche : déductive pour le calcul des probabilités ; inductive pour la statistique.
Le calcul des probabilités est donc un des outils essentiels de la statistique pour pouvoir extrapoler à la
population les résultats constatés sur l’échantillon mais on ne peut y réduire la statistique : à côté du
calcul des probabilités, la statistique utilise des mathématiques assez classiques (algèbre linéaire,
géométrie euclidienne) et de plus en plus l'informatique, car les calculs à mettre en œuvre nécessitent
l'emploi d'ordinateurs : l'informatique a révolutionné la pratique de la statistique en permettant la prise
en compte de données multidimensionnelles ainsi que l'exploration rapide par simulation de
nombreuses hypothèses.
Dans des domaines très différents comme le domaine scientifique, sociologique, médical, les sciences
humaines..., on s’intéresse à de nombreux phénomènes dans lesquels apparaît souvent l’effet du hasard.
Ces phénomènes sont caractérisés par le fait que les résultats des observations varient d’une expérience
à l’autre.
Une expérience est appelée aléatoire s’il est impossible de prévoir son résultat et si, répétée dans des
conditions identiques, elle peut donner, ou aurait pu donner, si l’expérience est unique, des résultats
différents. En général, les résultats obtenus varient dans un certain domaine, certains résultats
apparaissant plus fréquemment que d’autres. Ils peuvent être visualisés par des diagrammes, des
histogrammes, des courbes cumulatives de fréquences, etc., et être caractérisés par quelques valeurs numériques
telles que la moyenne arithmétique, la médiane, le mode, la variance...
Le mot probabilité est passé rapidement dans le langage courant bien que la théorie des probabilités soit
une branche relativement récente des théories mathématiques. Le concept des probabilités semblait être
connu des Grecs et des Égyptiens. Cependant, ce n’est que vers le milieu du XVIIe siècle que l’on peut
situer le début de cette théorie. D’abord limitée à l’étude des jeux de hasard (jeux de pile ou face,
roulettes, jeux de cartes...), elle s’est rapidement étendue à tous les domaines de la Science, en Physique
(théorie du potentiel, physique statistique, physique corpusculaire...), en Informatique, en Économie, en
Génétique, en Psychologie... L’influence des jeux de hasard se retrouve encore dans certaines
expressions, comme l’espérance mathématique qui était l’espérance du gain, pouvant être parfois une
perte. Le mot probabilité ou l’adjectif probable est bien souvent synonyme du mot chance.
Alors que la théorie du calcul des probabilités s’est développée rapidement au cours du XXe siècle, le
concept de probabilité soulève encore de nombreuses controverses non entièrement résolues.
Cependant, on peut distinguer deux Écoles et différents concepts
6
École objective
La probabilité d’événements répétitifs est définie à partir de la fréquence d’apparitions de ces
événements. On distingue différents concepts :
─ L’approche fréquentiste ou fréquentielle. C’est la théorie de Laplace, Von Mises ; elle est fondée sur la
notion d’épreuves répétées et indépendantes, la probabilité étant définie comme la limite de la
fréquence relative des observations.
─ La notion de probabilité tirée des jeux de hasard. La probabilité est le quotient du nombre de cas
favorables par le nombre de cas possibles, mais chaque cas étant supposé également possible, donc
équiprobable, on définit encore la probabilité à partir de la probabilité !
─ L’approche axiomatique ou mathématique. Kolmogorov a introduit, au début du XXe siècle (1933), les
concepts probabilistes c’est-à-dire le modèle probabiliste. À partir d’axiomes, il a construit une
théorie parfaitement logique et cohérente, le mot hasard n’intervenant pas. Cette axiomatique
repose essentiellement sur des concepts mathématiques généraux, principalement sur la théorie
de l’intégration et de la mesure. La probabilité étant alors une mesure particulière, tous les résultats de la
théorie de la mesure lui sont applicables.
L’école subjective
Elle associe, à la fréquence observée de la réalisation d’un événement, un degré de confiance (ou de
croyance) qui permet d’évaluer la probabilité de cet événement. Elle a été développée principalement
par Keynes, De Finetti, Savage...
Elle va même jusqu’à nier l’existence de probabilités objectives. Le traité de probabilités de De Finetti
commence en effet par la probabilité n’existe pas.
Elle prend beaucoup d’importance dans les théories de la décision en associant la probabilité des
événements à celle de leurs conséquences. Mais la difficulté est d’évaluer la première probabilité, c’est-à-
dire la probabilité a priori et l’importance des conséquences dépend des utilisateurs.
Les arbitrages économiques entre différents projets techniques visant à résoudre un problème (par
exemple, pour justifier la construction d’une nouvelle route, d’une nouvelle usine, ou bien pour décider
d’investir dans un changement technologique majeur comme les véhicules électriques ou la production
d’énergie électrique éolienne) nécessitent de modéliser des scénarios micro- et macro-économiques sur
des horizons de temps de plusieurs années, voire de plusieurs décennies, afin d’évaluer l’espérance
mathématique des retours sur investissements. Ces arbitrages sont souvent stratégiques pour permettre
l’adaptation aux changements globaux.
7
Chapitre 1 : Dénombrement ou Analyse combinatoire
Elle désigne un ensemble de méthodes qui permet de déterminer le nombre de tous les résultats
possibles d’une expérience aléatoire donnée. Elle concerne le dénombrement des configurations
(dispositions) que l’on peut former à partir des éléments d’un ensemble fini. Ces méthodes de
dénombrements sont utiles pour le calcul des probabilités.
Une expérience aléatoire est une expérience dont l’ensemble des résultats possibles est connu avec
certitude mais le résultat ou l’issu n’est pas connu d’avance. Il est impossible d’en prévoir le résultat,
c’est-à-dire, si répétée dans les mêmes conditions, elle peut donner des résultats différents, dans un
ensemble d’issues considérées comme possibles.
1. Ensembles et opérations
Rappel : un ensemble est constitué d’éléments, et que ces éléments sont tous distincts. Une partie,
∅
ou sous-ensemble, de E contient quelques éléments de E. N’oublions pas l’ensemble vide, noté
, qui ne contient aucun élément, mais qui est très utile.
Inclusion
note ⊂ .
Un ensemble est inclus dans un ensemble lorsque chaque élément de appartient aussi à . On
est donc un sous-ensemble de .
8
La réunion est associée au mot « OU » :
∈ ∪ ↔ ( ∈ ) ( ∈ )
Il s’agit du « ou » que l’on appelle « inclusif » : un élément de ∪ appartient à ou à , et il peut
très bien appartenir aux deux ensembles.
La réunion se généralise évidemment à un nombre quelconque de sous-ensembles de .
Propriétés de la réunion de deux parties
Pour tout ensembles , on a :
∪ = ∪ ; ∪ = ; ∪∅=
Si ⊂ , alors ∪ =
∩ = ∩ ; ∩ = ; ∩∅=∅; ∩ =
Si ⊂ , alors ∪ =
Parties disjointes
élément de qui soit à la fois dans et dans . Plus généralement, on dit que les n parties ; ⋯ ;
On dit que deux parties sont disjointes lorsque leur intersection est vide : il n’existe aucun
de sont disjointes lorsque ∩ ! = ∅ pour tout " ≠ $. Cette notion se généralise à une infinité de
parties de , évidemment.
9
Complémentaire d'une partie de
On a évidemment
'= ;
& = ∅; ∅ ̅( ) "($ ") (( ∩ ̅ = ∅) ; = ∪ ̅
&&&&&&&
∪ = ̅∩ &
&&&&&&&
∩ = ̅∪ &
Partition de E
Voici une notion sans doute nouvelle, et très importante en probabilités.
Définition. Une famille ; *; ···; de parties non vides de forme une partition de lorsque :
Elles sont disjointes : ∩ ! = ∅ pour tout " ≠ $.
Leur réunion est égale à :
, ≡ ∪ * ∪⋯∪ =
-
Produit d’ensembles
Exemple
Si = 2, 3, 4 et / = 1, 2 alors,
× / = (2, 1), (2, 2), (3, 1), (3, 2), (4, 1), (4, 2)
Définition 1.1 : un ensemble non vide est dit fini s’il existe un entier ) et une bijection de (1,K, n )
sur . Lorsqu’il existe, l’entier ) est unique et est noté 728 | | : c’est le cardinal ou le nombre
d’éléments de .
10
Définition 1.2 : Un ensemble A est dit dénombrable s’il existe une bijection de ; sur A . Un ensemble
A est dit infini non dénombrable s’il n’est ni fini, ni dénombrable.
11
SEANCE N°2
Objectif : à la fin de la séance, les étudiants seront capables de comprendre et d’utiliser la règle générale
de dénombrement (permutations, arrangements et les combinaisons).
Dans un ensemble, il n’y a pas d’ordre, et l’ensemble = 1,2,3 est identique à l’ensemble = 2,1,3 .
Exemple
Par contre, on peut s’intéresser aux suites de trois éléments distincts formées avec les éléments de .
Dans le mot « suite », il y a un ordre sous- entendu, c’est-à-dire qu’il y a un premier terme, un deuxième
terme et un troisième terme. Les suites possibles de 3 termes construites à partir de sont au nombre
de six, et elles sont toutes distinctes :
(1,2,3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1)
Chacune de ces suites s’appelle une permutation des éléments de .
On appelle permutation des éléments d’un ensemble toute suite ordonnée des éléments de .
a. Permutations sans répétition EF
Soit un ensemble de ) objets discernables ; on appelle permutation sans répétition de ces ) objets, toute
disposition ordonnée de ces ) objets. Par conséquent, ces ) objets ne diffèrent que par l’ordre. Dans le
cas présent, chaque élément de l’ensemble intervient une et une seule fois.
EF = F! = F(F − I) × ⋯ × J × I K LF≥I
)! Se lit « factorielle ) »
Exemple 1 :
Cherchons le nombre d’anagrammes du prénom ALICE. Un anagramme est une permutation
quelconque des lettres d’un mot, que cela ait un sens en français ou non.
Solution
Ici, nous avons 5 lettres différentes (donc un ensemble formé de 5 éléments discernables). L’ordre
d’apparition des lettres est pris en compte sinon, un mot comme ILACE serait identique à ELACI. On
se retrouve donc dans le cas d’une disposition ordonnée. Les 5 lettres étant distinctes, il ne sera pas
possible d’avoir une répétition, chaque lettre ne pouvant apparaitre qu’une seule fois dans la
permutation. Le nombre d’anagrammes sera donc obtenu en faisant une permutation sans répétitions
des 5 lettres. Le résultat est donné par :
NO = 5! = 120
On obtient ainsi 120 anagrammes distincts.
Exemple 2 : considérons 4 personnes qui prennent place successivement sur un banc à 4 places.
Combien de façons possibles ces personnes peuvent-elles s’assoir ?
Solution
• La 1ère personne a le choix entre 4 places, il y a donc 4 dispositions possibles pour cette personne.
• La 2e personne n’a le choix qu’entre 3 places, il y a donc 3 dispositions possibles pour cette
personne, donc 12 (soit 4*3) possibilités pour ces deux personnes.
• La 3e personne n’a le choix qu’entre 2 places, il y a donc 2 dispositions possibles pour cette
personne, donc 24 (soit 4*3*2) possibilités pour ces trois personnes.
La 4e personne n’a le choix qu’entre 1 place, il y a donc 1 disposition possible pour cette personne,
donc 24 (soit 4*3*2*1) possibilités pour ces quatre personnes.
Exemple
Cherchons le nombre d’anagrammes de « CONSTITUTIONNEL ».
Solution
Si les 15 lettres étaient distinctes (discernables), il y aurait 15! anagrammes (permutations possibles).
Mais on rencontre trois fois la lettre « t », par exemple. En les considérant comme distincts, nous avons
compté 3! fois chaque anagramme : si l’on peint les trois « t » de couleurs différentes, il y a 3! façons de
13
le « t ». Il faut aussi le diviser par 3! (pour le « ) »), par 2! (pour le « i ») et par 2! Encore pour le « o ».
les permuter entre elles, mais cela donne le même anagramme. Il faut donc diviser notre 15! par 3! pour
Les 15 lettres n’étant pas distinctes, il est possible d’avoir une répétition, chaque lettre pouvant
apparaitre autant de fois qu’elle apparait dans l’ensemble dans la permutation. Le nombre
d’anagrammes sera donc obtenu en faisant une permutation avec répétitions des 15 lettres. Le résultat
est donné par :
15!
cO=
2!* 3!*
Exemple :
Soit = 1,2,3, 4 . Regardons les suites ordonnées de deux éléments distincts pris dans : ce sont
donc les suites (2, 3), avec 2 et 3 distincts dans , et la suite (2, 3) est différente de la suite (3, 2). On
obtient
(1, 2), (2, 1), (1, 3), (3, 1), (1, 4), (4, 1), (2, 3), (3, 2), (2, 4), (4, 2), (3, 4), (4, 3)
Une telle petite suite s’appelle arrangement des quatre éléments de deux à deux.
Soit un ensemble de n objets discernables. On appelle arrangement avec répétition de X objets parmi n,
toute disposition ordonnée dans laquelle chaque élément pouvant être répété jusqu’à X fois.
lF = FK
K
14
Exemple : supposons que dans l’exemple précédant, il y a possibilité de cumul des 3 postes, même par
une seule personne. De combien de façons différentes peut-on pourvoir ces 3 postes ?
Pour le 1er poste, il y a 7 possibilités ;
Pour le 2e poste, il y a 7 possibilités ;
Pour le 3e poste, il y a 7 possibilités ;
Au total, il y a 7*7*7 = 343 possibilités soit 7 3 = 343
Soit un ensemble de ) objets discernables. On appelle combinaison sans répétition (ou combinaison)
de X objets parmi n toute disposition non ordonnée sans répétition de X objets pris parmi n. sa formule
est :
F F!
p q = oF = I≤K≤F
K
K K! (F − K)!
Exemple : soit 10 personnes volontaires pour jouer au bridge (jeu de cartes). Combien d’équipes de 4
personnes peut-on constituer ?
Deux équipes sont différentes si elles diffèrent par leur composition ; l’ordre n’intervient pas. Le
nombre d’équipe est donc donné par :
Soit un ensemble de objets discernables. On appelle combinaison avec répétition de p objets parmi
toute disposition non ordonnée sans répétition de objets pris parmi . sa formule est :
F+K−I (F − I + K)!
rF = p q=
K
K K! (F − I)!
Remarque : L’utilisation de la fonction factorielle est parfois difficile en raison de l’importance des
Stirling. Si n supérieur à 10, une valeur approximative de )! peut être obtenue à partir de :
calculs qu’elle implique. Il est alors possible d’opérer une simplification en recourant à la formule de
n
n
n! = 2π .n avec e ≈ 2.71828
e
Propriétés des combinaisons
n n n n
1. = = 1 et = =n
0 n 1 n − 1
n n
2. =
p n − p
n +1 n n
3. = +
p + 1 p + 1 p
15
n
n
( x + y) = x p y n− p (Binôme de Newton)
n
4.
p =0 p
n
n
5. p = 2 n
p =0
Activités
Exercice
1. On doit choisir deux représentants dans une classe de 40 élèves. Quel est le nombre de choix
possibles ?
2. On doit choisir un président et un vice-président dans un groupe de 40 personnes. Quel est le
nombre de choix possible ?
3. Un chef d’entreprise doit choisir quatre employés (les quatre postes sont similaires) parmi vingt
candidats (13 femmes et 7 hommes).
a. Quel est le nombre de choix possible ?
b. Quel est le nombre de choix possibles si le chef d’entreprise veut :
(i) Deux hommes et deux femmes
(ii) Au moins un homme et au moins une femme.
4. On a une table rectangulaire permettant d’asseoir 4 personnes sur chacun des grands côtés. 4
hommes et 4 femmes s’y assoient. Il n’y a personne sur les petits côtés.
a. Combien ont-ils de façons possibles de s’asseoir ?
b. Combien ont-ils de façons de s’asseoir pour que chaque homme soit en face d’une femme ?
c. Combien ont-ils de façons de s’asseoir pour que chaque personne soit en face et à côté
d’une personne de sexe opposé ?
Exercice 2 :
Au bridge, une « main » est constituée de 13 cartes placées dans un ordre quelconque. Calculer le
nombre de « mains » distinctes susceptibles d’être formées à partir d’un jeu de 52 cartes ? Reprendre la
question au cas où on fait 13 tirages successifs avec remise pour constituer une « main ».
Exercice :
Une urne contient 10 boules rouges, 5 noires, 3 jaunes et 2 vertes. On tire quatre boules sans remise.
1. Combien a-t-on de tirages possibles ?
2. Combien a-t-on de tirages avec exactement 2 boules rouges ?
3. Combien de tirages avec une boule de chaque couleur ?
4. Combien a-t-on de tirages sans aucune boule rouge ?
5. Combien a-t-on de tirages avec au moins une boule rouge ?
16
SEANCE N°3
Objectifs : à l’a fin de cette séance, les étudiants seront capable de maîtriser l’utilisation des règles de
calcul des probabilités, et l’appliquer aux probabilités conditionnelles.
Événements indépendants : lorsque la réalisation (ou la non réalisation) de l’un ne change pas la
probabilité d’apparition de l’autre.
Événements dépendants : lorsque la réalisation (ou la non réalisation) de l’un a une incidence sur
l’autre.
Exemple : introductif
Imaginons une expérience consistant à lancer un dé non truqué à six faces. Le résultat du lancer peut
être l’un quelconque des six nombres : 1, 2, 3, 4,5, et 6.
On appelle univers, noté Ω l’ensemble de tous les résultats possibles de l’expérience, ainsi
Ω = {1, 2,3, 4,5,6} . Lorsque l’on modélise une telle expérience, on peut s’intéresser à la réalisation
éventuelle de certains événements.
Les « questions » que l’on peut se poser sont par exemple : le résultat du lancer est le chiffre 1, le dé
s’arrête sur un nombre impair ou bien encore le chiffre qui apparait est plus grand que 2. De telles
éventualités sont appelées événements associés à l’expérience. On remarque donc qu’à chacun de ces
événements peut être associé un sous ensemble de l’ensemble Ω .
Ω . L’ensemble de tous les événements est appelé tribu des événements est noté. ℱ.
Définition soit Ω un Univers (ensemble fondamental). Un événement de Ω est un sous-ensemble de
3) Si A ∩ B = ∅, alors P ( A ∪ B ) = P ( A ) + P ( B )
Théorème : Soit Ω = {ω1 , ω2 ,K , ωn } un univers fini. Si p1 ,K, pn sont les probabilités des
événements ω1 ,K, ωn , on a nécessairement p1 + p2 + L + pn = 1 . La probabilité N est unique et est
définie par : P ( A) = p i ∀A ∈ F .
ωi ∈A
18
4. Probabilité conditionnelle
Activités
Exercice
Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements suivants :
(i) Trois piques
(ii) Aucun pique
(iii) Un pique et deux "non-piques"
(iv) Au moins un pique
(v) Trois cartes de la même famille
(vi) Trois cartes de familles différentes
(vii) Trois as
(viii) Aucun as
(ix) Trois cartes rouges
lorsque :
1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le jeu.
2. On suppose que les cartes sont tirées simultanément au hasard.
Exercice 2
Dans un club sportif, il y a 75 adultes (dont 45 femmes) et 45 enfants (dont 25 filles). On interroge au
hasard un adhérent du club. Quelle est la probabilité que cet adhérent :
– soit un adulte ;
– soit de sexe masculin ;
– soit une femme adulte ;
– soit un adulte ou soit de sexe féminin.
19
, N( ) = 0.4, N( ) = 0.2 N( ∩ ) = 0.1
Exercice 3
a. calculer N( | )
1. Pour deux événements
b. calculer N( | )
a. Calculer N( ∩ )
2. Pour deux événements
b. Calculer N( | )
, N( ) = 0.4, N( ) = 0.2
a. Calculer N( ∩ )
3. Pour deux événements indépendants
b. Calculer N( | )
c. Calculer N( ∪ )
4. Une expérience résulte de l’un des trois événements mutuellement indépendants , 7. Il
est connu que N( ) = 0.30, N( ) = 0.55 N(7) = 0.15. Calculer les probabilités
a. N( ∪ )
suivantes :
b. N( ∩ )
c. N( | )
d. N( ∪ 7)
e. Les événements 7 sont –ils indépendants ? expliquer
Exercice 4
Une enquête exhaustive sur un campus universitaire montre que sur les 32564 étudiants, 23522 lisent la
revue Notre campus publiée par l’Université, 18859 lisent la revue La Vie étudiante publiée par le BDE, et
11422 étudiants lisent Notre campus et La Vie étudiante.
1. On interroge au hasard un étudiant du campus. Calculez la probabilité que cet étudiant :
– ne lise ni Notre campus, ni La Vie étudiante;
– lise Notre campus et ne lise pas La Vie étudiante.
2. On interroge au hasard deux étudiants du campus et on admet que leurs réponses sont
indépendantes. Calculez la probabilité
– que les deux étudiants ne lisent aucune des deux revues ;
– qu’un étudiant lise les deux revues et que le second n’en lise aucune.
20
SEANCE N°4
Objectifs : à l’a fin de cette séance, les étudiants seront capable de comprendre le principe des
probabilités composées et de Bayes
Événements indépendants
L’événement est indépendant de l’événement si la probabilité de réalisation de l’événement n’est
pas modifiée par une information concernant la réalisation de l’événement , c’est-à-dire si :
P ( A ) = P ( A B ) ou P ( B ) = P ( B A )
En utilisant le principe des probabilités composées, les égalités précédentes peuvent s’écrire de manière
équivalente
P ( A ∩ B ) = P ( A) × P ( B )
Exemple 1 : Une enquête auprès des clients a révélé que 60% des clients utilisaient la marque Favorite,
tandis que 30% utilisaient la marque Super. 15% des clients utilisaient les deux marques. Combien de
pourcent des utilisateurs de Favorite utilisent Super et combien de pourcent des utilisateurs Super
utilisent Favorite ?
Solution : pour répondre à la question, on utilise les formules des probabilités conditionnelles. D’après
les informations de l’enquête, on a :
N(/) = 60%; N(~) = 30%; N(~ ∩ /) = 15%
N(~ ∩ /) 15%
N(~|/) = = = 25%
N(/) 60%
N(~ ∩ /) 15%
N(/|~) = = = 50%
N(~) 30%
Remarque :
Si sont deux événements indépendants, alors :
22
On considère (Ω, ℱ, N *
∪ * Ω (on dit que les événements
un espace probabilisé et soient un ensemble d'événement
incompatibles vérifiant forment un système complet
d'événements).
Tout élément de A provient soit de ou de *. On a donc:
∩ ∪ * ∩
N N ∩ ?N * ∩
N N | .N ?N | * .N *
N ∩ N | .N
N |
N N | .N ?N | * .N *
∩ ∪ ∩ * ∪ ⋯∪ ∩
N • N€ ! ∩ •
!-
N N | .N ? N | * .N * ? ⋯? N | .N
Cette formule représente la formule des probabilités totales. On en déduit le théorème de Bayes qui est
sous la forme:
N ∩ N | .N
N C|
C C C
N ∑!- N € ‚ ! •. N€ ! •
23
Activités
Exercice :
Soit trois urnes, la 1ère contenant une boule noire et une boule rouge, la 2e une boule noire et deux
boules rouges, la 3e deux boules noires. On choisit au hasard une urne et puis une boule à l’intérieur de
cette urne. Quelle est la probabilité de tirer une boule rouge ?
Exercice 1 :
Une population est constituée de 10 Français, 10 Allemands. 7 Français sont bruns, 3 blonds, 1
Allemand est brun, 9 blonds. On rencontre un blond, quelle est la probabilité qu’il soit Allemand ?
Exercice 2
Une entreprise utilise 3 machines différentes A, B, C pour fabriquer des pièces. 40 % sont fabriquées
par A, 30 % par B et 30 % par C. La machine A produit 2 % de pièces d´défectueuses, B 4 % et C 5 %.
a. On prélève une pièce au hasard. Probabilité qu’elle soit défectueuse.
b. On prélève une pièce. Elle est défectueuse. Probabilité qu’elle vienne de A.
c. On prélève une pièce. Elle est saine. Probabilité qu’elle vienne de C.
Exercice 3
Pour un système de crédit à la clientèle on distingue trois types de dossiers : les dossiers aboutissant en
On a évalué sur la base d’expériences antérieures les proportions respectives des trois catégories à 1/5,
contentieux, les dossiers à difficultés temporaires ou légères et les dossiers sans difficultés de paiement.
3/10 1/2. D’autre part, on dispose pour chaque dossier d’un score d’appréciation global du client
rapporté à l’une des deux modalités sui vantes : élevé ou bas. Enfin, on sait que 90% des dossiers en
contentieux correspondaient à un score bas, que 60% des dossiers à difficultés légères correspondaient
à un score bas, et que 85% des dossiers sans difficultés correspondaient à un score élevé. Si on tire un
dossier au hasard pour lequel le score est bas, quelle est la probabilité qu’il ait abouti en contentieux ?
(respectivement qu’il n’ait donné lieu à aucune difficulté de paiement ? qu’il ait engendré des difficultés
légères ?)
24
SEANCE N°5
Objectifs : à la fin de cette séance, les étudiants seront capables de comprendre les variables aléatoires
et leur utilisation dans l’analyse en économie et en gestion.
Définition : une variable aléatoire est une variable qui est associée avec certaine
probabilité d’être observée. Une variable aléatoire discrète (par opposition à
continue) est supposée avoir de valeur finie et distinct. L’ensemble des valeurs
possibles d’une variable aléatoire et ses probabilités associées est appelé une
distribution de probabilité. La somme de toutes les probabilités est égale à 1.
Définition : Une variable aléatoire réelle (v.a.r) sur ( Ω, , P ) est une application.
„: Ω → ℝ. On note X ( Ω ) = { X (ω ) , ω ∈ Ω} l’ensemble des valeurs (distinctes) prises
par . Lorsque X ( Ω ) est fini ou dénombrable, on dit que est une variable
aléatoire discrète. Lorsque X ( Ω ) est infini non dénombrable (c'est-à-dire,
lorsque peut prendre toutes les valeurs d’un intervalle réel), on dit que est
une variable aléatoire continue.
Pour tout ∈ ℝ, on note
( X = x ) = {ω ∈ Ω : X (ω ) = x} et ( X ≤ x ) = {ω ∈ Ω : X (ω ) ≤ x}
Exemple :
Exemple :
On jette 2 dés équilibrés et on s’intéresse à la somme S des points figurants sur
les 2 dés. On définit les espaces Ω et Ω′ par :
Ω = (1, 2,K , 6 )
2
•
• Ω′ = ( 2,3,K ,12 )
26
Soit l’application de Ω dans Ω′ telle que : X (ω ) = ( n1 , n2 )
P (ω ) = 1 36 car tous les éléments de Ω ont la même probabilité de réalisation et le
cardinal de Ω est égal à 36.
Ainsi, P ( X = 6 ) = P {(1,5 ) , ( 2, 4 ) , ( 3,3) , ( 4, 2 ) , ( 5,1)} = 5 36
Sous la forme d’un tableau, la loi de probabilité associée à cet exemple peut être
représentée comme suit :
X =ω 2 3 4 5 6 7 8 9 10 11 12
P( X = ω) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
Fonction de répartition
ii) lim FX ( x ) = 1
x → +∞
27
0 (" <
⎧
⎪
/ • X! (" ≤ ≤ ‡
⎨ !-
⎪
⎩ 1 (" ≥ C
Si {( x , p ) : i ∈ I }
i i est la loi de probabilité d’une variable aléatoire discrète, alors
p
i∈I
i =1
est une v.a.r. pouvant prendre toutes les valeurs d’un intervalle ou de plusieurs intervalles de ℝ.
Dans toute cette section, Ω est un ensemble infini non dénombrable. Une variable aléatoire continue
L’ensemble X ( Ω ) étant infini, il n’est plus possible de définir la loi de (sous la forme vue
précédemment).
Toutefois, la fonction de répartition est toujours définie :
/ˆ : ℝ → x0, 1y
⟼ N(„ ≤ )
28
Une fonction Š: ℝ → ℝ est une densité si, et seulement si :
1) Š ( 4 ) ") ( 8 ℝ
2) Š ( X (" "j ( 8 ℝ
∞
3) f ( t ) dt = 1
−∞
FX ( b ) − FX ( a ) = f ( t ) dt
b
D’où
Ce qui implique que la probabilité qu’une v.a. continue prenne une valeur est nulle, on dit que la loi
de est diffuse (ou continue).
Par conséquent, pour une variable aléatoire continue :
29
Activités :
Exercice 1
Š(1) = Œ 41
*
(" 0 k 1 k 2
0 2"[[ 8(
a. Trouver la valeur de 4
b. Trouver la fonction de répartition / 1
c. Calculer / 1 , et / 0.5
d. Calculer N 1 k ‹ k 1.5
Exercice :
Soit 4 une constante et considérer la fonction de densité d’une variable aléatoire ‹ :
4 2H1 (" 0 k 1 k 1
Š 1 •
0 2"[[ 8(
a. Trouver la valeur de 4
b. Trouver la fonction de répartition / 1
c. Calculer / 0.4
d. Calculer N 0.1 k ‹ k 0.6
Exercice 3
1. Soit „ un variable aléatoire réelle dont la densité de probabilité est donnée par
4 1, 2, ⋯ ,10
X •
0 2"[[ 8(
Où 4 est une constante.
a. Déterminer la valeur de 4
b. Calculer : N „ † 4 , N „ k 6 , N 2 † „ k 6 , N „ Ž 2
c. Calculer l’espérance mathématique et la variance de „
30
3. Soit X la distribution de probabilité de la variable aléatoire „. Trouver la fonction de
répartition / et représenter son graphique.
(" 1, 2, 3, 4, 5
X ‘15
0 2"[[ 8(
31
SEANCE N°6
Objectifs : à la fin de cette séance, les étudiants seront capables de comprendre et déterminer les
indicateurs des variables aléatoires.
2.1. Le mode
Le mode d’une variable aléatoire est la valeur pour laquelle le diagramme en bâtons ou la courbe de
densité présente son maximum. On appelle mode relatif une valeur correspondant à un maximum local
du diagramme en bâtons ou de la courbe de densité, mais en général, le mode est unique. Le mode est
un indicateur de tendance centrale.
Si la variable est continue, le mode vérifie l’égalité :
Si la variable est discrète, le mode est obtenue en résolvant la double inégalité suivante :
2.2. Espérance mathématique
L’espérance mathématique d’une variable aléatoire est aussi appelée « moyenne » ou « valeur moyenne » de
.
2.2.1. Espérance d’une variable aléatoire discrète
Soit X une variable aléatoire discrète sur ( Ω, , P ). Si la variable aléatoire est finie, elle est définie
par :
Valeurs de
Probabilités
4) (“) = “, ∀“ ∈ ℝ
Lorsque E ( X ) = 0 on dit que X est centrée. Sinon, il est toujours possible d’associer à X à une
variable aléatoire X ′ : X ′ = X − E ( X ) .
Exemple 1 :
Avec l’exemple précédent sur le lancer de 2 dés,
X =ω 2 3 4 5 6 7 8 9 10 11 12
P ( X = ω ) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
2/36 6/36 12/36 20/36 30/36 42/36 40/36 36/36 30/36 22/36 12/36
xi pi
E(X ) = 7
Exemple 2 :
Soit la variable aléatoire mesurant le nombre de lancers d’une pièce de monnaie nécessaires pour
obtenir « face » pour la première fois, en supposant qu’à chaque lancer « pile » et « face » sont
équiprobables.
Valeurs de 1 2 3
Probabilité
33
Donc ici, l’espérance mathématique car, par définition, est la limite finie, si elle existe,
de quand tend vers l’infini, ce qui donne
Cette définition suppose l’intégrale du second membre absolument convergente, sinon – et même si
elle est simplement convergente, on dira que la v.a. n’a pas d’espérance mathématique
Remarque : l’espérance mathématique d’une v.a.r à densité possède les mêmes propriétés que dans le
cas discret
1) E ( X + Y ) = E ( X ) + E (Y )
2) “„ “ „ , ∀“ ∈ ℝ
4) (“) = “, ∀“ ∈ ℝ
3) Pour , on a
(
var ( X ) = E X − E ( X )
2
) = x − E ( X )
i∈I
i
2
pi .
34
On dit qu’une variable aléatoire X est centrée réduite si X est centrée : E ( X ) = 0
et réduite : σ X = 1 . Sinon, il est toujours possible d’associer à X une variable
X −E(X )
aléatoire réduite X * = .
σX
Exemple :
X =ω 2 3 4 5 6 7 8 9 10 11 12
P( X = ω) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
4/36 18/36 48/36 100/36 180/36 294/36 320/36 324/36 300/36 242/36 144/36
xi2 pi
Var ( X ) = 5.83
E ( X 2 ) = t 2 f X ( t ) dt
∞
−∞
(
var ( X ) = E X − E ( X )
2
)
L’écart type de X est σ X = var ( X )
Remarque : la variance d’une var à densité possède les mêmes propriétés que
dans le cas discret
1) Var ( aX ) = a 2Var ( X ) pour a ∈
2) Var ( X + a ) = Var ( X ) pour a ∈
3) var ( a ) = 0
4) Var ( X ) = E ( X 2 ) − E ( X )
2
4. Moments
4.1. Moment non centré et moment centré
On appelle moment d’ordre ( entier positif) d’une variable aléatoire l’espérance
mathématique de si elle existe :
35
On appelle moment centré d’ordre ( un entier positif) d’une variable aléatoire l’espérance
mathématique de si elle existe :
La variance n’est autre que le moment centré d’ordre 2, le moment centré d’ordre 2 étant toujours nul.
Le moment factoriel d’ordre est une combinaison linéaire des moments non centrés .
5. Indicateurs de forme
Ces indicateurs donnent des informations sur la forme de la loi de , et en particulier, ils la comparent
à la loi normale. Ils sont directement inspirés des coefficients d’asymétrie (en anglais skewness) et
d’aplatissement (kurtosis) définis en statistique descriptive.
Coefficient d’asymétrie
Coefficient d’aplatissement
Les moments centrés d’ordre impair étant nuls pour une distribution symétrique, est nul si la
distribution de est symétrique par rapport à la moyenne , mais la réciproque n’est pas vraie : :
peut être nul sans que la loi de X soit symétrique. Si la distribution de est unimodale étalée vers la
droite, est positif. Dans le cas contraire, est négatif.
Le coefficient d’aplatissement est nul pour une variable distribuée selon une loi normale, mais là
encore, la réciproque n’est pas vraie. Selon que la loi de est plus ou moins aplatie que la loi normale,
sera positif ou négatif. Plus que l’aplatissement, ce coefficient mesure l’importance des « queues »
d’une distribution.
36
6. Les fractiles / les quantiles
Comme pour les variables statistiques, on définit pour les variables aléatoires les quantiles, encore
appelés fractiles, qui sont indicateurs de position à partir desquels on peut définir des indicateurs de
tendance centrale et de dispersion.
On appelle quantile d’ordre d’une variable aléatoire de fonction de répartition
toute valeur telle que :
Notons que si est continue et strictement croissante, le quantile , pour donné, existe et est
unique. Si n’est pas continue et strictement croissante, il peut ne pas exister ou il peut y avoir
plusieurs solutions possibles.
Activités
Exercice :
Une loterie est organisée, chaque billet valant 5 euros offre la même chance de
rapporter 0 ; 2.5 ; 5 ; 7.5 ou 10 euros.
1) Calculer l’espérance mathématique et l’écart-type du gain.
2) Calculer l’espérance mathématique et l’écart-type du gain net du prix du billet.
Exercice
L'élévation du niveau de la mer est une menace pour les villes côtières des États-Unis. Par conséquent,
aux fins de la planification, il est important d’avoir des prévisions précises de l’élévation future du
niveau de la mer. Le Journal of Waterway, Port, Coastal et Ocean Engineering (mars / avril 2013) a publié une
37
Exercice
Dans une banque, un système de guichet automatique a été mis en place et permet de faire des
utilisant le guichet automatique dans un intervalle de temps de 5 minutes est une variable aléatoire „
opérations bancaires courantes : extrait de compte, remise de chèque, retrait. Le nombre de clients
minutes ne se chevauchant pas sont indépendants. Soit ‹ la variable aléatoire égale au nombre de
2. On suppose que les nombres de clients utilisant le guichet automatique sur deux périodes de 5
clients utilisateurs sur une période d’une heure. La variable aléatoire ‹ peut s’écrire : ‹ = ∑ -* „
Où „ désigne le nombre de clients utilisateurs au cours de " ˜ intervalle de 5 minutes lorsqu’on
découpe l’heure en 12 intervalles de 5 minutes ; chaque „ suit la même loi que „.
Quelles sont les valeurs possibles de ‹? Calculez (‹), j28(‹) N(‹ = 0).
3. Chaque client ne peut effectuer plus de 2 opérations au guichet automatique. La banque a constaté
que chaque client effectue :
– 3 fois sur 10 : 2 opérations
– 6 fois sur 10 : 1 opération
3.1. Donnez dans un tableau à double entrée l’ensemble des probabilités conditionnelles de ™
sachant „.
3.2. Quelle est la loi de ™? Calculez (™) j28(™).
1
Š( ) = •4 X •− 4š (" 0 < < ∞
0 2"[[ 8(
a. montrer que Š( ) est réellement une densité de probabilité
b. déterminer la fonction de répartition /( )
c. calculer N(„ > 4)
d. calculer l’espérance mathématique et la variance de „
38
SEANCE N° 7
Objectif : à la fin de ce chapitre, les étudiants seront capables de faire des analyses avec des variables
aléatoires à deux dimensions.
Soient deux variables aléatoires X et Y définies sur le même espace probabilité Ω, ℱ, P); on appelle fonction de
répartition du couple aléatoire („, ‹) , la fonction / définie sur ℝ* par
∀ ( , 1) ∈ ℝ* F(x, y) = P€(X ≤ x) ∩ (Y ≤ y)•
Les variables aléatoires discrètes finies „ ‹ sont définies sur le même espace probabilisé (Ω, ℱ, N).
Leurs valeurs, supposées distinctes, sont rangées dans l’ordre croissant:
La loi du couple aléatoire (X, Y) est définie par les probabilités p¯° associées à tout couple de valeurs
possibles € , 1! •:
´ ³
p¯° = P mX = xi , Y = yj n ⇒ • • p¯° = 1
°- ¯-
1 ⋯ 1! ⋯ 1¬ Loi marginale de X
p ⋯ p ° ⋯ p ´ p ∗
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
p¯ ⋯ p¯° ⋯ p¯´ p¯∗
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
C p³ ⋯ p³° ⋯ p³´ p³∗
Loi marginale de Y p∗ ⋯ p∗° ⋯ p∗´ 1
on a:
¬ C
X∗ •X ! N „ X∗! •X ! N ‹ 1
!- -
Si la probabilité que „ prenne la valeur n'est pas nulle X ∗ # 0 , on peut calculer la probabilité
conditionnelle X /! de ‹ 1! sachant que „ :
X!
X!/ N€‹ 1! |„ •
X∗
Les couples €1! , X!/ • constituent la loi conditionnelle de ‹ liée par „
aléatoire ‹|„ . Il y a donc _ lois conditionnelles de ‹ sachant que „ prend une valeur donnée.
. On note cette variable
De même si la probabilité que ‹ prenne la valeur 1 n'est pas nulle €X∗! # 0•, on peut calculer la
probabilité conditionnelle X /! de „ sachant que ‹ 1! :
X!
X /! N€„ ‚‹ 1! •
X∗!
Les couples € , X /! • constituent la loi conditionnelle de „ liée par ‹ 1! . On note cette variable
aléatoire «„‚‹ 1! -. Il y a donc [ lois conditionnelles de „ sachant que ‹ prend une valeur donnée.
X! X ∗ ∙ X!/ X∗! ∙ X /!
3. Corrélation
Définition . La covariance de „, ‹ est :
7 j „, ‹ x„ H „ yx‹ H ‹ y „‹ H „ ‹
Lorsque 7 j „, ‹ 0, on dit que les variables „ ‹ sont non corrélées.
Le coefficient de corrélation linéaire du couple „, ‹ est
4 j „, ‹
¶ „, ‹
`ˆ `·
On a:
1. ¶ „, ‹ ∈ x−1, ?1y
40
2. ¶ „, ‹ 0 si et seulement si „ ‹ sont non corrélées;
Nm „ ∩ €‹ 1! •n N „ ∙ N€‹ 1! •
ce qui signifie que la connaissance de la valeur prise par „ n’apporte aucune information sur la valeur
de ‹, et inversement.
La loi de probabilité d’un couple aléatoire „, ‹ permet de calculer les lois marginales des deux
variables ‹ . En revanche, la connaissance de ces lois ne permet pas de déterminer la loi conjointe,
sauf si les variables „ ‹ sont indépendantes.
„ ‹ ") éX ) 2) ( ⇒ 4 j „, ‹ 0
⇍
Activités
Exercice
Un logiciel est conçu pour exécuter deux tâches, . Soit „ le nombre d'instructions IF-THEN
dans le code de la tâche et ‹ le nombre d'instructions IF-THEN dans le code de la tâche . La
distribution de probabilité X , 1 pour les deux variables aléatoires discrètes est donnée dans le tableau
ci-joint.
„
0 1 2 3 4 5
0 0 0,05 0,025 0 0,025 0
‹ 1 0,2 0,05 0 0,3 0 0
2 0,1 0 0 0 0,1 0,15
a. Vérifiez que les propriétés d'une distribution de probabilité conjointe sont valables.
b. Trouvez la distribution de probabilité marginale X de „.
c. Trouvez la distribution de probabilité marginale X 1 de ‹.
d. Trouvez les distributions de probabilités conditionnelles |1 .
e. Trouvez les distributions de probabilités conditionnelles X 1| .
41
Un couple „, ‹) de variables aléatoires suit la loi jointe donnée dans le tableau suivant :
Exercice
Y
0 1
X
0 1/4 a 1/8
1 1/5 b 1/10
1. Pouvez-vous déterminer 2 3 de telle sorte que les variables aléatoires „ ‹ soient indépendantes
, a et b étant des valeurs réelles.
en probabilité ?
2. Dans ces conditions, déterminez la loi marginale de „, et les lois conditionnelles de „ pour les
différentes valeurs de ‹.
3. Si 2 = 1/5, existe-t-il une valeur de u telle que le coefficient de corrélation linéaire ¶ („, ‹) soit nul
? Les variables aléatoires „ ‹ sont-elles alors indépendantes en probabilité ?
Un organisme bancaire a établi pour ses clients le nombre moyen (‹) de paiements quotidiens
Exercice
effectués par carte bancaire en fonction du nombre („) de cartes possédées. La répartition est résumée
dans le tableau suivant :
1) Probabilités
a) Déterminer la valeur de la probabilité manquante.
b) Donner la probabilité qu’un client possède 1 carte et effectue 2 paiements quotidiens par carte.
c) Donner la probabilité qu’un client possède 1 carte.
d) Calculer la probabilité qu’un client effectue 2 paiements quotidiens par carte sachant qu’il
possède 1 carte.
‹.
2) Lois marginales
a) Calculer l’espérance et la variance de
b) Quel est le nombre de paiements moyen quotidien ?
c) Interpréter le résultat.
42
SEANCE N° 8
Objectif : à la fin de ce chapitre, les étudiants seront capables de faire des analyses avec des variables
aléatoires à deux dimensions.
La fonction de répartition d’un couple „, ‹) de variables aléatoires continues possède en sus des trois
propriétés déjà énoncées, les deux propriétés suivantes :
Toute fonction vérifiant les cinq propriétés peut être considérée comme la fonction de répartition d’un
couple de variables aléatoires continues.
La loi de probabilité d’un couple de variables aléatoires continues peut être définie, soit par la fonction
de répartition, soit par la fonction de densité, et on a la relation fondamentale suivante.
¥ •
∀( , 1) ∈ ℝ* /( , 1) = ¿ ¿ Š( , j) j
¦¤ ¦¤
La probabilité relative à un sous-ensemble de ℝ du type [a ; b] × [c ; d] est égale à
*
 N((„, ‹) ∈ x2 ; 3y × x4 ; y ) = ¿ ¿ Š( , j) j
à Á
N („, ‹) ∈ Å = Æ Š( , 1) 1
Å
W ¿ Š ,1 1 ℎ 1 ¿ Š ,1
¦¤ ¦¤
Les densités conditionnelles
Š ,1 Š ,1
ℎ |1 W 1|
W 1 ℎ
Indépendance
Les variables aléatoires „ ‹ sont indépendantes si et seulement si ∀ , 1 ∈ ℝ* :
Š ,1 W ∙ℎ 1
Plus généralement, un ) H X[ de variables aléatoires „ , „* , ⋯ , „ de densité de probabilité Š est
un ) H X[ de variables aléatoires indépendantes si et seulement si la densité Š du ) H X[ est le
produit des ) densités marginales Š :
Š , *, ⋯ , Š ∙ Š* * ∙ ⋯∙ Š
„, ‹ ¿ 1Š ,1 1
ℝ½
Si „, ‹ sont indépendantes ont déduit „. ‹ „ . ‹ mais la réciproque n'est pas vraie.
„ ‹ ") éX ) 2) ( ⇒ „. ‹ „ . ‹
⇍
‹|„ ¿ 1 W 1| 1
ℝ
44
Activités
Exercice 1
On suppose la fonction de densité jointe de deux variables aléatoires continues „ ‹ donnée par :
4 (" 0 ≤ ≤ 1; 0 ≤ 1 ≤ 1
Š 1 •
0 2"[[ 8(
a. déterminer la valeur de la constante 4
b. déterminer les fonctions de densité marginales
c. trouver la covariance des variables aléatoires „ ‹
Exercice
Le kérosène commercial est stocké dans un réservoir en vrac au début de chaque semaine. En raison
des disponibilités limitées, la proportion „ de la capacité du réservoir disponible à la vente et la
proportion ‹ de la capacité du réservoir effectivement vendu au cours de la semaine sont des variables
aléatoires continues. Leur distribution conjointe est donnée par :
, 1) = Œ4 (" 0 ≤ 1 ≤ ;0 ≤ ≤1
*
Š
0 2"[[ 8(
Trouver la covariance de „ ‹
+ 41 (" 1 ≤ 0 ≤ 2 ; 0 ≤ 1 ≤ 1
Š( , 1) = •
0 2"[[ 8(
Où 4 est un paramètre constant.
a. Trouver la valeur de 4 pour que Š( , 1) soit une densité de probabilité
b. Trouver la fonction de densité marginale de 1 et montrer que Š(1) est une fonction de densité
de probabilité
c. Trouver Š( |1), la densité conditionnelle de „ sachant ‹
d. Calculer („), (‹), („ + ‹), („‹)
e. „ ‹ sont-elles indépendantes ?
Exercice 20
Œ4 (" 0 ≤ 1 ≤ , 0 ≤ ≤1
*
0 2"[[ 8(
Déterminer la covariance de „ ‹
45
SEANCE 9
P ( X = xi ) = pi 0 ≤ pi ≤ 1 p i =1
i
La fonction de répartition est une fonction en escalier, constante sur tout intervalle [ xi , xi +1[ ,
admettant en chaque point xi un saut égal à pi +1 = P ( X = xi +1 ) .
i i
Domaine d’utilisation : Les lois discrètes sont utilisées pour modéliser les résultats des jeux de
hasard, les sondages d’opinion, les phénomènes biologiques, les processus aléatoires (files
d’attente, évolution de l’état de matériels)... Les plus utilisées sont la loi uniforme, la loi binomiale et les
lois dérivées, la loi hypergéométrique, la loi de Poisson.
46
P ( X = k ) = 1 n ∀k ∈ [1, n] .
Plus généralement, soit Ω un ensemble fini de cardinal n . La loi de probabilité équidistribuée ou
uniforme sur Ω est la loi définie sur Ω par la probabilité :
P (ω ) = 1 n pour tout élément de Ω .
Moments :
1 n n +1
E(X ) = k=
n k =1 2
1 n ( n + 1)( 2n + 1) ( n + 1)
2
n +1 n2 − 1
2
1 n
Var ( X ) = k 2 − = × − =
n k =1 2 n 6 4 12
Domaine d’utilisation
La loi de probabilité uniforme intervient dans de nombreux domaines comme les jeux de pile ou
face ou les jeux de dés (avec une pièce ou un dé parfaitement équilibré(e)), les jeux de cartes, les
loteries, les sondages...
47
1.3. La loi binomiale (ou loi du tirage avec remise)
On réalise n épreuves indépendantes de la même expérience telles que :
– chaque épreuve ne peut avoir que deux résultats, s’excluant mutuellement, soit le succès,
soit l’échec,
– la probabilité p de succès est constante à chaque épreuve, la probabilité d’échec est
également constante et égale à 1 − p = q .
Ou on réalise l’expérience de Bernoulli n fois.
Probabilité d’obtenir k succès au cours de ces n épreuves
Soit X la variable aléatoire qui « compte » le nombre de succès au cours de n épreuves.
– Si au cours de n épreuves, on obtient k succès, on obtient également ( n − k ) échecs. La
probabilité de réalisation d’un tel évènement est égale à p k (1 − p )
n−k
(les épreuves sont
indépendantes).
– Il y a différents façons d’obtenir k succès au cours de n épreuves, chaque épreuve
pouvant être, indépendamment les unes des autres, un succès ou un échec. Le nombre de
réalisations de l’événement « obtenir k succès au cours de n épreuves » est le nombre de
combinaisons sons répétitions de n objets pris k à k , soit :
n n!
Cnk = =
k k !( n − k ) !
n!
D’où : P ( X = k ) = Cn p (1 − p ) p k (1 − p )
n− k n− k
k k
=
k !( n − k ) !
appelé variable binomiale. La loi binomiale de paramètre ‘ ( n, p ) est notée B ( n, p ) . Une variable
binomiale est égale à la somme de n variables aléatoires indépendantes de Bernoulli, la loi
binomiale est donc la loi des épreuves répétées. Elle est également la loi d’un tirage sans remise dans une
urne contenant des boules de deux types différents.
48
Moments
S = X + Y → B ( n1 + n2 , p )
Domaine d’utilisation
─ La loi binomiale décrit des phénomènes ne pouvant prendre que deux états s’excluant
mutuellement, succès ou échec dans un jeu, bonne pièce ou pièce défectueuse dans une
fabrication, lot acceptable ou lot refusé, défaillance ou fonctionnement d’un matériel...
─ Elle est utilisée dans le domaine technique pour déterminer la probabilité de défaillance à
la sollicitation de matériels, en contrôle qualité, mais elle ne peut s’appliquer
rigoureusement que si les expériences sont non exhaustives, c’est la loi du tirage avec
remise.
49
• une partie A à Np éléments (éléments possédant un certain caractère),
• une partie B à ( N − Np ) éléments (éléments n’ayant pas ce caractère).
C’est le cas, par exemple, d’un lot de N pièces comprenant Np pièces défectueuses et donc
( N − Np ) pièces fonctionnant bien.
Quelle est la probabilité qu’un sous-ensemble de n éléments contienne x éléments de l’ensemble A ?
Les éléments peuvent être tirés, soit un par un, soit d’un seul coup, mais sans remise.
Soit X la variable aléatoire représentant le nombre d’individus ayant le caractère considéré dans
l’échantillon. On veut calculer P ( X = x ) . Le nombre d’échantillons de taille n est égal à CNn
Un échantillon de taille n comprend :
x
- x individus, pris parmi les Np individus ayant le caractère considéré, donc C Np choix possible,
- (n − x) individus pris parmi les ( N − Np ) individus n’ayant pas ce caractère, donc CNn −−xNp
choix possible.
Le nombre d’échantillons de taille n, comprenant x individus pris parmi les Np individus, est
x
donc égal à C Np C Nn −−xNp .
P ( X = x) = =
Np N − Np
C n
N
N
n
Les valeurs extrêmes de x sont
min x = max {0, n − N (1 − p )} max x = min {n, Np}
Graphique
50
Si une variable aléatoire suit une loi de probabilité hypergéométrique de paramètres ( N , n, p ) ,
elle est notée X → H ( N , n, p )
N −n
E ( X ) = np et var ( X ) = np (1 − p )
N −1
est appelé facteur d’exhaustivité
Lorsque est très supérieur à , on peut approcher la loi hypergéométrique par la loi binomiale :
H ( N , n, p ) ≈ B ( n, p ) . Dans la pratique, on impose N > 10n
Activités
Exercice :
Une entreprise d'ingénierie bénéficie d'un taux de réussite de 40% pour l'obtention de contrats de
construction de l'État. Ce mois-ci, ils ont soumis des offres pour huit projets de construction
devant être financés par l'État. Les offres pour différents projets sont évaluées indépendamment
les unes des autres.
a. Trouvez la probabilité que l’entreprise n’obtienne aucun de ces contrats?
b. Déterminez la probabilité que l'entreprise obtienne cinq contrats sur huit?
c. Trouvez la probabilité que l'entreprise obtienne les huit contrats?
Exercice
Dans une étude sur le comportement d’achat de consommateurs, on suppose qu’à chaque
minute, une unité (au maximum) d’un certain produit a 1 % de chances d’être vendue. On
suppose les achats de ce produit effectués à des temps différents, indépendants les uns des autres.
1. Quelle est la loi de probabilité exacte du nombre d’unités de ce produit vendues en 30
min ? Calculez la probabilité de vendre au moins 3 unités en 30 min.
2. Le magasin est ouvert 7 h 30 par jour. Quel est le nombre moyen d’unités vendues par
jour ?
Par quelle loi peut-on approcher la loi de probabilité du nombre d’unités de ce produit
vendues en un jour ?
3. Chaque matin, le stock est reconstitué à 8 unités pour le premier produit, et à 220 unités
pour le second. Quelle est la probabilité de rupture de stock pour chacun des deux
produits ?
51
SEANCE 10
On note,
1 1− p
Moments : E (Y ) = et Var (Y ) = 2
p p
Graphique
52
Coefficients d’asymétrie et d’aplatissement
(on a obtenu un succès à l’essai n° z (de probabilité p) et k − 1 succès au cours des z − 1 essai
précédents). Elle constitue donc une généralisation de la loi géométrique.
On note :
Moments :
k k (1 − p )
et Var ( Z ) =
E (Z ) =
p p2
Coefficients d’asymétrie et d’aplatissement
Domaine d’utilisation
Ces deux lois, loi géométrique et loi de Pascal, interviennent particulièrement en contrôle de
qualité, mais aussi dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en termes de signal d’alarme.
Définition : À partir de la loi de Pascal, on définit la loi binomiale négative, ou loi de la variable
aléatoire T = Z − k Elle représente donc le nombre d’événements « échec » obtenu lorsqu’on a
une loi de Pascal.
La loi suivie par la variable T est la loi binomiale négative noté BN ( k , p ) .
P (T = t ) = Ckk+−t1−1 p k (1 − p ) = Ckt + t −1 p k (1 − p )
t t
53
Moments : si on pose P = (1 − p ) p et Q = 1 p , on obtient :
E (T ) = kP et Var ( T ) = kPQ
Processus de Poisson : Soit „ le nombre d’événements survenus sur une période donnée. On
suppose que :
• la probabilité qu’un événement a de se produire dans la période ne dépend que de la
durée de la période,
• le nombre d’événements se produisant durant la période est indépendant du nombre
d’événements survenus dans les autres périodes.
Définition : on dit qu’une var „ suit une loi de Poisson de paramètre λ > 0 si
1) X ( Ω ) = {0,1,K , n,K} = N
λk
2) P ( X = k ) = e −λ
pour tout k ∈
k!
On note alors X → P ( λ )
Sa fonction de probabilité peut être présentée sous la forma suivante :
Graphique
54
Soit X → P ( λ ) , alors E ( X ) = λ et var ( X ) = λ
Remarque : Lorsque p est petit et n est grand, on peut approcher la loi binomiale par la loi de
Poisson : B ( n, p ) ≈ P ( np ) . Dans la pratique, on impose p < 0,1 et n > 50 .
55
On pose np = λ et on cherche la limite de l’expression :
P ( X = x ) → C nx p x (1 − p )
n−x
eλ λ x
On obtient P ( X = x ) →
x!
On reconnait dans cette limite, l’expression de P ( X = x ) d’une variable aléatoire X suivant une
loi de Poisson P ( λ ) , avec λ = np . En pratique, cette approximation est valable si
n > 50 et p < 0.1 .
Définition : On dit qu’une var X suit une loi uniforme sur l’intervalle [ a, b]
notée X → U ( a, b ) (avec a < b ) si sa densité est :
1
si x ∈ [ a, b ]
fX ( x) = b − a
0
si x ∉ [ a, b ]
0 si x < a
x−a
Fonction de répartition de FX ( X ) = f X ( t ) dt = si x ∈ [ a, b ]
x
b − a
−∞
1 si x > b
Représentation graphique
Moments :
(b − a )
2
a+b
Soit X → U ( a, b ) , on a E ( X ) = et var ( X ) =
2 12
56
Activités
Exercice
Une entreprise de recrutement constate que 30% des candidats à un certain emploi industriel ont
suivi une formation avancée en programmation informatique. Les candidats sont sélectionnés au
hasard dans le pool et sont interrogés de manière séquentielle.
a. Trouvez la probabilité que le premier candidat ayant une formation avancée soit trouvé
au cinquième interview.
b. Supposons que le poste soit offert au premier candidat ayant la formation avancée et que
le candidat accepte. Si chaque entretien coûte 300 USD, trouvez la valeur et la variance
attendues du coût total des entretiens engagés avant que le travail ne soit pourvu.
Exercice
Pour un certain secteur manufacturier, le nombre d'accidents industriels est en moyenne de trois
par semaine.
a. Trouvez la probabilité qu'aucun accident ne survienne au cours d'une semaine donnée.
b. Déterminez la probabilité que deux accidents se produisent au cours d'une semaine
donnée.
c. Déterminez la probabilité qu'au maximum quatre accidents surviennent au cours d'une
semaine donnée.
d. Déterminez la probabilité que deux accidents se produisent dans une journée donnée.
57
SEANCE 10
Définition : On dit qu’une var suit une loi exponentielle de paramètre λ (avec λ > 0 ) si sa
densité est
λ e − λ x si x ≥ 0
fX ( x) = on la note X → E ( λ ) ou Exp ( λ ) .
0 si x < 0
1 − e− λ x si x ≥ 0
Fonction de répartition : Fx ( x ) = f X ( t ) dt =
x
−∞
0 si x < 0
Graphique
58
Moments
1 1
Soit X → E ( λ ) , on a E ( X ) = et var ( X ) =
λ λ2
Domaine d’utilisation
─ La distribution exponentielle est associée aux processus de Poisson. Un tel processus
génère des événements dont les temps d’occurrence sont indépendants et distribués
suivant une loi exponentielle.
─ La loi exponentielle s’applique bien aux matériels électroniques, c’est-à dire aux matériels
fonctionnant pratiquement sans usure, aux matériels subissant des défaillances brutales ou
à des systèmes complexes dont les composants ont des lois de fiabilité différentes. Elle
permet de décrire la période de fonctionnement durant laquelle le taux de défaillance est
constant ou presque constant.
Définition : Une variable aléatoire suit une loi normale centrée réduite si elle peut prendre toute
valeur réelle et si sa densité de probabilité est donnée par :
Cette fonction de densité est une fonction paire, et son graphique admet l’axe des ordonnées
comme axe de symétrie. Il y a un maximum pour qui correspond au mode de cette
distribution. Compte tenu de deux points d’inflexion, le graphique est simple à tracer et
présente l’allure caractéristique connue sous le nom de courbe en cloche.
C'est-à-dire que
59
Or
Fonction paire :
Maximum pour
Points d’inflexion :
Fonction symétrique
Cette distribution de probabilité possède une moyenne égale à 0. Le graphique étant symétrique
par rapport à l’axe des ordonnées (parité de la densité), on a une surface totale (égale à 1)
comprise entre la courbe et l’axe des abscisses, partagée en deux parties égales par l’axe vertical
(soit 0,5 à gauche et 0,5 à droite). La médiane de cette distribution est aussi égale à 0. Enfin, le
sommet de la « cloche » est au point x = 0 .
60
Sa fonction de répartition s’écrit :
Moments :
N „ ∗ k 2 ; 2j 4 2 Ž 0
N „∗ M 2 1 H N „∗ † 2
N „ ∗ k H2 N „∗ M 2 1 H N „∗ † 2
N „ ∗ M H2 N „∗ k 2
N 2 k „∗ k 3 N 3 HN 2
61
Activités
Exercice :
Le fabriquant souhaite déterminer la durée de garantie qu’il doit proposer pour un nouveau
modèle qu’il va mettre sur le marché. Des tests préliminaires ont montré que la durée de vie (sans
panne) (en mois) du baladeur suit une loi exponentielle de paramètre .
1) Donner l’espérance et l’écart-type de .
2) Si on suppose qu’une garantie de 1 an est proposée, qu’elle est la probabilité qu’un
baladeur tombe en panne avant la fin de la garantie ?
3) Quelle doit être la durée de garantie pour qu’un baladeur ait une probabilité inférieure ou
égale à 20 % de tomber en panne avant la fin de la garantie.
On considère que la durée du temps d’attente a (mesuré en minutes) du bus que doit prendre
Exercice
1
Š(a) = •5 X Œ− 5Í (" ≥ 0
0 (") )
1. Quelle est la fonction de répartition de la variable aléatoire a ?
2. Quelle est la probabilité que le temps d’attente a dépasse 8 minutes ? Dans la suite de
l’exercice, on arrondira cette probabilité à sa première décimale.
3. Valérie utilise le métro avec un seul ticket si elle attend le bus plus de 8 mn. Il faut deux
temps d’attente ne dépasse pas 8 mn. Soit ‹, le nombre de trajets « allers » effectués en
tickets pour le bus, mais Valérie a une nette préférence pour le bus qu’elle utilise si le
bus en ) jours.
3.1. Donnez, en la justifiant, la loi de ‹.
4. Soit ™, la variable aléatoire égale au nombre de tickets utilisés par Valérie pour ses trajets
3.2. Calculez son espérance et sa variance.
« allers » en ) jours.
4.1. Déterminez la loi de ™.
4.2. Calculez son espérance et sa variance.
62
SEANCE 11
Définition :
Une variable aléatoire réelle , prenant ses valeurs dans , suit une loi de Laplace-Gauss ou loi
normale, de paramètres et , si sa densité de probabilité est donnée par :
Fonction de répartition
Cette intégrale n’ayant pas d’expression mathématique simple, des tables donnent les valeurs de la
fonction de répartition.
63
Moments
Espérance mathématique et variance
Propriété 1
Si est une variable aléatoire normale, alors toute fonction du 1er degré (fonction affine) de
suit aussi une loi normale.
Soit une variable aléatoire distribuée selon une loi normale , la variable aléatoire
suit aussi une loi normale avec et (l’écart type de
valant ).
Propriété 2
Si on a variables aléatoires normales et indépendantes, alors leur somme
suit une loi normale . Avec
– dans le cas d’une loi binomiale, un point a une mesure ou une probabilité non nulle alors
que dans le cas d’une loi normale, un point est un ensemble de mesure nulle.
Pour ces deux raisons, on doit faire une correction de continuité quand on utilise l’approximation
d’une loi binomiale par une loi normale.
La représentation graphique de la densité de probabilité d’une variable gaussienne est une courbe
en « cloche » tandis que celle d’une variable aléatoire binomiale est un diagramme en bâtons.
64
Si X * est la variable aléatoire normale centrée réduite, on obtient :
k − 0.5 − np k + 0.5 − np
P(X = k) ≅ P < X* <
np (1 − p ) np (1 − p )
Et de la même façon :
k + 0.5 − np
P(X ≤ k) ≅ P X* <
np (1 − p )
Exemple :
Un contrôle au calibre, effectué depuis plusieurs mois sur le diamètre des pièces usinées par une
machine-outil, indique que le pourcentage de pièces « défectueuses » est égal à 8 %.
Un échantillon de 100 pièces de la production est prélevé et le diamètre de ces pièces est vérifié.
Soit la variable aléatoire « nombre de pièces défectueuses » dans un échantillon de 100 pièces.
Lorsque ) est grand, “ est grand (“ M 15), on peut approcher la loi de Poisson par une loi
normale. Ainsi,
N “ ≈ ;€“; √“•
La loi du khi-deux (ou « khi carré ») est une loi de probabilité continue définie sur l'ensemble des
réels positifs ℝ‡ . Sa densité dépend d'un paramètre appelé nombre de degrés de liberté, noté
), avec ) ∈ ℕ∗ .
65
Définition : soient Z1, Z2 ,K, Zn des variables aléatoires indépendantes suivant des lois normales
N ( 0,1) . Alors la variable aléatoire
n
K = Zi2 = Z12 + L + Z n2
2
i =1
normales, cette loi ne peut être définie que suℝ‡ r : la réalisation d'une variable du khi-deux
Remarque : Puisque la loi du khi-deux correspond à la loi de la somme de carrés de variables
une loi de probabilité continue définie sur l'ensemble des réels ℝ. Cette loi est très utilisée dans la
La loi de Student (ou distribution ), du pseudonyme choisi par William Gosset (1876-1937), est
66
Z
T=
K2 / n
suit la loi de Student à n degrés de liberté. On note T → St ( n ) .
Soit T → St ( n ) , alors
définie sur l'ensemble des réels positifs ℝ‡ . Cette loi est notamment utilisée pour caractériser la
(1890-1962) et américain George Snedecor (1881-1974), est une loi de probabilité continue
Fisher ou /-test. La densité d'une loi de Fisher dépend de deux paramètres ) et X qui
distribution de certaines statistiques de test sous l'hypothèse nulle et en particulier celle du test de
K12 K 22
F=
n p
suit la loi de Fisher-Snédécor à degrés de liberté. On note, F → F ( n, p ) .
67
Graphique de la densité de la loi de Fisher
selon une loi du khi-deux, elle est définie sur ℝ‡ : la réalisation d'une variable de Fisher n'est jamais
Remarque : Une loi de Fisher étant définie comme la loi du ratio de deux variables distribuées
négative.
Soit F → F ( n, p ) ,
p p n+ p−2
alors E ( F ) = pour n > 2 et var ( F ) = 2 pour p > 4
p−2 n ( p − 2 )2 ( p − 4 )
Si F → F ( n, p ) alors 1 F → F ( p, n ) .
Activités
Exercice
Soit une variable suivant la loi normale , donc de moyenne 3 et d’écart-type 2. On veut
calculer les probabilités suivantes :
P ( X < 4 ) , P ( X < −1) , P ( X > 1)
Exercice :
Les spécifications d’un ordinateur portable précisent une autonomie (de fonctionnement sur
batterie) de 4h30. Après demande de précisions, il s’avère que l’autonomie en minutes est
distribuée suivant une loi normale .
1) Donner l’espérance et la variance de .
2) Quelle est la probabilité que l’ordinateur fonctionne moins de 4 heures ?
3) Quelle est la probabilité qu’il fonctionne plus de 5h30 ?
68
SEANCE 12
Objectifs : comprendre et utiliser les convergences en probabilité et surtout la loi des grands nombres.
Chapitre 6 : Convergences
Ce chapitre introduit un certain nombre de résultats d’approximation qui simplifie les analyses des
grands échantillons ou des échantillons de grandes tailles. Ce chapitre a pour objectifs :
─ d’étudier le comportement asymptotique d'une suite de variables aléatoires.
─ de comprendre les concepts de convergence en probabilité et de convergence presque sûre
─ de comprendre le concept de convergence en loi.
─ de permettre l’application de la loi faible des grands nombres.
─ de permettre l’application du théorème central limite.
1. Notion de convergence
La convergence fait souvent référence à l’analyse du comportement d’une suite (ou séquence) de
variables aléatoires, indicées par ) ∈ ℕ. Comme pour les suites de nombres, une suite de variables
aléatoires est une famille de variables aléatoires indexée par un entier strictement positif. Une suite de
variables aléatoires est généralement notée sous la forme „ ∈ℕ ou „ . Souvent en statistique, cette
suite est définie comme une fonction „ Š ™ , ⋯ , ™ ) d’autres variables aléatoires ™ , ⋯ , ™ .
Preuve : par mesure de convenance, on suppose que a une distribution discrète pour laquelle la
fonction de densité de probabilité est . On a :
Ce qui suppose que a uniquement des valeurs non négatives ; tous les termes de la sommation sont
aussi non négatifs. Ainsi,
L’inégalité de Tchebychev est relative à l’idée selon laquelle la variance d’une variable aléatoire est une
mesure de l’étendue de sa distribution. Cette inégalité dit que la probabilité que soit loin de sa
moyenne est limitée par une quantité qui augmente lorsque la variance augmente.
Théorème : inégalité de Tchebychev. Soit une variable aléatoire X pour laquelle la variance existe.
Alors pour tout nombre
Ce résultat signifie que pour toute variable aléatoire donnée, la probabilité qu’elle soit différente de sa
moyenne par 3 fois ne peut pas excéder .
70
La moyenne et la variance de peuvent être facilement déterminées.
Preuve :
Et
Ou
Exemple : lancer d’une pièce de monnaie. Supposons qu’une pièce de monnaie est lancée fois de
façon indépendantes. Pour . Soit
La moyenne de l’échantillon est donc la proportion de face obtenue sur lancer. On va déterminer
le nombre de fois que la pièce devra être lancée pour avoir
71
, cette probabilité sera au moins égale .
Donc 15 lancers devraient être suffisants pour satisfaire les exigences de la probabilité demandée.
À partir de l’exemple précédent, on trouve que l’inégalité de Tchebychev n’est pas une bonne façon
pour déterminer la taille de l’échantillon pour un problème particulier mais sera utilisée pour prouver la
loi des grands nombres.
Supposons , une suite de variables aléatoires. Dit de manière vulgaire, cette suite converge vers
un nombre donné si la distribution de probabilité de devient de plus en plus concentré autour de
lorsque tend vers l’infini.
lim N |™ H 3| Ž Ð 0
→¤
On note : et se lit converge en probabilité vers . C'est-à-dire que converge vers en
probabilité si la probabilité que tombe dans chaque intervalle autour de , quelque soit la largeur de
l’intervalle, approche 1 lorsque tend vers l’infini.
Cette définition signifie que lorsque la dimension ) est suffisamment grande, la probabilité d'obtenir
une réalisation de ™ dont l'écart à la valeur 3 (en valeur absolue) soit plus grand qu'une valeur
arbitraires Ð (aussi petite que l’on souhaite), tend vers 0.
Une des principales applications de la notion de convergence en probabilité est la loi faible des grands
nombres. La loi faible des grands nombres, telle qu'énoncée par Khintchine (1878-1959), stipule que la
moyenne empirique de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) converge en
probabilité vers l'espérance mathématique de ces variables.
72
Théorème : loi faible des grands nombres ou théorème de Khintchine. On suppose que forme un
échantillon aléatoire issu d’une distribution de moyenne , c'est-à-dire „ Ñ et de variance
¸ „ ` * . Soit la moyenne empirique. Alors,
Preuve :
Soit la variance de chaque égale à . De l’inégalité de Tchebychev pour tout réel ,
Définition : convergence presque sûre. Une suite de variables aléatoires converge presque
sûrement vers ou avec la probabilité 1, si
Ce résultat signifie que lorsque ) tend vers l'infini, les réalisations de la variable ™ sont toutes égales à
la constante 3. La convergence presque sûre implique que lorsque ) tend vers l'infini, la suite de
variables aléatoires ™ tend vers une constante déterministe de façon certaine.
On montre que si converge vers avec la probabilité 1 (converge presque sûrement vers )
alors la suite converge aussi vers en probabilité. C'est-à-dire que converge vers en
probabilité.
Pour cette raison, la convergence avec la probabilité 1 ou presque sûre est appelée convergence forte
et la convergence en probabilité est appelée convergence faible. Pour mettre la différence entre les
deux concepts, le résultat précédent obtenu sur la loi des grands nombres est appelé loi faible des grands
nombres. C'est-à-dire :
La loi forte des grands nombres ou théorème de Kolmogorov peut être énoncée comme suit : si est la moyenne
empirique d’un échantillon aléatoire de taille issue d’une distribution de moyenne , alors
Note :
que soit la distribution des variables aléatoires ™ , ™* ⋯,. La seule hypothèse est que ces variables
Ce qu'il y a de remarquable dans la loi faible des grand nombres, c'est que ce résultat s'applique quelle
le cas du théorème de Khintchine). Que les variables ™; aient une distribution de Student, de Poisson,
doivent être indépendantes (et identiquement distribuées, avec les mêmes espérances et variances dans
du khi-deux ou une distribution non standard, leur moyenne empirique ™̅ converge toujours en
probabilité vers leur espérance.
73
Définition : convergence en moyenne quadratique. Une suite de variables aléatoire ™ , telle que |™ |* †
∞, converge en moyenne quadratique vers une constante 3, si lorsque ) tend vers l’infini :
|™ H 3|* † ]
Pour toute valeur ] Ž 0. On note la convergence en moyenne quadratique sous la forme suivante :
A.Ò
™ ÓÔ 3
A.Ò
Une façon équivalente de définir la convergence en moyenne quadratique est de poser que ™ ÓÔ 3 si :
3. Convergence en loi
L’idée de la convergence en loi est la suivante: lorsque ) tend vers l'infini, la distribution de la variable
„ est identique à celle d'une autre variable aléatoire, notée „. Leurs fonctions de densité et de
répartition sont alors identiques pour toutes les valeurs admissibles sur le support de la loi de „.
Le théorème central limite permet d'étudier la convergence en loi d'une transformée de la moyenne
empirique de variables aléatoires indépendantes. C'est sans conteste le théorème fondamental de la
statistique mathématique.
74
Un cas particulier
Si on pose
Les variables aléatoires étant indépendantes et suivant une loi normale, leur somme
suit une loi normale et suit également une loi normale.
Comme on ne rencontre pas toujours des variables normales, il est nécessaire d’étudier quelle propriété
possède la variable aléatoire lorsque l’hypothèse de normalité des variables n’est plus satisfaite.
Le principal résultat du théorème central limite est que la transformée d'une moyenne empirique de
variables i.i.d. converge en distribution vers une distribution normale.
75
Activités
Exercice : montrer que „& converge en probabilité vers Ñ en vérifiant la condition nécessaire et
suffisante de la convergence en probabilité.
Exercice
On suppose que „ , ⋯ , „ issues d’un échantillon aléatoire de taille ) d’une distribution de moyenne
égale à 6.5 et de variance 4. Déterminer la valeur de ) pour que la relation suivante soit vérifiée :
N(6 ≤ „& ≤ 7) ≥ 0.8
„& est la moyenne de l’échantillon.
Exercice
Supposons qu’un échantillon de taille ) devra être choisit d’une distribution de moyenne Ñ et d’écart
Exercice
Un échantillon aléatoire de taille ) est tiré d’une distribution de moyenne Ñ et d’écart type `.
a. Utiliser l’inégalité de Chebyshev pour déterminer la plus petite valeur que ) peut prendre pour
`
N m|„& − Ñ| ≤ n ≥ 0.99
que la relation suivante soit vérifiée :
4
b. Utiliser le théorème central limite pour déterminer la plus petite valeur que devra prendre )
pour satisfaire approximativement la relation de la question (a)
76