Vous êtes sur la page 1sur 76

Domaine : Sciences Économiques et de Gestion (SEG)

Parcours : Licence Analyse et Politiques Économiques ; Économie Internationale ;


Économie du Développement, Comptabilité Contrôle Audit ;
Marketing et Stratégie ; Organisation et Gestion des Ressources Humaines

Établissement : Faculté des Sciences Économiques et de Gestion (FASEG)

Code et Intitulé de l’UE : ECO304C Calcul des Probabilités

Crédits : 5
Public cible : Étudiants en deuxième année de Licence en sciences économiques et de
gestion
Semestre : 3
Pré-requis : Statistiques descriptives (ECO 104C) ;
Séries chronologiques de base (ECO 204C)
Analyse mathématique (ECO103C)

Enseignants responsables : Yao Nukunu GOLO (Ph.D), Maître-Assistant


Spécialité : Économie Internationale, Mondialisation
Adresse : Email : ygolo@univ-lome.tg

Disponibilités : Mardi (13h30-16h30 pour la plateforme RESCOUL)


DESCRIPTION DE L’UNITE D’ENSEIGNEMENT
Objectifs
L’objectif général de ce cours est de permettre aux étudiants de comprendre les modèles probabilistes
qui peuvent être utilisés pour l’inférence statistiques.
À la fin de cette UE, les étudiants seront capables de :
─ Comprendre les notions d'univers, événement, probabilité et probabilité conditionnelle
─ Découvrir les variables aléatoires, loi de probabilité, espérance et variance
─ Découvrir les notions de couple de variables aléatoires, covariance et corrélation linéaire
─ Appréhender la loi faible des grands nombres et le théorème central limite

Contenu de l’unité d’enseignement

Ce cours aborde l’Analyse combinatoire ; les Axiomes de probabilités ; les


Variables aléatoires ; les Couples de variables aléatoires ; les Lois de
probabilités usuelles ; les Convergences stochastiques

Plan du contenu d’enseignement (parties, chapitres et sous-chapitres)


Séance n° Rappel des objectifs Titres des parties/ chapitres / sous-chapitres
spécifiques
1 Chapitre 0 : Introduction /statistiques et
probabilités ; Importance de la probabilité en sciences
économiques et de gestion
Chapitre 1 : Analyse combinatoire / Ensembles et
opérations ; structure de l’ensemble des éléments et
des dispositions
2 Comprendre les notions Chapitre 1 : Analyse combinatoire / permutations,
d'univers, événement, arrangements ; combinaisons.
probabilité et probabilité
conditionnelle
3 Découvrir les variables Chapitre 2 : Axiomes de calcul de Probabilités /
aléatoires, loi de probabilité, Exemple introductif ; la tribu des événements ;
espérance et variance Probabilité (axiomatique de Kolmogorov) ;
probabilité conditionnelle
4 Découvrir les notions de Chapitre 2 : Axiomes de calcul de Probabilités /
couple de variables aléatoires, probabilités composées et indépendance ; probabilité
covariance et corrélation de Bayes
linéaire
5 Appréhender la loi faible des Chapitre 3 : Variables aléatoires / Généralités sur
grands nombres et le les variables aléatoires (définition, type,
théorème central limite représentation, fonction de répartition) ;
6 Chapitre 3 : Variables aléatoires indicateurs ou
caractéristiques des variables aléatoires (espérance,
mode, variance, fractiles)
7 Chapitre 4: Couples de variables aléatoires /
Fonction de répartition d’un couple de variables
aléatoires ; loi d’un couple de variables aléatoires
discrètes ; corrélation et indépendance
8 Chapitre 4: Couples de variables aléatoires /; loi
d’un couple de variables aléatoires continues ;
espérance mathématique d’un produit de variables
aléatoires.
Chapitre 5 : Lois de Probabilités usuelles / Lois
discrètes usuelles (loi uniforme discrète, loi de
Bernoulli)
9 Chapitre 5 : Lois de Probabilités usuelles / Lois
discrètes usuelles (loi binomiale, loi
hypergéométrique, loi voisines de la loi binomiale)
10 Chapitre 5 : Lois de Probabilités usuelles / Lois
discrètes usuelles (loi de Poisson) ; lois continues
usuelles (loi uniforme continue, loi exponentielle, loi
normale centrée réduite)
11 Chapitre 5 : Lois de Probabilités usuelles / lois
continues usuelles (loi normale de Laplace-Gauss, loi
issues de la loi normales)
12 Chapitre 6 : les convergences stochastiques / notion
de convergence ; la loi des grands nombres,
convergence en loi, théorème central limite

Modalités d’évaluation : (période, type d’activité, organisation, etc.)


Évaluation finale à la fin du semestre.

Bibliographie :
Lectures conseillées (dans l'ordre d'importance)
1. Hurlin C. et Mignon Valérie (2015) "Statistique et probabilités en économie-gestion" Dunod, ISBN
978-2-1007-8023-5
2. Scheaffer R. L, Mulekar M. S., McClave J. T (2010) "Probability and Statistics for Engineers", Fifth
Edition Cengage Learning.
3. David S. Moore (2010). “The Practice of Statistics for Business and Economics” Third Edition
4. Lecoutre Jean-Piérre (2001), « Statistiques et probabilités Travaux dirigés »
5. De Groot M. H. et Schervish M. J. (2012) "Probability and Statistics" Fourth Edition. Addison-
Wesley.
6. McClave J. T., Sincich T. (2013) "Statistics", Twelfth Edition Pearson
7. Newbold P., Carlson W. L., Thorne B. M., (2013) "Statistics for Business and Economics" Global
Edition Perason
8. Mendenhall W. M., Sincich T. L., (2015) "Statistics for Engineering and the Sciences" Sixth Edition
Taylor & Francis Group.
9. Anderson-Sweeney-Williams (2008) : « Statistiques pour l’économie et la gestion » Traduction de la 4e
édition américaine par Claire Borsenberger. Ouvertures économiques, Nouveaux Horizons, éd de
Boeck.
10. Bouffard F. Viviani J-L, Zouhhad R. (2005) « Mathématiques appliquées : manuels et applications » 6e
édition Dunod.

3
11. Cheng-Few Lee, John C. Lee, Alice C. Lee (2013) “Statistics for Business and Financial Economics”
Third Edition
12. Christian Larousse (1977), “Statistique exercices corrigés avec rappels de cours” tome 3, sciences
économiques 3e année. ed Dunod, 4e edition.
13. Dominick Salvatore, D. Reagle (2002) « Statistics And Econometrics ». McGRAW-HILL New
York 2e éd.

4
SÉANCE N°1

Objectifs : souligner l’importance des calculs de probabilités en économie et en gestion, et faire quelques rappels
sur les ensembles.

Chapitre 0 : INTRODUCTION

Les méthodes statistiques sont aujourd'hui utilisées dans presque tous les secteurs de l'activité humaine
et font partie des connaissances de base de l'ingénieur, du gestionnaire, de l'économiste, du biologiste, de
l'informaticien ... Parmi les innombrables applications dans le domaine industriel: la fiabilité des matériels,
le contrôle de qualité, l'analyse des résultats de mesure et leur planification, la prévision, et dans le
domaine de l'économie et des sciences de l'homme: les modèles économétriques, les sondages, les
enquêtes d'opinion, les études quantitatives de marché, etc.

Statistique et probabilités
La théorie des probabilités est une branche des mathématiques qui traite des propriétés de certaines
structures modélisant des phénomènes où le «hasard» intervient. En tant que théorie mathématique
abstraite, elle repose sur une axiomatique et se développe de façon autonome par rapport à la réalité
physique. Seuls les noms des concepts utilisés (événements, variables ...) renvoient à l'expérience.
La théorie des probabilités permet de modéliser efficacement certains phénomènes aléatoires et d'en
faire l'étude théorique. Quels sont ses liens avec la statistique qui repose plutôt sur l'observation de phénomènes
concrets? On peut en voir schématiquement trois: tout d'abord les données observées sont souvent
imprécises, entachées d'erreur. Le modèle probabiliste permet alors de représenter comme des variables
aléatoires les déviations entre « vraies », valeurs et valeurs observées.
Deuxièmement on constate souvent que la répartition statistique d'une variable au sein d'une
population est voisine de modèles mathématiques proposés par le calcul des probabilités (lois de
probabilité).
Enfin et c'est à notre avis le rôle le plus important du calcul des probabilités, les échantillons d'individus
observés sont la plupart du temps tirés au hasard dans la population, ceci pour assurer
mathématiquement leur représentativité: si le tirage est fait de manière équiprobable chaque individu de
la population a une probabilité constante et bien définie d'appartenir à l'échantillon. Les caractéristiques
observées sur l'échantillon deviennent, grâce à ce tirage au sort, des variables aléatoires et le calcul des
probabilités permettent d'étudier leurs répartitions. Mentionnons ici les méthodes de validation par ré
échantillonnage (bootstrap, validation croisée) qui consistent à re-tirer des observations à l'intérieur de
l'échantillon initial.

5
La statistique, au sens le plus général, est une discipline qui consiste dans le recueil, le traitement et
l’interprétation de données d’observations sur des systèmes physiques (réels ou simulés). En particulier,
elle permet de construire des modèles (probabilistes ou non) qui représentent correctement la réalité
mesurable du monde physique. Il s’agit d’une discipline faisant souvent appel au raisonnement inductif :
à partir d’un certain nombre d’observations élémentaires on cherche à construire des lois générales qui
“expliquent” ces observations. Étant donné ce caractère inductif, les résultats obtenus par la statistique
peuvent ˆêtre remis en question par de nouvelles observations, comme c’est le cas dans le domaine des
sciences naturelles en général.

Il y a donc une interdépendance forte entre probabilités et statistique, mais également une différence
fondamentale dans leur approche : déductive pour le calcul des probabilités ; inductive pour la statistique.

Le calcul des probabilités est donc un des outils essentiels de la statistique pour pouvoir extrapoler à la
population les résultats constatés sur l’échantillon mais on ne peut y réduire la statistique : à côté du
calcul des probabilités, la statistique utilise des mathématiques assez classiques (algèbre linéaire,
géométrie euclidienne) et de plus en plus l'informatique, car les calculs à mettre en œuvre nécessitent
l'emploi d'ordinateurs : l'informatique a révolutionné la pratique de la statistique en permettant la prise
en compte de données multidimensionnelles ainsi que l'exploration rapide par simulation de
nombreuses hypothèses.
Dans des domaines très différents comme le domaine scientifique, sociologique, médical, les sciences
humaines..., on s’intéresse à de nombreux phénomènes dans lesquels apparaît souvent l’effet du hasard.
Ces phénomènes sont caractérisés par le fait que les résultats des observations varient d’une expérience
à l’autre.
Une expérience est appelée aléatoire s’il est impossible de prévoir son résultat et si, répétée dans des
conditions identiques, elle peut donner, ou aurait pu donner, si l’expérience est unique, des résultats
différents. En général, les résultats obtenus varient dans un certain domaine, certains résultats
apparaissant plus fréquemment que d’autres. Ils peuvent être visualisés par des diagrammes, des
histogrammes, des courbes cumulatives de fréquences, etc., et être caractérisés par quelques valeurs numériques
telles que la moyenne arithmétique, la médiane, le mode, la variance...
Le mot probabilité est passé rapidement dans le langage courant bien que la théorie des probabilités soit
une branche relativement récente des théories mathématiques. Le concept des probabilités semblait être
connu des Grecs et des Égyptiens. Cependant, ce n’est que vers le milieu du XVIIe siècle que l’on peut
situer le début de cette théorie. D’abord limitée à l’étude des jeux de hasard (jeux de pile ou face,
roulettes, jeux de cartes...), elle s’est rapidement étendue à tous les domaines de la Science, en Physique
(théorie du potentiel, physique statistique, physique corpusculaire...), en Informatique, en Économie, en
Génétique, en Psychologie... L’influence des jeux de hasard se retrouve encore dans certaines
expressions, comme l’espérance mathématique qui était l’espérance du gain, pouvant être parfois une
perte. Le mot probabilité ou l’adjectif probable est bien souvent synonyme du mot chance.
Alors que la théorie du calcul des probabilités s’est développée rapidement au cours du XXe siècle, le
concept de probabilité soulève encore de nombreuses controverses non entièrement résolues.
Cependant, on peut distinguer deux Écoles et différents concepts

6
École objective
La probabilité d’événements répétitifs est définie à partir de la fréquence d’apparitions de ces
événements. On distingue différents concepts :
─ L’approche fréquentiste ou fréquentielle. C’est la théorie de Laplace, Von Mises ; elle est fondée sur la
notion d’épreuves répétées et indépendantes, la probabilité étant définie comme la limite de la
fréquence relative des observations.
─ La notion de probabilité tirée des jeux de hasard. La probabilité est le quotient du nombre de cas
favorables par le nombre de cas possibles, mais chaque cas étant supposé également possible, donc
équiprobable, on définit encore la probabilité à partir de la probabilité !
─ L’approche axiomatique ou mathématique. Kolmogorov a introduit, au début du XXe siècle (1933), les
concepts probabilistes c’est-à-dire le modèle probabiliste. À partir d’axiomes, il a construit une
théorie parfaitement logique et cohérente, le mot hasard n’intervenant pas. Cette axiomatique
repose essentiellement sur des concepts mathématiques généraux, principalement sur la théorie
de l’intégration et de la mesure. La probabilité étant alors une mesure particulière, tous les résultats de la
théorie de la mesure lui sont applicables.

L’école subjective
Elle associe, à la fréquence observée de la réalisation d’un événement, un degré de confiance (ou de
croyance) qui permet d’évaluer la probabilité de cet événement. Elle a été développée principalement
par Keynes, De Finetti, Savage...
Elle va même jusqu’à nier l’existence de probabilités objectives. Le traité de probabilités de De Finetti
commence en effet par la probabilité n’existe pas.
Elle prend beaucoup d’importance dans les théories de la décision en associant la probabilité des
événements à celle de leurs conséquences. Mais la difficulté est d’évaluer la première probabilité, c’est-à-
dire la probabilité a priori et l’importance des conséquences dépend des utilisateurs.

Les arbitrages économiques entre différents projets techniques visant à résoudre un problème (par
exemple, pour justifier la construction d’une nouvelle route, d’une nouvelle usine, ou bien pour décider
d’investir dans un changement technologique majeur comme les véhicules électriques ou la production
d’énergie électrique éolienne) nécessitent de modéliser des scénarios micro- et macro-économiques sur
des horizons de temps de plusieurs années, voire de plusieurs décennies, afin d’évaluer l’espérance
mathématique des retours sur investissements. Ces arbitrages sont souvent stratégiques pour permettre
l’adaptation aux changements globaux.

7
Chapitre 1 : Dénombrement ou Analyse combinatoire

Elle désigne un ensemble de méthodes qui permet de déterminer le nombre de tous les résultats
possibles d’une expérience aléatoire donnée. Elle concerne le dénombrement des configurations
(dispositions) que l’on peut former à partir des éléments d’un ensemble fini. Ces méthodes de
dénombrements sont utiles pour le calcul des probabilités.

Une expérience aléatoire est une expérience dont l’ensemble des résultats possibles est connu avec
certitude mais le résultat ou l’issu n’est pas connu d’avance. Il est impossible d’en prévoir le résultat,
c’est-à-dire, si répétée dans les mêmes conditions, elle peut donner des résultats différents, dans un
ensemble d’issues considérées comme possibles.

1. Ensembles et opérations
Rappel : un ensemble est constitué d’éléments, et que ces éléments sont tous distincts. Une partie,


ou sous-ensemble, de E contient quelques éléments de E. N’oublions pas l’ensemble vide, noté
, qui ne contient aucun élément, mais qui est très utile.
Inclusion

note ⊂ .
Un ensemble est inclus dans un ensemble lorsque chaque élément de appartient aussi à . On
est donc un sous-ensemble de .

Réunion de deux parties de


Étant donnés deux parties , la réunion ∪ est la partie de formé des éléments de
appartenant soit à soit à . Les ensembles peuvent avoir des éléments en commun :

ou bien ne pas en avoir

8
La réunion est associée au mot « OU » :
∈ ∪ ↔ ( ∈ ) ( ∈ )
Il s’agit du « ou » que l’on appelle « inclusif » : un élément de ∪ appartient à ou à , et il peut
très bien appartenir aux deux ensembles.
La réunion se généralise évidemment à un nombre quelconque de sous-ensembles de .
Propriétés de la réunion de deux parties
Pour tout ensembles , on a :

∪ = ∪ ; ∪ = ; ∪∅=
Si ⊂ , alors ∪ =

Intersection de deux parties de


Étant donnés deux sous-ensembles , l’intersection ∩ est la partie de formée des
éléments appartenant à la fois à et à .

L’intersection est associée au mot « ET » :


∈ ∩ ↔ ( ∈ ) ( ∈ )
La réunion se généralise évidemment à un nombre quelconque de sous-ensembles de .
Propriétés de l’intersection
Pour tout ensembles , on a :

∩ = ∩ ; ∩ = ; ∩∅=∅; ∩ =
Si ⊂ , alors ∪ =

Parties disjointes

élément de qui soit à la fois dans et dans . Plus généralement, on dit que les n parties ; ⋯ ;
On dit que deux parties sont disjointes lorsque leur intersection est vide : il n’existe aucun

de sont disjointes lorsque ∩ ! = ∅ pour tout " ≠ $. Cette notion se généralise à une infinité de
parties de , évidemment.

9
Complémentaire d'une partie de

complémentaire de dans , et se note ̅.


Si est une partie de , l’ensemble des éléments de qui n’appartiennent pas à s’appelle

On a évidemment
'= ;
& = ∅; ∅ ̅( ) "($ ") (( ∩ ̅ = ∅) ; = ∪ ̅
&&&&&&&
∪ = ̅∩ &
&&&&&&&
∩ = ̅∪ &

Ces deux relations avec le complémentaire se généralisent à un nombre quelconque de parties de .

Partition de E
Voici une notion sans doute nouvelle, et très importante en probabilités.
Définition. Une famille ; *; ···; de parties non vides de forme une partition de lorsque :
Elles sont disjointes : ∩ ! = ∅ pour tout " ≠ $.
Leur réunion est égale à :

, ≡ ∪ * ∪⋯∪ =
-

Produit d’ensembles

Soient / deux ensembles quelconques.

Définition : le produit × / est l’ensemble des couples ( , 1) lorsque décrit et 1 décrit /.

Exemple

Si = 2, 3, 4 et / = 1, 2 alors,

× / = (2, 1), (2, 2), (3, 1), (3, 2), (4, 1), (4, 2)

2. Cardinal d’un ensemble

Définition 1.1 : un ensemble non vide est dit fini s’il existe un entier ) et une bijection de (1,K, n )
sur . Lorsqu’il existe, l’entier ) est unique et est noté 728 | | : c’est le cardinal ou le nombre
d’éléments de .
10
Définition 1.2 : Un ensemble A est dit dénombrable s’il existe une bijection de ; sur A . Un ensemble
A est dit infini non dénombrable s’il n’est ni fini, ni dénombrable.

Quelques propriétés importantes sur les cardinaux


Soient A et B deux parties d’un ensemble donné
sont disjoints c’est à dire ∩ = ∅ alors | ∪ | = | | + | |;
plus généralement si , * ,· · · ,
i. Si
ii. sont disjoints, alors le cardinal de la réunion des est égal

En particulier, si , * ,· · · , est une partition de , alors | | = ∑ - | |


à la somme des cardinaux des .

| × | = | | × | |. En effet, si = 2 , ⋯ , 2 et = 3 , ⋯ , 3A , l’ensemble produit ×


iii.

= 2 , 3 compte ) × B éléments. En généralisant, on a :


iv.

728 ( × * × ⋯ × C ) = 728 ( ) × 728 ( * ) × ⋯ × 728 ( C )


v. Card ( A ∪ B ) = CardA + CardB − Card ( A ∩ B ) ;

3. Structure de l’ensemble des élements et des dispositions


Considérons un ensemble à ) elements. Si nous représentons chaque élements de l’ensemble par une
letter de l’alphabet français, on peut considerer les elements comme:
- Indiscernables
- Discernables
- Partiellement discernable (à l’intérieur de l’ensemble, on peut faire des sous groups d’éléments
indiscernables).
Il est également possible de former des dispositions à partir de ces elements d’un ensemble.
Une disposition est un sous ensemble ordonnées ou non d’un ensemble. Ces dispositions peuvent être:
- Ordonnées : l’ordre d’obtention d’un élément est important. (Ex. les éléments constituant la plaque
minéralogique d’un véhicule).
- Non ordonnées : l’ordre d’obtention d’un élément n’est pas important, on n’en tient pas
compte dans la caractérisation de la disposition.
- Sans repetition : c’est une disposition où un élément peut apparaître 0 ou 1 fois
- Avec repetition : un élément peut figurer plus d’une fois
Pour faciliter le dénombrement, il faut préciser la structure de l’ensemble des elements (elements
discernables ou non); et la structure des dispositions (dispositions ordonnées ou non, avec répétition ou
non).

11
SEANCE N°2
Objectif : à la fin de la séance, les étudiants seront capables de comprendre et d’utiliser la règle générale
de dénombrement (permutations, arrangements et les combinaisons).

Chapitre 1 : Dénombrement ou Analyse combinatoire

4. Permutations (dispositions ordonnées)


= , *, ⋯ ,
simplifier les notations, on suppose que = 1,2, ⋯ , ) .
Soit un ensemble fini à) éléments (ou objets). On se donne un ensemble , pour

Dans un ensemble, il n’y a pas d’ordre, et l’ensemble = 1,2,3 est identique à l’ensemble = 2,1,3 .
Exemple

Par contre, on peut s’intéresser aux suites de trois éléments distincts formées avec les éléments de .
Dans le mot « suite », il y a un ordre sous- entendu, c’est-à-dire qu’il y a un premier terme, un deuxième
terme et un troisième terme. Les suites possibles de 3 termes construites à partir de sont au nombre
de six, et elles sont toutes distinctes :
(1,2,3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1)
Chacune de ces suites s’appelle une permutation des éléments de .
On appelle permutation des éléments d’un ensemble toute suite ordonnée des éléments de .
a. Permutations sans répétition EF
Soit un ensemble de ) objets discernables ; on appelle permutation sans répétition de ces ) objets, toute
disposition ordonnée de ces ) objets. Par conséquent, ces ) objets ne diffèrent que par l’ordre. Dans le
cas présent, chaque élément de l’ensemble intervient une et une seule fois.
EF = F! = F(F − I) × ⋯ × J × I K LF≥I
)! Se lit « factorielle ) »
Exemple 1 :
Cherchons le nombre d’anagrammes du prénom ALICE. Un anagramme est une permutation
quelconque des lettres d’un mot, que cela ait un sens en français ou non.

Solution
Ici, nous avons 5 lettres différentes (donc un ensemble formé de 5 éléments discernables). L’ordre
d’apparition des lettres est pris en compte sinon, un mot comme ILACE serait identique à ELACI. On
se retrouve donc dans le cas d’une disposition ordonnée. Les 5 lettres étant distinctes, il ne sera pas
possible d’avoir une répétition, chaque lettre ne pouvant apparaitre qu’une seule fois dans la
permutation. Le nombre d’anagrammes sera donc obtenu en faisant une permutation sans répétitions
des 5 lettres. Le résultat est donné par :
NO = 5! = 120
On obtient ainsi 120 anagrammes distincts.

Exemple 2 : considérons 4 personnes qui prennent place successivement sur un banc à 4 places.
Combien de façons possibles ces personnes peuvent-elles s’assoir ?

Solution
• La 1ère personne a le choix entre 4 places, il y a donc 4 dispositions possibles pour cette personne.
• La 2e personne n’a le choix qu’entre 3 places, il y a donc 3 dispositions possibles pour cette
personne, donc 12 (soit 4*3) possibilités pour ces deux personnes.
• La 3e personne n’a le choix qu’entre 2 places, il y a donc 2 dispositions possibles pour cette
personne, donc 24 (soit 4*3*2) possibilités pour ces trois personnes.
La 4e personne n’a le choix qu’entre 1 place, il y a donc 1 disposition possible pour cette personne,
donc 24 (soit 4*3*2*1) possibilités pour ces quatre personnes.

b. Permutations avec répétition

Soit un ensemble de ) éléments partiellement discernables (formé de k groupes discernables d’éléments


indiscernables).
W8 X 1 = Y é[éB ) ( ") "(4 8)23[ (
⎧W8 X 2 = \ é[éB ) ( ") "(4 8)23[ (

) = W8 X 3 = ] é[éB ) ( ") "(4 8)23[ (
⎨ ⋮

⎩W8 X _ = ` é[éB ) ( ") "(4 8)23[ (
On appelle permutation avec répétition de ces éléments toutes dispositions ordonnée de ces
éléments dans chaque permutation avec répétition.

Exemple
Cherchons le nombre d’anagrammes de « CONSTITUTIONNEL ».
Solution

cet ensemble, on a un groupe indiscernable de 3 « a », un autre de 3 « ; », un autre de 2 « b », de 2 « i ».


Dans le cas présent, on a un ensemble formé de 15 éléments (lettres) partiellement discernables. Dans

Si les 15 lettres étaient distinctes (discernables), il y aurait 15! anagrammes (permutations possibles).
Mais on rencontre trois fois la lettre « t », par exemple. En les considérant comme distincts, nous avons
compté 3! fois chaque anagramme : si l’on peint les trois « t » de couleurs différentes, il y a 3! façons de

13
le « t ». Il faut aussi le diviser par 3! (pour le « ) »), par 2! (pour le « i ») et par 2! Encore pour le « o ».
les permuter entre elles, mais cela donne le même anagramme. Il faut donc diviser notre 15! par 3! pour

Les 15 lettres n’étant pas distinctes, il est possible d’avoir une répétition, chaque lettre pouvant
apparaitre autant de fois qu’elle apparait dans l’ensemble dans la permutation. Le nombre
d’anagrammes sera donc obtenu en faisant une permutation avec répétitions des 15 lettres. Le résultat
est donné par :
15!
cO=
2!* 3!*

5. Arrangements (les dispositions ordonnées)


Soit K ∈ ℕ∗ et un ensemble fini à éléments.

Exemple :

Soit = 1,2,3, 4 . Regardons les suites ordonnées de deux éléments distincts pris dans : ce sont
donc les suites (2, 3), avec 2 et 3 distincts dans , et la suite (2, 3) est différente de la suite (3, 2). On
obtient
(1, 2), (2, 1), (1, 3), (3, 1), (1, 4), (4, 1), (2, 3), (3, 2), (2, 4), (4, 2), (3, 4), (4, 3)
Une telle petite suite s’appelle arrangement des quatre éléments de deux à deux.

a. Arrangements sans répétition gF


K

Soit un ensemble de ) objets discernables. On appelle arrangement sans répétition ou arrangement


de X objets parmi n, toute disposition ordonnée dans laquelle chaque élément ne peut figurer qu’une
seule fois.
i
= )() − 1)() − 2) ⋯ () − X + 1) 2j 4 X ≤ )
)!
=
i
() − X)!
Exemple : considérons 7 personnes qui sont candidats pour occuper 3 postes. De combien de façons
différentes peut-on pourvoir ces 3 postes ?
Pour le 1er poste, il y a 7 possibilités ;
Pour le 2e poste, il y a 6 possibilités ;
Pour le 3e poste, il y a 5 possibilités ;
7! 7! 7 * 6*5* 4!
Au total, il y a 7*6*5 = 210 possibilités soit A73 = = = = 210
( 7 − 3)! 4! 4!

b. Arrangement avec répétition lF


K

Soit un ensemble de n objets discernables. On appelle arrangement avec répétition de X objets parmi n,
toute disposition ordonnée dans laquelle chaque élément pouvant être répété jusqu’à X fois.
lF = FK
K

14
Exemple : supposons que dans l’exemple précédant, il y a possibilité de cumul des 3 postes, même par
une seule personne. De combien de façons différentes peut-on pourvoir ces 3 postes ?
Pour le 1er poste, il y a 7 possibilités ;
Pour le 2e poste, il y a 7 possibilités ;
Pour le 3e poste, il y a 7 possibilités ;
Au total, il y a 7*7*7 = 343 possibilités soit 7 3 = 343

6. Les combinaisons (dispositions non ordonnées)

a. Combinaisons sans répétition mFKn oF


K

Soit un ensemble de ) objets discernables. On appelle combinaison sans répétition (ou combinaison)
de X objets parmi n toute disposition non ordonnée sans répétition de X objets pris parmi n. sa formule
est :
F F!
p q = oF = I≤K≤F
K
K K! (F − K)!
Exemple : soit 10 personnes volontaires pour jouer au bridge (jeu de cartes). Combien d’équipes de 4
personnes peut-on constituer ?
Deux équipes sont différentes si elles diffèrent par leur composition ; l’ordre n’intervient pas. Le
nombre d’équipe est donc donné par :

10  10! 10*9*8*7 *6!


 = = = 5*3* 2*7 = 210
 4  4!6! 4*3* 2*1!6!

b. Combinaison avec répétition rF


K

Soit un ensemble de objets discernables. On appelle combinaison avec répétition de p objets parmi
toute disposition non ordonnée sans répétition de objets pris parmi . sa formule est :
F+K−I (F − I + K)!
rF = p q=
K
K K! (F − I)!

Remarque : L’utilisation de la fonction factorielle est parfois difficile en raison de l’importance des

Stirling. Si n supérieur à 10, une valeur approximative de )! peut être obtenue à partir de :
calculs qu’elle implique. Il est alors possible d’opérer une simplification en recourant à la formule de

n
n
n! =   2π .n avec e ≈ 2.71828
e
Propriétés des combinaisons
n n n n 
1.   =   = 1 et   =  =n
0 n  1   n − 1
n  n 
2.   =  
 p n − p
 n +1   n   n 
3.  = + 
 p + 1  p + 1  p 
15
n
n 
( x + y) =   x p y n− p (Binôme de Newton)
n
4.
p =0  p 

n
n 
5.  p  = 2 n

p =0  

Activités
Exercice
1. On doit choisir deux représentants dans une classe de 40 élèves. Quel est le nombre de choix
possibles ?
2. On doit choisir un président et un vice-président dans un groupe de 40 personnes. Quel est le
nombre de choix possible ?
3. Un chef d’entreprise doit choisir quatre employés (les quatre postes sont similaires) parmi vingt
candidats (13 femmes et 7 hommes).
a. Quel est le nombre de choix possible ?
b. Quel est le nombre de choix possibles si le chef d’entreprise veut :
(i) Deux hommes et deux femmes
(ii) Au moins un homme et au moins une femme.
4. On a une table rectangulaire permettant d’asseoir 4 personnes sur chacun des grands côtés. 4
hommes et 4 femmes s’y assoient. Il n’y a personne sur les petits côtés.
a. Combien ont-ils de façons possibles de s’asseoir ?
b. Combien ont-ils de façons de s’asseoir pour que chaque homme soit en face d’une femme ?
c. Combien ont-ils de façons de s’asseoir pour que chaque personne soit en face et à côté
d’une personne de sexe opposé ?

Exercice 2 :
Au bridge, une « main » est constituée de 13 cartes placées dans un ordre quelconque. Calculer le
nombre de « mains » distinctes susceptibles d’être formées à partir d’un jeu de 52 cartes ? Reprendre la
question au cas où on fait 13 tirages successifs avec remise pour constituer une « main ».

Exercice :
Une urne contient 10 boules rouges, 5 noires, 3 jaunes et 2 vertes. On tire quatre boules sans remise.
1. Combien a-t-on de tirages possibles ?
2. Combien a-t-on de tirages avec exactement 2 boules rouges ?
3. Combien de tirages avec une boule de chaque couleur ?
4. Combien a-t-on de tirages sans aucune boule rouge ?
5. Combien a-t-on de tirages avec au moins une boule rouge ?

16
SEANCE N°3

Objectifs : à l’a fin de cette séance, les étudiants seront capable de maîtriser l’utilisation des règles de
calcul des probabilités, et l’appliquer aux probabilités conditionnelles.

Chapitre 2 : Axiomes de calcul de probabilités


1. Introduction
Expérience aléatoire : expérience dont on connait avec certitude l’ensemble des résultats possibles
mais l’issue est incertaine (c'est-à-dire on ne peut pas prévoir le résultat).
Issue, éventualité, résultat : résultat d’une expérience aléatoire, noté ω .
Univers des possibles : ensemble des résultats d’une expérience aléatoire, noté Ω .
Événement : ensemble d’éventualités associées à une expérience : A ⊂ Ω .
Événement élémentaire : événement composé d’une seule issue : {ω} .
Événement impossible : ∅ c'est-à-dire un événement qui ne peut pas se réaliser avec l’expérience

Événement certain : dont la réalisation est sûre avec l’expérience réalisée. Ω


aléatoire réalisée.

simultanément. Il s’en suit que ∩ = ∅


Événement incompatible ou exclusif : lorsque les deux événements ne peuvent se réaliser

Événements indépendants : lorsque la réalisation (ou la non réalisation) de l’un ne change pas la
probabilité d’apparition de l’autre.
Événements dépendants : lorsque la réalisation (ou la non réalisation) de l’un a une incidence sur
l’autre.

Exemple : introductif
Imaginons une expérience consistant à lancer un dé non truqué à six faces. Le résultat du lancer peut
être l’un quelconque des six nombres : 1, 2, 3, 4,5, et 6.
On appelle univers, noté Ω l’ensemble de tous les résultats possibles de l’expérience, ainsi
Ω = {1, 2,3, 4,5,6} . Lorsque l’on modélise une telle expérience, on peut s’intéresser à la réalisation
éventuelle de certains événements.
Les « questions » que l’on peut se poser sont par exemple : le résultat du lancer est le chiffre 1, le dé
s’arrête sur un nombre impair ou bien encore le chiffre qui apparait est plus grand que 2. De telles
éventualités sont appelées événements associés à l’expérience. On remarque donc qu’à chacun de ces
événements peut être associé un sous ensemble de l’ensemble Ω .

Ainsi, « le résultat du lancer est le chiffre 1 » correspond à l’ensemble {1} .


À « le dé s’arrête sur un nombre impair » est associé l’ensemble {1,3,5} inclus dans Ω .
De même, « le chiffre qui apparait est pus grand que 2 » est associé à l’ensemble {3, 4,5, 6} . On constate
donc que la notion d’événements est liée aux sous ensembles de l’univers Ω .

2. La tribu des événements

Ω . L’ensemble de tous les événements est appelé tribu des événements est noté. ℱ.
Définition soit Ω un Univers (ensemble fondamental). Un événement de Ω est un sous-ensemble de

Définition soit Ω un Univers et ℱ la tribu des événements de Ω .


1. L’ensemble vide ∅ est appelé événement impossible et Ω événement certain.
2. Si A ∈ F , l’événement A = Ω \ A est appelé événement contraire de .
3. On dit qu’un événement A ∈ ℱ implique (ou entraine) l’événement B ∈ ℱ si A ⊂ B .
4. On dit que deux événements A, B ∈ F sont incompatibles si A ∩ B = ∅ .

3. Probabilité (axiomatique de Kolmogorov)


Définition : Une probabilité sur est une application N: ℱ → x0, 1y vérifiant :
1) Pour tout événement , 0 ≤ N( ) ≤ 1
2) P ( Ω ) = 1

3) Si A ∩ B = ∅, alors P ( A ∪ B ) = P ( A ) + P ( B )

C’est ce qui est connu sous l’appellation de ` − 2 " "j" é N


4) pour toute réunion finie ou dénombrable d’événements incompatibles.

5) Généralisation à une suite d’événements. Soit un espace probabilisé ( Ω, , P ) ; on a :


(i) mais pour n’implique pas que
(ii) P ( A ) = 1 − P ( A)
P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B )
Si ⊂ , alors N( ) ≤ N( ) (inégalité de Boole)
(iii)

N(⋃ ) ≤ ∑ N( ) (il y a stricte égalité si les évènements


(iv)
(v) sont deux à deux
incompatibles)

Théorème : Soit Ω = {ω1 , ω2 ,K , ωn } un univers fini. Si p1 ,K, pn sont les probabilités des
événements ω1 ,K, ωn , on a nécessairement p1 + p2 + L + pn = 1 . La probabilité N est unique et est
définie par : P ( A) = p i ∀A ∈ F .
ωi ∈A

Equiprobabilité : on a équiprobabilité lorsque les événements élémentaires ω1 ,K, ωn ont la même


1
probabilité de se produire : p1 = L = pn = . On a alors :
n
CardA nbre de cas favorables
P ( A) = =
card Ω nbre de cas possibles

18
4. Probabilité conditionnelle

Soit ( Ω, , P ) un espace probabilisé et B ∈ avec P ( B ) ≠ 0 . Pour A ∈ , on appelle probabilité de


sachant , le réel
P ( A ∩ B)
P ( A B) = .
P ( B)
C’est la probabilité que a de se réaliser lorsque s’est déjà réalisé.
Soit A, B ∈ tels que P ( A ) ≠ 0 et P ( B ) ≠ 0 .
Lorsque les événements sont incompatibles, l’événement ne se réalisera pas si est réalisé.

Activités
Exercice
Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements suivants :
(i) Trois piques
(ii) Aucun pique
(iii) Un pique et deux "non-piques"
(iv) Au moins un pique
(v) Trois cartes de la même famille
(vi) Trois cartes de familles différentes
(vii) Trois as
(viii) Aucun as
(ix) Trois cartes rouges
lorsque :
1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le jeu.
2. On suppose que les cartes sont tirées simultanément au hasard.

Exercice 2
Dans un club sportif, il y a 75 adultes (dont 45 femmes) et 45 enfants (dont 25 filles). On interroge au
hasard un adhérent du club. Quelle est la probabilité que cet adhérent :
– soit un adulte ;
– soit de sexe masculin ;
– soit une femme adulte ;
– soit un adulte ou soit de sexe féminin.

19
, N( ) = 0.4, N( ) = 0.2 N( ∩ ) = 0.1
Exercice 3

a. calculer N( | )
1. Pour deux événements

b. calculer N( | )

, N( ) = 0.4, N( ) = 0.2 N( | ) = 0.6


c. les événements sont-ils indépendants ?

a. Calculer N( ∩ )
2. Pour deux événements

b. Calculer N( | )
, N( ) = 0.4, N( ) = 0.2
a. Calculer N( ∩ )
3. Pour deux événements indépendants

b. Calculer N( | )
c. Calculer N( ∪ )
4. Une expérience résulte de l’un des trois événements mutuellement indépendants , 7. Il
est connu que N( ) = 0.30, N( ) = 0.55 N(7) = 0.15. Calculer les probabilités

a. N( ∪ )
suivantes :

b. N( ∩ )
c. N( | )
d. N( ∪ 7)
e. Les événements 7 sont –ils indépendants ? expliquer

Exercice 4

Une enquête exhaustive sur un campus universitaire montre que sur les 32564 étudiants, 23522 lisent la
revue Notre campus publiée par l’Université, 18859 lisent la revue La Vie étudiante publiée par le BDE, et
11422 étudiants lisent Notre campus et La Vie étudiante.
1. On interroge au hasard un étudiant du campus. Calculez la probabilité que cet étudiant :
– ne lise ni Notre campus, ni La Vie étudiante;
– lise Notre campus et ne lise pas La Vie étudiante.
2. On interroge au hasard deux étudiants du campus et on admet que leurs réponses sont
indépendantes. Calculez la probabilité
– que les deux étudiants ne lisent aucune des deux revues ;
– qu’un étudiant lise les deux revues et que le second n’en lise aucune.

20
SEANCE N°4

Objectifs : à l’a fin de cette séance, les étudiants seront capable de comprendre le principe des
probabilités composées et de Bayes

Chapitre 2 : Axiomes de calcul de probabilités

Principe des probabilités composées


Ce principe découle des probabilités conditionnelles. Soit un espace probabilisé et soient
deux événements définis sur cet espace tels que et , on a alors

On a la double égalité suivante :

Événements indépendants
L’événement est indépendant de l’événement si la probabilité de réalisation de l’événement n’est
pas modifiée par une information concernant la réalisation de l’événement , c’est-à-dire si :

P ( A ) = P ( A B ) ou P ( B ) = P ( B A )

En utilisant le principe des probabilités composées, les égalités précédentes peuvent s’écrire de manière
équivalente

P ( A ∩ B ) = P ( A) × P ( B )

Exemple 1 : Une enquête auprès des clients a révélé que 60% des clients utilisaient la marque Favorite,
tandis que 30% utilisaient la marque Super. 15% des clients utilisaient les deux marques. Combien de
pourcent des utilisateurs de Favorite utilisent Super et combien de pourcent des utilisateurs Super
utilisent Favorite ?

Solution : pour répondre à la question, on utilise les formules des probabilités conditionnelles. D’après
les informations de l’enquête, on a :
N(/) = 60%; N(~) = 30%; N(~ ∩ /) = 15%
N(~ ∩ /) 15%
N(~|/) = = = 25%
N(/) 60%
N(~ ∩ /) 15%
N(/|~) = = = 50%
N(~) 30%

Note : événements incompatibles et événements indépendants


• la propriété « les événements A et B sont incompatibles » implique :
P ( A ∪ B ) = P ( A) + P ( B )
• la propriété « les événements A et B sont indépendants » implique :
P ( A ∩ B ) = P ( A) × P ( B )

Événements mutuellement indépendants


Les événements , sont mutuellement indépendants si, pour toute partie de l’ensemble des
indices, on a :

Remarque :
Si sont deux événements indépendants, alors :

Ce qui implique que :


et
C'est-à-dire que sont indépendants ; sont indépendants ; et sont également
indépendants.

5. Probabilité de Bayes ou de causes


La probabilité de Bayes permet de déterminer la probabilité pour qu'un événement qui est supposé déjà
réalisé soit dû à une certaine cause plutôt qu'à une autre. C'est ce qui lui a valu le nom théorème des
probabilités de causes attribué par Bayes.

5.1. Première forme du théorème des probabilités totales


Position du problème

22
On considère (Ω, ℱ, N *
∪ * Ω (on dit que les événements
un espace probabilisé et soient un ensemble d'événement
incompatibles vérifiant forment un système complet
d'événements).
Tout élément de A provient soit de ou de *. On a donc:
∩ ∪ * ∩
N N ∩ ?N * ∩
N N | .N ?N | * .N *

N ∩ N | .N
N |
N N | .N ?N | * .N *

5.2. Deuxième forme du théorème des probabilités totales


On considère un événement A de probabilité non nulle et l’ensemble ∈ ⋯, de toutes les causes
possibles de réalisation de cet événement ; cet ensemble forme un ensemble complet d’événements et
l’événement A se produit en même temps qu’un et un seul des .

∩ ∪ ∩ * ∪ ⋯∪ ∩

N • N€ ! ∩ •
!-
N N | .N ? N | * .N * ? ⋯? N | .N
Cette formule représente la formule des probabilités totales. On en déduit le théorème de Bayes qui est
sous la forme:
N ∩ N | .N
N C|
C C C
N ∑!- N € ‚ ! •. N€ ! •

23
Activités
Exercice :
Soit trois urnes, la 1ère contenant une boule noire et une boule rouge, la 2e une boule noire et deux
boules rouges, la 3e deux boules noires. On choisit au hasard une urne et puis une boule à l’intérieur de
cette urne. Quelle est la probabilité de tirer une boule rouge ?

Exercice 1 :
Une population est constituée de 10 Français, 10 Allemands. 7 Français sont bruns, 3 blonds, 1
Allemand est brun, 9 blonds. On rencontre un blond, quelle est la probabilité qu’il soit Allemand ?

Exercice 2
Une entreprise utilise 3 machines différentes A, B, C pour fabriquer des pièces. 40 % sont fabriquées
par A, 30 % par B et 30 % par C. La machine A produit 2 % de pièces d´défectueuses, B 4 % et C 5 %.
a. On prélève une pièce au hasard. Probabilité qu’elle soit défectueuse.
b. On prélève une pièce. Elle est défectueuse. Probabilité qu’elle vienne de A.
c. On prélève une pièce. Elle est saine. Probabilité qu’elle vienne de C.

Exercice 3
Pour un système de crédit à la clientèle on distingue trois types de dossiers : les dossiers aboutissant en

On a évalué sur la base d’expériences antérieures les proportions respectives des trois catégories à 1/5,
contentieux, les dossiers à difficultés temporaires ou légères et les dossiers sans difficultés de paiement.

3/10 1/2. D’autre part, on dispose pour chaque dossier d’un score d’appréciation global du client
rapporté à l’une des deux modalités sui vantes : élevé ou bas. Enfin, on sait que 90% des dossiers en
contentieux correspondaient à un score bas, que 60% des dossiers à difficultés légères correspondaient
à un score bas, et que 85% des dossiers sans difficultés correspondaient à un score élevé. Si on tire un
dossier au hasard pour lequel le score est bas, quelle est la probabilité qu’il ait abouti en contentieux ?
(respectivement qu’il n’ait donné lieu à aucune difficulté de paiement ? qu’il ait engendré des difficultés
légères ?)

24
SEANCE N°5

Objectifs : à la fin de cette séance, les étudiants seront capables de comprendre les variables aléatoires
et leur utilisation dans l’analyse en économie et en gestion.

Chapitre 3 : Variables aléatoires

1. Généralités sur les variables aléatoires réelles

Définition : une variable aléatoire est une variable qui est associée avec certaine
probabilité d’être observée. Une variable aléatoire discrète (par opposition à
continue) est supposée avoir de valeur finie et distinct. L’ensemble des valeurs
possibles d’une variable aléatoire et ses probabilités associées est appelé une
distribution de probabilité. La somme de toutes les probabilités est égale à 1.

1.1. Variables aléatoires réelles

Définition : Une variable aléatoire réelle (v.a.r) sur ( Ω, , P ) est une application.
„: Ω → ℝ. On note X ( Ω ) = { X (ω ) , ω ∈ Ω} l’ensemble des valeurs (distinctes) prises
par . Lorsque X ( Ω ) est fini ou dénombrable, on dit que est une variable
aléatoire discrète. Lorsque X ( Ω ) est infini non dénombrable (c'est-à-dire,
lorsque peut prendre toutes les valeurs d’un intervalle réel), on dit que est
une variable aléatoire continue.
Pour tout ∈ ℝ, on note

( X = x ) = {ω ∈ Ω : X (ω ) = x} et ( X ≤ x ) = {ω ∈ Ω : X (ω ) ≤ x}
Exemple :

On jette n fois une pièce de monnaie. L’espace fondamental est Ω = ( P , F ) où P


n

désigne Pile et F face ; la tribu associée est P ( Ω ) des parties Ω . On peut


s’intéresser
• Soit aux résultats élémentaires :
ω = (ω1 , ω2 ,K , ωn ) où ωi désigne soit pile, soit face.
On obtient, par exemple la succession ω = ( P, F , F , F , P, F ) pour n = 6 .
• Soit au nombre de fois où « pile » est sorti au cours des jets.
On obtient par exemple, 2 fois pile quand on a lancé 6 fois la pièce.
Si X (ω ) désigne le nombre de fois que « pile » apparait dans ω , avec
ω = ( P, F , F , F , P, F ) , X ( ω ) = 2 .

1.2. Loi d’une variable aléatoire discrète

Soit une variable aléatoire discrète. Comme X ( Ω ) est fini ou dénombrable on


peut le décrire par : X ( Ω ) = { x1 , x2 ,K , xn ,K} = { xi : i ∈ I } où I est fini ou ℝ.
Dans la suite, on désigne par pi la probabilité de l’événement X = xi :
pi = P ( X = xi ) .

Définition : On appelle loi (ou distribution) de probabilité de X la donnée des couples


{ }
( xi , pi ) : i ∈ I . On la présente généralement sous forme de tableau, ou sous forme
graphique.

Exemple :
On jette 2 dés équilibrés et on s’intéresse à la somme S des points figurants sur
les 2 dés. On définit les espaces Ω et Ω′ par :

Ω = (1, 2,K , 6 )
2

• Ω′ = ( 2,3,K ,12 )

Ω est l’ensemble fondamental ou ensemble des couples ω = ( n1 , n2 ) , n1 et n2


prenant des valeurs entières entre 1 et 6, bornes comprises, et Ω′ est l’ensemble
des résultats possibles, c’est-à-dire l’ensemble des valeurs que la somme S peut
prendre.

26
Soit l’application de Ω dans Ω′ telle que : X (ω ) = ( n1 , n2 )
P (ω ) = 1 36 car tous les éléments de Ω ont la même probabilité de réalisation et le
cardinal de Ω est égal à 36.
Ainsi, P ( X = 6 ) = P {(1,5 ) , ( 2, 4 ) , ( 3,3) , ( 4, 2 ) , ( 5,1)} = 5 36

Sous la forme d’un tableau, la loi de probabilité associée à cet exemple peut être
représentée comme suit :

X =ω 2 3 4 5 6 7 8 9 10 11 12
P( X = ω) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

Histogramme de la loi de la variable aléatoire S

Fonction de répartition

Définition : soit X une v.a.r. on appelle fonction de répartition de X , la fonction


FX : → [ 0,1] définie par FX ( x ) = P ( X ≤ x ) ∀x ∈ .

La fonction de répartition d’une var X vérifie :


i) lim FX ( x ) = 0
x →−∞

ii) lim FX ( x ) = 1
x → +∞

iii) ∀a, b ∈ avec a < b, FX ( b ) − FX ( a ) = P ( a < X ≤ b )


iv) La fonction FX est croissante.

27
0 (" <


/ • X! (" ≤ ≤ ‡
⎨ !-

⎩ 1 (" ≥ C

Si {( x , p ) : i ∈ I }
i i est la loi de probabilité d’une variable aléatoire discrète, alors
p
i∈I
i =1

Fonction de répartition de la variable aléatoire S

1.3. Variables aléatoires continues

est une v.a.r. pouvant prendre toutes les valeurs d’un intervalle ou de plusieurs intervalles de ℝ.
Dans toute cette section, Ω est un ensemble infini non dénombrable. Une variable aléatoire continue

L’ensemble X ( Ω ) étant infini, il n’est plus possible de définir la loi de (sous la forme vue
précédemment).
Toutefois, la fonction de répartition est toujours définie :
/ˆ : ℝ → x0, 1y
⟼ N(„ ≤ )

Variable aléatoires continues à densité

Šˆ : ℝ → ℝ‡ positive et continue telle que :


Définition 2.1 : on dit qu’une variable aléatoire continue X est à densité s’il existe une fonction

où f X est appelée densité (de probabilité) de .

Si est une variable aléatoire continue à densité alors FX est de classe C 1 et on a

28
Une fonction Š: ℝ → ℝ est une densité si, et seulement si :
1) Š ( 4 ) ") ( 8 ℝ
2) Š ( X (" "j ( 8 ℝ

3)  f ( t ) dt = 1
−∞

Soit „: Ω → ℝ une variable aléatoire continue à densité. Alors pour tout ∈ ℝ, on a


P ( X = x ) = 0 et P ( X ≤ x ) = P ( X < x ) . De plus, pour tout a ≤ b on a :

FX ( b ) − FX ( a ) =  f ( t ) dt
b

Cette dernière égalité désigne la probabilité relative à un intervalle

Probabilité attachée à un point


Soient deux nombres réels positif :

La fonction étant continue :

D’où
Ce qui implique que la probabilité qu’une v.a. continue prenne une valeur est nulle, on dit que la loi
de est diffuse (ou continue).
Par conséquent, pour une variable aléatoire continue :

29
Activités :
Exercice 1

Soit 4 une constante et considérer la fonction de densité d’une variable aléatoire ‹ :

Š(1) = Œ 41
*
(" 0 k 1 k 2
0 2"[[ 8(
a. Trouver la valeur de 4
b. Trouver la fonction de répartition / 1
c. Calculer / 1 , et / 0.5
d. Calculer N 1 k ‹ k 1.5

Exercice :
Soit 4 une constante et considérer la fonction de densité d’une variable aléatoire ‹ :

4 2H1 (" 0 k 1 k 1
Š 1 •
0 2"[[ 8(
a. Trouver la valeur de 4
b. Trouver la fonction de répartition / 1
c. Calculer / 0.4
d. Calculer N 0.1 k ‹ k 0.6

Exercice 3

1. Soit „ un variable aléatoire réelle dont la densité de probabilité est donnée par
4 1, 2, ⋯ ,10
X •
0 2"[[ 8(
Où 4 est une constante.
a. Déterminer la valeur de 4
b. Calculer : N „ † 4 , N „ k 6 , N 2 † „ k 6 , N „ Ž 2
c. Calculer l’espérance mathématique et la variance de „

2. Soit X la distribution de probabilité d’une variable aléatoire „.


2 •
X •4 p3q (" 1, 2, 3, ⋯
0 2"[[ 8(
Trouver la valeur de 4

30
3. Soit X la distribution de probabilité de la variable aléatoire „. Trouver la fonction de
répartition / et représenter son graphique.
(" 1, 2, 3, 4, 5
X ‘15
0 2"[[ 8(

4. Soit Š la fonction définie par :


_(1 − ) (" 0 ≤ ≤ 1
Š( ) = •
0 (") )
Déterminer la constante _ pour que Š soit la densité d’une loi dont on précisera la fonction de
répartition.

5. Soit „ une variable aléatoire de densité de probabilité donnée par :


4 0< <2
Š( ) = •
0 2"[[ 8(
Où 4 est une constante.
a. Trouver la valeur de 4
b. Déterminer la fonction de répartition /( )
c. Calculer /(0.5), /(1), /(0.25)
d. Calculer N m’ < „ < 1n

31
SEANCE N°6

Objectifs : à la fin de cette séance, les étudiants seront capables de comprendre et déterminer les
indicateurs des variables aléatoires.

Chapitre 3 : Variables aléatoires

2. Indicateurs ou caractéristiques des variables aléatoires


Une différence entre la statistique descriptive et la théorie des probabilités réside dans le fait que la
première discipline vise à représenter les données de façon à les rendre plus « lisibles », tandis que la
seconde a pour objectif de fournir des modèles adaptés au traitement mathématique, donc abstraits, qui
se veulent des images, à la fois idéales et approchées de ces données.
L’utilisation simultanée de ces deux démarches doit permettre de faire apparaître les lois susceptibles de
régir les phénomènes dont proviennent les données, puis de les exprimer de manière plus précise et
maniable grâce au formalisme mathématique qui en dégage les propriétés essentielles.
Il est naturel, comme on l’a fait en statistique descriptive, de définir et d’étudier des indicateurs (ou
caractéristiques) des variables aléatoires. La motivation est la même : la loi de probabilité constitue une
grande quantité d’informations, et est souvent trop riche pour être appréhendée dans sa globalité. Il est
donc utile d’en résumer certains aspects (les mêmes que ceux envisagés en statistique descriptive) par
des valeurs numériques convenablement choisies.
Des indicateurs relatifs aux trois aspects principaux des lois de probabilité sont définis, à savoir : (i) la
tendance centrale ; (ii) la dispersion ; (iii) la forme (asymétrie et aplatissement).

2.1. Le mode
Le mode d’une variable aléatoire est la valeur pour laquelle le diagramme en bâtons ou la courbe de
densité présente son maximum. On appelle mode relatif une valeur correspondant à un maximum local
du diagramme en bâtons ou de la courbe de densité, mais en général, le mode est unique. Le mode est
un indicateur de tendance centrale.
Si la variable est continue, le mode vérifie l’égalité :

Si la variable est discrète, le mode est obtenue en résolvant la double inégalité suivante :
2.2. Espérance mathématique
L’espérance mathématique d’une variable aléatoire est aussi appelée « moyenne » ou « valeur moyenne » de
.
2.2.1. Espérance d’une variable aléatoire discrète

Soit X une variable aléatoire discrète sur ( Ω, , P ). Si la variable aléatoire est finie, elle est définie
par :
Valeurs de
Probabilités

On appelle espérance de X le réel souvent noté µ = E ( X ) =  xi pi .


i∈I
Dans le cas où la variable aléatoire est infinie, l’espérance mathématique

Soient X et Y deux va discrètes sur ( Ω, , P ). Alors,


1) E ( X + Y ) = E ( X ) + E (Y )
“„ “ „ , ∀“ ∈ ℝ
3) Pour •: ℝ → ℝ, on a €•(„)• = ∑ ∈– •( )
2)

4) (“) = “, ∀“ ∈ ℝ
Lorsque E ( X ) = 0 on dit que X est centrée. Sinon, il est toujours possible d’associer à X à une
variable aléatoire X ′ : X ′ = X − E ( X ) .

Exemple 1 :
Avec l’exemple précédent sur le lancer de 2 dés,
X =ω 2 3 4 5 6 7 8 9 10 11 12

P ( X = ω ) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

2/36 6/36 12/36 20/36 30/36 42/36 40/36 36/36 30/36 22/36 12/36
xi pi

E(X ) = 7

Exemple 2 :
Soit la variable aléatoire mesurant le nombre de lancers d’une pièce de monnaie nécessaires pour
obtenir « face » pour la première fois, en supposant qu’à chaque lancer « pile » et « face » sont
équiprobables.

Valeurs de 1 2 3
Probabilité

33
Donc ici, l’espérance mathématique car, par définition, est la limite finie, si elle existe,
de quand tend vers l’infini, ce qui donne

2.2.2. Espérance d’une variable aléatoire continue

Définition : soit „ ∶ Ω → ℝ une variable aléatoire continue à densité. On appelle espérance de X le


réel noté E ( X ) et défini par :

E ( X ) =  t f X ( t ) dt
−∞

Cette définition suppose l’intégrale du second membre absolument convergente, sinon – et même si
elle est simplement convergente, on dira que la v.a. n’a pas d’espérance mathématique

Remarque : l’espérance mathématique d’une v.a.r à densité possède les mêmes propriétés que dans le
cas discret
1) E ( X + Y ) = E ( X ) + E (Y )
2) “„ “ „ , ∀“ ∈ ℝ

4) (“) = “, ∀“ ∈ ℝ
3) Pour , on a

La notion de variable aléatoire centrée est aussi généralisée.

3. Variance d’une variable aléatoire


3.1. Variance d’une variable aléatoire discrète
Soit X une variable aléatoire discrète sur ( Ω, , P ). On appelle variance de X le
réel :

(
var ( X ) = E  X − E ( X ) 
2
) =   x − E ( X )
i∈I
i
2
pi .

On appelle écart type de X le réel σ X = Var ( X ) .

Soit X une va discrète sur ( Ω, , P ). On a

1) Var ( λ X ) = λ 2Var ( X ) pour λ ∈


2) Var ( X + λ ) = Var ( X ) pour λ ∈
3) Var ( X ) = E ( X 2 ) −  E ( X ) 
2

34
On dit qu’une variable aléatoire X est centrée réduite si X est centrée : E ( X ) = 0
et réduite : σ X = 1 . Sinon, il est toujours possible d’associer à X une variable
X −E(X )
aléatoire réduite X * = .
σX
Exemple :

X =ω 2 3 4 5 6 7 8 9 10 11 12

P( X = ω) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

4/36 18/36 48/36 100/36 180/36 294/36 320/36 324/36 300/36 242/36 144/36
xi2 pi

Var ( X ) = 5.83

3.2. Variance d’une variable aléatoire réelle à densité


Si X est une variable aléatoire continue à densité, alors

E ( X 2 ) =  t 2 f X ( t ) dt

−∞

On appelle alors variance de X le réel

(
var ( X ) = E  X − E ( X ) 
2
)
L’écart type de X est σ X = var ( X )

Remarque : la variance d’une var à densité possède les mêmes propriétés que
dans le cas discret
1) Var ( aX ) = a 2Var ( X ) pour a ∈
2) Var ( X + a ) = Var ( X ) pour a ∈
3) var ( a ) = 0
4) Var ( X ) = E ( X 2 ) −  E ( X ) 
2

La notion de variable centrée réduite est aussi généralisée.

4. Moments
4.1. Moment non centré et moment centré
On appelle moment d’ordre ( entier positif) d’une variable aléatoire l’espérance
mathématique de si elle existe :

L’espérance mathématique n’est autre que le moment d’ordre 1.

35
On appelle moment centré d’ordre ( un entier positif) d’une variable aléatoire l’espérance
mathématique de si elle existe :

La variance n’est autre que le moment centré d’ordre 2, le moment centré d’ordre 2 étant toujours nul.

4.2. Moment factoriel


On appelle moment factoriel d’ordre ( un entier positif) d’une variable aléatoire (discrète)
l’espérance mathématique de si elle existe :

Le moment factoriel d’ordre est une combinaison linéaire des moments non centrés .

5. Indicateurs de forme
Ces indicateurs donnent des informations sur la forme de la loi de , et en particulier, ils la comparent
à la loi normale. Ils sont directement inspirés des coefficients d’asymétrie (en anglais skewness) et
d’aplatissement (kurtosis) définis en statistique descriptive.
Coefficient d’asymétrie

Coefficient d’aplatissement

Les moments centrés d’ordre impair étant nuls pour une distribution symétrique, est nul si la
distribution de est symétrique par rapport à la moyenne , mais la réciproque n’est pas vraie : :
peut être nul sans que la loi de X soit symétrique. Si la distribution de est unimodale étalée vers la
droite, est positif. Dans le cas contraire, est négatif.

Le coefficient d’aplatissement est nul pour une variable distribuée selon une loi normale, mais là
encore, la réciproque n’est pas vraie. Selon que la loi de est plus ou moins aplatie que la loi normale,
sera positif ou négatif. Plus que l’aplatissement, ce coefficient mesure l’importance des « queues »
d’une distribution.
36
6. Les fractiles / les quantiles
Comme pour les variables statistiques, on définit pour les variables aléatoires les quantiles, encore
appelés fractiles, qui sont indicateurs de position à partir desquels on peut définir des indicateurs de
tendance centrale et de dispersion.
On appelle quantile d’ordre d’une variable aléatoire de fonction de répartition
toute valeur telle que :

Notons que si est continue et strictement croissante, le quantile , pour donné, existe et est
unique. Si n’est pas continue et strictement croissante, il peut ne pas exister ou il peut y avoir
plusieurs solutions possibles.

─ Si , est la médiane vérifie les deux inégalités :

─ Si , est le premier quartile et pour , le troisième quartile.


─ Si ( un entier compris entre 1 et 9), les différentes valeurs définissent les déciles.
─ Si ( un entier compris entre 1 et 99), les différentes valeurs définissent les centiles

Activités
Exercice :
Une loterie est organisée, chaque billet valant 5 euros offre la même chance de
rapporter 0 ; 2.5 ; 5 ; 7.5 ou 10 euros.
1) Calculer l’espérance mathématique et l’écart-type du gain.
2) Calculer l’espérance mathématique et l’écart-type du gain net du prix du billet.

Exercice
L'élévation du niveau de la mer est une menace pour les villes côtières des États-Unis. Par conséquent,
aux fins de la planification, il est important d’avoir des prévisions précises de l’élévation future du
niveau de la mer. Le Journal of Waterway, Port, Coastal et Ocean Engineering (mars / avril 2013) a publié une

de la mer. L'accélération ‹ de l'élévation du niveau de la mer (normalisée entre 0 et 1) a été modélisée à


étude utilisant une distribution de probabilité statistique pour modéliser l'élévation projetée du niveau

l'aide de la fonction de densité suivante:


61 1 − 1 (" 0 < 1 < 1
Š 1 •
0 2"[[ 8(
a. Trouver et interpréter ‹
b. Trouver la variance de ‹

37
Exercice
Dans une banque, un système de guichet automatique a été mis en place et permet de faire des

utilisant le guichet automatique dans un intervalle de temps de 5 minutes est une variable aléatoire „
opérations bancaires courantes : extrait de compte, remise de chèque, retrait. Le nombre de clients

N „ 0 0,3, N(„ = 1) = 0,3 N(„ = 2) = 0,4


telle que :

1. Calculez („) et j28(„).

minutes ne se chevauchant pas sont indépendants. Soit ‹ la variable aléatoire égale au nombre de
2. On suppose que les nombres de clients utilisant le guichet automatique sur deux périodes de 5

clients utilisateurs sur une période d’une heure. La variable aléatoire ‹ peut s’écrire : ‹ = ∑ -* „
Où „ désigne le nombre de clients utilisateurs au cours de " ˜ intervalle de 5 minutes lorsqu’on
découpe l’heure en 12 intervalles de 5 minutes ; chaque „ suit la même loi que „.
Quelles sont les valeurs possibles de ‹? Calculez (‹), j28(‹) N(‹ = 0).
3. Chaque client ne peut effectuer plus de 2 opérations au guichet automatique. La banque a constaté
que chaque client effectue :
– 3 fois sur 10 : 2 opérations
– 6 fois sur 10 : 1 opération

Soit ™, le nombre d’opérations effectuées dans un intervalle de temps de 5 minutes.


– 1 fois sur 10 : 0 opération (compte non approvisionné, par exemple)

3.1. Donnez dans un tableau à double entrée l’ensemble des probabilités conditionnelles de ™
sachant „.
3.2. Quelle est la loi de ™? Calculez (™) j28(™).

Soit Š( ) la densité de probabilité d’une variable aléatoire „ :


Exercice

1
Š( ) = •4 X •− 4š (" 0 < < ∞
0 2"[[ 8(
a. montrer que Š( ) est réellement une densité de probabilité
b. déterminer la fonction de répartition /( )
c. calculer N(„ > 4)
d. calculer l’espérance mathématique et la variance de „

38
SEANCE N° 7

Objectif : à la fin de ce chapitre, les étudiants seront capables de faire des analyses avec des variables
aléatoires à deux dimensions.

Chapitre 4:Couples de variables aléatoires

1. Fonction de répartition d'un couple aléatoire

Soient deux variables aléatoires X et Y définies sur le même espace probabilité Ω, ℱ, P); on appelle fonction de
répartition du couple aléatoire („, ‹) , la fonction / définie sur ℝ* par
∀ ( , 1) ∈ ℝ* F(x, y) = P€(X ≤ x) ∩ (Y ≤ y)•

Cette fonction est caractérisée par:

1. / est croissante par rapport à chacune des variables 1


lim /( , 1) = 1 et •→¦¤
2. •→¤ lim /( , 1) = 0
¥→¤ ¥→¦¤
3. Continuité à droite: lim¨ /( , 1) = /( © , 1© )
•→•§
¥→¥§¨

2. Loi d'un couple de variables aléatoires discrètes

Les variables aléatoires discrètes finies „ ‹ sont définies sur le même espace probabilisé (Ω, ℱ, N).
Leurs valeurs, supposées distinctes, sont rangées dans l’ordre croissant:

„(Ω) = ,⋯, ,⋯, C ‹(Ω) = «1 , ⋯ , 1! , ⋯ , 1¬ -

La loi du couple aléatoire (X, Y) est définie par les probabilités p¯° associées à tout couple de valeurs
possibles € , 1! •:
´ ³

p¯° = P mX = xi , Y = yj n ⇒ • • p¯° = 1
°- ¯-
1 ⋯ 1! ⋯ 1¬ Loi marginale de X
p ⋯ p ° ⋯ p ´ p ∗
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
p¯ ⋯ p¯° ⋯ p¯´ p¯∗
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
C p³ ⋯ p³° ⋯ p³´ p³∗
Loi marginale de Y p∗ ⋯ p∗° ⋯ p∗´ 1

on a:
¬ C

X∗ •X ! N „ X∗! •X ! N ‹ 1
!- -

, X ∗ constituent la loi marginale de „ et les couples 1! , X∗! constituent la loi


marginale de ‹.
Les couples

Si la probabilité que „ prenne la valeur n'est pas nulle X ∗ # 0 , on peut calculer la probabilité
conditionnelle X /! de ‹ 1! sachant que „ :
X!
X!/ N€‹ 1! |„ •
X∗
Les couples €1! , X!/ • constituent la loi conditionnelle de ‹ liée par „
aléatoire ‹|„ . Il y a donc _ lois conditionnelles de ‹ sachant que „ prend une valeur donnée.
. On note cette variable

De même si la probabilité que ‹ prenne la valeur 1 n'est pas nulle €X∗! # 0•, on peut calculer la
probabilité conditionnelle X /! de „ sachant que ‹ 1! :
X!
X /! N€„ ‚‹ 1! •
X∗!
Les couples € , X /! • constituent la loi conditionnelle de „ liée par ‹ 1! . On note cette variable
aléatoire «„‚‹ 1! -. Il y a donc [ lois conditionnelles de „ sachant que ‹ prend une valeur donnée.

Les deux formues précédentes entrainent:

X! X ∗ ∙ X!/ X∗! ∙ X /!

3. Corrélation
Définition . La covariance de „, ‹ est :
7 j „, ‹ x„ H „ yx‹ H ‹ y „‹ H „ ‹
Lorsque 7 j „, ‹ 0, on dit que les variables „ ‹ sont non corrélées.
Le coefficient de corrélation linéaire du couple „, ‹ est
4 j „, ‹
¶ „, ‹
`ˆ `·
On a:

1. ¶ „, ‹ ∈ x−1, ?1y
40
2. ¶ „, ‹ 0 si et seulement si „ ‹ sont non corrélées;

3. |¶ „, ‹ | 1 si et seulement si, il existe 2, 3 ∈ ℝ tel que ‹ 2„ ? 3

Soit „, ‹ un couple de variables aléatoires réelles. Alors

¸28 „ ? ‹ ¸28 „ ? ¸28 ‹ ? 27 j „, ‹


si „ ‹ sont non corrélées, on a

¸28 „ ? ‹ ¸28 „ ? ¸28 ‹


Indépendance

Les variables aléatoire „ ‹ sont indépendantes si pour tout couple€ , 1! •, on a la relation :

Nm „ ∩ €‹ 1! •n N „ ∙ N€‹ 1! •

„ ‹ indépendantes ⇔ X ! X ∗ ∙ X∗! pour tout couple ", $

ce qui signifie que la connaissance de la valeur prise par „ n’apporte aucune information sur la valeur
de ‹, et inversement.

La loi de probabilité d’un couple aléatoire „, ‹ permet de calculer les lois marginales des deux
variables ‹ . En revanche, la connaissance de ces lois ne permet pas de déterminer la loi conjointe,
sauf si les variables „ ‹ sont indépendantes.

„ ‹ ") éX ) 2) ( ⇒ 4 j „, ‹ 0

Activités
Exercice
Un logiciel est conçu pour exécuter deux tâches, . Soit „ le nombre d'instructions IF-THEN
dans le code de la tâche et ‹ le nombre d'instructions IF-THEN dans le code de la tâche . La
distribution de probabilité X , 1 pour les deux variables aléatoires discrètes est donnée dans le tableau
ci-joint.

0 1 2 3 4 5
0 0 0,05 0,025 0 0,025 0
‹ 1 0,2 0,05 0 0,3 0 0
2 0,1 0 0 0 0,1 0,15
a. Vérifiez que les propriétés d'une distribution de probabilité conjointe sont valables.
b. Trouvez la distribution de probabilité marginale X de „.
c. Trouvez la distribution de probabilité marginale X 1 de ‹.
d. Trouvez les distributions de probabilités conditionnelles |1 .
e. Trouvez les distributions de probabilités conditionnelles X 1| .

41
Un couple „, ‹) de variables aléatoires suit la loi jointe donnée dans le tableau suivant :
Exercice

Y
0 1
X

0 1/4 a 1/8

1 1/5 b 1/10

1. Pouvez-vous déterminer 2 3 de telle sorte que les variables aléatoires „ ‹ soient indépendantes
, a et b étant des valeurs réelles.

en probabilité ?
2. Dans ces conditions, déterminez la loi marginale de „, et les lois conditionnelles de „ pour les
différentes valeurs de ‹.
3. Si 2 = 1/5, existe-t-il une valeur de u telle que le coefficient de corrélation linéaire ¶ („, ‹) soit nul
? Les variables aléatoires „ ‹ sont-elles alors indépendantes en probabilité ?

Un organisme bancaire a établi pour ses clients le nombre moyen (‹) de paiements quotidiens
Exercice

effectués par carte bancaire en fonction du nombre („) de cartes possédées. La répartition est résumée
dans le tableau suivant :

1) Probabilités
a) Déterminer la valeur de la probabilité manquante.
b) Donner la probabilité qu’un client possède 1 carte et effectue 2 paiements quotidiens par carte.
c) Donner la probabilité qu’un client possède 1 carte.
d) Calculer la probabilité qu’un client effectue 2 paiements quotidiens par carte sachant qu’il
possède 1 carte.

‹.
2) Lois marginales
a) Calculer l’espérance et la variance de
b) Quel est le nombre de paiements moyen quotidien ?

a) Donner la loi conditionnelle de ‹ sachant que „ = 1.


3) Lois conditionnelles

c) Pensez-vous que les variables „ ‹ soient indépendantes ?


b) Que représente-t-elle ?

d) Calculer l’espérance conditionnelle (‹|„ = 1)


e) Que représente-t-elle concrètement ?
4) Corrélation

b) En déduire le coefficient de corrélation linéaire du couple . („; ‹)


a) Calculer l’espérance de .

c) Interpréter le résultat.

42
SEANCE N° 8

Objectif : à la fin de ce chapitre, les étudiants seront capables de faire des analyses avec des variables
aléatoires à deux dimensions.

Chapitre 4:Couples de variables aléatoires

4. Loi d'un couple de variables aléatoires continues

La fonction de répartition d’un couple „, ‹) de variables aléatoires continues possède en sus des trois
propriétés déjà énoncées, les deux propriétés suivantes :

4. » est une fonction continue sur ℝJ


5. » est dérivable presque partout

Toute fonction vérifiant les cinq propriétés peut être considérée comme la fonction de répartition d’un
couple de variables aléatoires continues.

La densité Š du couple („, ‹) est donné par Š( , 1) = ¼•¼¥ ( , 1)


¼½ ¾

La loi de probabilité d’un couple de variables aléatoires continues peut être définie, soit par la fonction
de répartition, soit par la fonction de densité, et on a la relation fondamentale suivante.
¥ •

∀( , 1) ∈ ℝ* /( , 1) = ¿ ¿ Š( , j) j
¦¤ ¦¤
La probabilité relative à un sous-ensemble de ℝ du type [a ; b] × [c ; d] est égale à
*

 
N((„, ‹) ∈ x2 ; 3y × x4 ; y ) = ¿ ¿ Š( , j) j
à Á

couple aléatoire („, ‹) appartienne à un


Plus généralement, la probabilité que le

"domaine" Å ⊂ ℝ2 est égale à:

N („, ‹) ∈ Å = Æ Š( , 1) 1
Å

Les densités marginales W „ et ℎ ‹ sont respectivement:


‡¤ ‡¤

W ¿ Š ,1 1 ℎ 1 ¿ Š ,1
¦¤ ¦¤
Les densités conditionnelles

Š ,1 Š ,1
ℎ |1 W 1|
W 1 ℎ

Indépendance
Les variables aléatoires „ ‹ sont indépendantes si et seulement si ∀ , 1 ∈ ℝ* :

Š ,1 W ∙ℎ 1
Plus généralement, un ) H X[ de variables aléatoires „ , „* , ⋯ , „ de densité de probabilité Š est
un ) H X[ de variables aléatoires indépendantes si et seulement si la densité Š du ) H X[ est le
produit des ) densités marginales Š :

Š , *, ⋯ , Š ∙ Š* * ∙ ⋯∙ Š

5. Espérance mathématique d'un produit de variables aléatoires

Soit „, ‹ un couple de variables aléatoires discrètes, on a si la série du second membre est


absolument convergente:
„. ‹ • 1! X !
,!
Soit „, ‹ un couple de variables aléatoires continues, on a si l'intégrale du second membre est
absolument convergente

„, ‹ ¿ 1Š ,1 1
ℝ½
Si „, ‹ sont indépendantes ont déduit „. ‹ „ . ‹ mais la réciproque n'est pas vraie.
„ ‹ ") éX ) 2) ( ⇒ „. ‹ „ . ‹

6. Espérance Conditionnelle de Ç sachant È É, notée Ç|È É

C'est l'espérance de la variable Y par rapport à sa loi conditionnelle.


‹|„ • 1N ‹ 1|„
¥

‹|„ ¿ 1 W 1| 1

44
Activités
Exercice 1
On suppose la fonction de densité jointe de deux variables aléatoires continues „ ‹ donnée par :
4 (" 0 ≤ ≤ 1; 0 ≤ 1 ≤ 1
Š 1 •
0 2"[[ 8(
a. déterminer la valeur de la constante 4
b. déterminer les fonctions de densité marginales
c. trouver la covariance des variables aléatoires „ ‹

Exercice
Le kérosène commercial est stocké dans un réservoir en vrac au début de chaque semaine. En raison
des disponibilités limitées, la proportion „ de la capacité du réservoir disponible à la vente et la
proportion ‹ de la capacité du réservoir effectivement vendu au cours de la semaine sont des variables
aléatoires continues. Leur distribution conjointe est donnée par :

, 1) = Œ4 (" 0 ≤ 1 ≤ ;0 ≤ ≤1
*
Š
0 2"[[ 8(
Trouver la covariance de „ ‹

Soient „ ‹ ayant la densité jointe :


Exercice :

+ 41 (" 1 ≤ 0 ≤ 2 ; 0 ≤ 1 ≤ 1
Š( , 1) = •
0 2"[[ 8(
Où 4 est un paramètre constant.
a. Trouver la valeur de 4 pour que Š( , 1) soit une densité de probabilité
b. Trouver la fonction de densité marginale de 1 et montrer que Š(1) est une fonction de densité
de probabilité
c. Trouver Š( |1), la densité conditionnelle de „ sachant ‹
d. Calculer („), (‹), („ + ‹), („‹)
e. „ ‹ sont-elles indépendantes ?
Exercice 20

Soit la distribution jointe des variables aléatoires „ ‹ donnée par :

Œ4 (" 0 ≤ 1 ≤ , 0 ≤ ≤1
*

0 2"[[ 8(
Déterminer la covariance de „ ‹

45
SEANCE 9

Objectifs : comprendre et utiliser les lois de probabilités discrètes et continues

Chapitre 5 : Lois de probabilités usuelles


Pour trouver un modèle décrivant un ensemble de données, il est nécessaire de connaître
parfaitement les lois statistiques les plus utilisées. Le choix d’une loi est lié :
 à la nature du phénomène étudié afin de choisir entre loi discrète et loi continue,
 à la forme de la distribution (histogramme),
 à la connaissance et à l’interprétation des principales caractéristiques de l’ensemble de
données : espérance, médiane, variance, écart-type, coefficients d’asymétrie et de dissymétrie, etc.,
 au nombre de paramètres des lois, une loi dépendant de plusieurs paramètres peut s’adapter
plus facilement à une distribution.

1. Les lois discrètes usuelles


Une variable aléatoire discrète prend ses valeurs sur un ensemble fini ou dénombrable de points. La
loi de probabilité d’une telle variable est appelée loi discrète.
Une loi de probabilité discrète est caractérisée par l’énumération des valeurs xi appartenant à ℝ ou à
un intervalle de ℝ, prises par la variable aléatoire X et par les probabilités associées, c’est-à-dire
les nombres réels positifs pi tels que :

P ( X = xi ) = pi 0 ≤ pi ≤ 1 p i =1
i

La fonction de répartition est une fonction en escalier, constante sur tout intervalle [ xi , xi +1[ ,
admettant en chaque point xi un saut égal à pi +1 = P ( X = xi +1 ) .

Moments : E ( X ) =  xi pi var ( X ) =  xi2 pi −  E ( X ) 


2

i i

Domaine d’utilisation : Les lois discrètes sont utilisées pour modéliser les résultats des jeux de
hasard, les sondages d’opinion, les phénomènes biologiques, les processus aléatoires (files
d’attente, évolution de l’état de matériels)... Les plus utilisées sont la loi uniforme, la loi binomiale et les
lois dérivées, la loi hypergéométrique, la loi de Poisson.

1.1. Loi Uniforme discrète


La loi uniforme sur [1, n ] est la loi de probabilité d’une variable aléatoire X prenant chaque
valeur de l’ensemble (1, 2,K , n ) avec la même probabilité :

46
P ( X = k ) = 1 n ∀k ∈ [1, n] .
Plus généralement, soit Ω un ensemble fini de cardinal n . La loi de probabilité équidistribuée ou
uniforme sur Ω est la loi définie sur Ω par la probabilité :
P (ω ) = 1 n pour tout élément de Ω .

Pour toute partie finie de , on a :

Moments :
1 n n +1
E(X ) =  k=
n k =1 2

1 n ( n + 1)( 2n + 1) ( n + 1)
2
 n +1 n2 − 1
2
1 n
Var ( X ) =  k 2 −   = × − =
n k =1  2  n 6 4 12

Domaine d’utilisation
La loi de probabilité uniforme intervient dans de nombreux domaines comme les jeux de pile ou
face ou les jeux de dés (avec une pièce ou un dé parfaitement équilibré(e)), les jeux de cartes, les
loteries, les sondages...

1.2. La loi de Bernoulli


On considère une expérience dont le résultat ne peut prendre que deux valeurs appelées, par
convention, succès ou échec : un candidat est reçu ou non à un examen, une pièce usinée est bonne
ou défectueuse, une porte est ouverte ou fermée...
À une expérience de ce type, est associée une variable aléatoire X prenant la valeur 1 pour le
succès et la valeur 0 pour l’échec, avec les probabilités respectives p et (1 − p ) = q . Cette
variable est appelée variable de Bernoulli.
La loi de probabilité de Bernoulli est définie par :
1) X ( Ω ) = {0,1}
2) P ( X = 1) = p
3) P ( X = 0 ) = q = 1 − p
On la note X → B (1, p )
Sa fonction de probabilité peut être écrite de la façon suivante :

Soit X → B (1, p ) , alors E ( X ) = p et var ( X ) = p (1 − p ) = pq

47
1.3. La loi binomiale (ou loi du tirage avec remise)
On réalise n épreuves indépendantes de la même expérience telles que :
– chaque épreuve ne peut avoir que deux résultats, s’excluant mutuellement, soit le succès,
soit l’échec,
– la probabilité p de succès est constante à chaque épreuve, la probabilité d’échec est
également constante et égale à 1 − p = q .
Ou on réalise l’expérience de Bernoulli n fois.
Probabilité d’obtenir k succès au cours de ces n épreuves
Soit X la variable aléatoire qui « compte » le nombre de succès au cours de n épreuves.
– Si au cours de n épreuves, on obtient k succès, on obtient également ( n − k ) échecs. La
probabilité de réalisation d’un tel évènement est égale à p k (1 − p )
n−k
(les épreuves sont
indépendantes).
– Il y a différents façons d’obtenir k succès au cours de n épreuves, chaque épreuve
pouvant être, indépendamment les unes des autres, un succès ou un échec. Le nombre de
réalisations de l’événement « obtenir k succès au cours de n épreuves » est le nombre de
combinaisons sons répétitions de n objets pris k à k , soit :
n n!
Cnk =   =
 k  k !( n − k ) !
n!
D’où : P ( X = k ) = Cn p (1 − p ) p k (1 − p )
n− k n− k
k k
=
k !( n − k ) !

Sa fonction de probabilité peut être écrite de la façon suivante :

Son domaine de définition est :

Cette expression étant un terme du développement du binôme  p + (1 − p )  , la variable X est


n

appelé variable binomiale. La loi binomiale de paramètre ‘ ( n, p ) est notée B ( n, p ) . Une variable
binomiale est égale à la somme de n variables aléatoires indépendantes de Bernoulli, la loi
binomiale est donc la loi des épreuves répétées. Elle est également la loi d’un tirage sans remise dans une
urne contenant des boules de deux types différents.

48
Moments

Soit X → B ( n, p ) , alors E ( X ) = np et var ( X ) = npq

Coefficients d’asymétrie et d’aplatissement

Somme de variables aléatoires, binomiales, indépendantes et de même paramètre


La somme de n variables aléatoires binomiales indépendantes et de même paramètre p est une variable aléatoire
binomiale.
Soient X a B ( n1 , p ) et Y a B ( n2 , p ) avec X et Y indépendantes. La loi

S = X + Y → B ( n1 + n2 , p )
Domaine d’utilisation
─ La loi binomiale décrit des phénomènes ne pouvant prendre que deux états s’excluant
mutuellement, succès ou échec dans un jeu, bonne pièce ou pièce défectueuse dans une
fabrication, lot acceptable ou lot refusé, défaillance ou fonctionnement d’un matériel...

─ Elle est utilisée dans le domaine technique pour déterminer la probabilité de défaillance à
la sollicitation de matériels, en contrôle qualité, mais elle ne peut s’appliquer
rigoureusement que si les expériences sont non exhaustives, c’est la loi du tirage avec
remise.

─ Les événements considérés doivent être indépendants et la probabilité de réalisation d’un


événement doit être constante.

1.4. Loi hypergéométrique ou loi du tirage exhaustif


On considère un tirage équiprobable sans remise ou tirage exhaustif dans une population d’effectif N,
cette population étant composée de deux parties disjointes :

49
• une partie A à Np éléments (éléments possédant un certain caractère),
• une partie B à ( N − Np ) éléments (éléments n’ayant pas ce caractère).

C’est le cas, par exemple, d’un lot de N pièces comprenant Np pièces défectueuses et donc
( N − Np ) pièces fonctionnant bien.
Quelle est la probabilité qu’un sous-ensemble de n éléments contienne x éléments de l’ensemble A ?
Les éléments peuvent être tirés, soit un par un, soit d’un seul coup, mais sans remise.
Soit X la variable aléatoire représentant le nombre d’individus ayant le caractère considéré dans
l’échantillon. On veut calculer P ( X = x ) . Le nombre d’échantillons de taille n est égal à CNn
Un échantillon de taille n comprend :
x
- x individus, pris parmi les Np individus ayant le caractère considéré, donc C Np choix possible,
- (n − x) individus pris parmi les ( N − Np ) individus n’ayant pas ce caractère, donc CNn −−xNp
choix possible.
Le nombre d’échantillons de taille n, comprenant x individus pris parmi les Np individus, est
x
donc égal à C Np C Nn −−xNp .

La probabilité cherchée est égale à :


 Np  Nq 
C C x  x  n − x 
n−x

P ( X = x) = =   
Np N − Np

C n
N  
N
 
n 
Les valeurs extrêmes de x sont
min x = max {0, n − N (1 − p )} max x = min {n, Np}

Graphique

Le quotient n N est appelé taux de sondage.

50
Si une variable aléatoire suit une loi de probabilité hypergéométrique de paramètres ( N , n, p ) ,
elle est notée X → H ( N , n, p )

Moments : Soit X → H ( N , n, p ) , alors

N −n
E ( X ) = np et var ( X ) = np (1 − p )
N −1
est appelé facteur d’exhaustivité

Lorsque est très supérieur à , on peut approcher la loi hypergéométrique par la loi binomiale :
H ( N , n, p ) ≈ B ( n, p ) . Dans la pratique, on impose N > 10n

Activités

Exercice :
Une entreprise d'ingénierie bénéficie d'un taux de réussite de 40% pour l'obtention de contrats de
construction de l'État. Ce mois-ci, ils ont soumis des offres pour huit projets de construction
devant être financés par l'État. Les offres pour différents projets sont évaluées indépendamment
les unes des autres.
a. Trouvez la probabilité que l’entreprise n’obtienne aucun de ces contrats?
b. Déterminez la probabilité que l'entreprise obtienne cinq contrats sur huit?
c. Trouvez la probabilité que l'entreprise obtienne les huit contrats?

Exercice
Dans une étude sur le comportement d’achat de consommateurs, on suppose qu’à chaque
minute, une unité (au maximum) d’un certain produit a 1 % de chances d’être vendue. On
suppose les achats de ce produit effectués à des temps différents, indépendants les uns des autres.
1. Quelle est la loi de probabilité exacte du nombre d’unités de ce produit vendues en 30
min ? Calculez la probabilité de vendre au moins 3 unités en 30 min.
2. Le magasin est ouvert 7 h 30 par jour. Quel est le nombre moyen d’unités vendues par
jour ?
Par quelle loi peut-on approcher la loi de probabilité du nombre d’unités de ce produit
vendues en un jour ?
3. Chaque matin, le stock est reconstitué à 8 unités pour le premier produit, et à 220 unités
pour le second. Quelle est la probabilité de rupture de stock pour chacun des deux
produits ?

51
SEANCE 10

Objectifs : comprendre et utiliser les lois de probabilités discrètes et continues

Chapitre 5 : Lois de probabilités usuelles


1.5. Les lois voisines de la loi binomiale

1.5.1. Loi géométrique


Définition : La loi géométrique est la loi de la variable aléatoire « loi du nombre d’essais nécessaires »
pour qu’un événement de probabilité p apparaisse pour la première fois, les hypothèses étant les mêmes que
pour la loi binomiale, en particulier, la probabilité p reste constante au cours des essais :
P ( Y = k ) = p (1 − p )
k −1
k∈ *

Il y a donc eu k − 1 échecs avant d’obtenir le succès au k eme essai.


Sa fonction de probabilité peut être représenter comme suit :

On note,
1 1− p
Moments : E (Y ) = et Var (Y ) = 2
p p
Graphique

52
Coefficients d’asymétrie et d’aplatissement

1.5.2. Loi de Pascal


Définition : La loi de Pascal est la loi de la variable « loi du nombre d’essais nécessaires » pour obtenir
exactement fois un événement de probabilité , les hypothèses étant les mêmes que pour la loi
binomiale (la probabilité p est constante au cours des essais).
P ( Z = z ) = pC zk−−11 p k −1 (1 − p )
z −k
z ≥ k et z ∈ *

(on a obtenu un succès à l’essai n° z (de probabilité p) et k − 1 succès au cours des z − 1 essai
précédents). Elle constitue donc une généralisation de la loi géométrique.

On note :

Moments :
k k (1 − p )
et Var ( Z ) =
E (Z ) =
p p2
Coefficients d’asymétrie et d’aplatissement

Domaine d’utilisation
Ces deux lois, loi géométrique et loi de Pascal, interviennent particulièrement en contrôle de
qualité, mais aussi dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en termes de signal d’alarme.

1.5.3. Loi binomiale négative

Définition : À partir de la loi de Pascal, on définit la loi binomiale négative, ou loi de la variable
aléatoire T = Z − k Elle représente donc le nombre d’événements « échec » obtenu lorsqu’on a
une loi de Pascal.
La loi suivie par la variable T est la loi binomiale négative noté BN ( k , p ) .

P (T = t ) = Ckk+−t1−1 p k (1 − p ) = Ckt + t −1 p k (1 − p )
t t

Sa fonction de probabilité peut être représentée par :

53
Moments : si on pose P = (1 − p ) p et Q = 1 p , on obtient :

E (T ) = kP et Var ( T ) = kPQ

Coefficients d’asymétrie et d’aplatissement

Comparaison des lois binomiale et de Pascal

Loi binomiale Loi de Pascal

– Elle compte le nombre de succès au – Elle compte le nombre d’essais


cours de épreuves. nécessaires pour obtenir succès.
–Le nombre d’épreuves est fixé. –Le nombre de succès est fixé.
– Le nombre de succès est une variable – Le nombre d’épreuves est une variable
aléatoire pouvant prendre toutes les aléatoire pouvant prendre toutes les
valeurs entières entre . valeurs entières entre et l’infini.
– Elle compte le nombre d’essais
nécessaires pour obtenir succès.

1.6. La loi de Poisson

Processus de Poisson : Soit „ le nombre d’événements survenus sur une période donnée. On
suppose que :
• la probabilité qu’un événement a de se produire dans la période ne dépend que de la
durée de la période,
• le nombre d’événements se produisant durant la période est indépendant du nombre
d’événements survenus dans les autres périodes.
Définition : on dit qu’une var „ suit une loi de Poisson de paramètre λ > 0 si
1) X ( Ω ) = {0,1,K , n,K} = N
λk
2) P ( X = k ) = e −λ
pour tout k ∈
k!
On note alors X → P ( λ )
Sa fonction de probabilité peut être présentée sous la forma suivante :

Graphique

54
Soit X → P ( λ ) , alors E ( X ) = λ et var ( X ) = λ
Remarque : Lorsque p est petit et n est grand, on peut approcher la loi binomiale par la loi de
Poisson : B ( n, p ) ≈ P ( np ) . Dans la pratique, on impose p < 0,1 et n > 50 .

1.7. Lois limites (approximations)


Sous certaines conditions, la loi hypergéométrique peut être approximé par la loi binomiale et la
loi binomiale par une loi de Poisson.

1.7.1. Approximation d’une loi hypergéométrique par une loi


binomiale
La variable aléatoire X suit une loi hypergéométrique H ( N , n, p ) . On suppose que l’effectif N
de la population devient très grand par rapport à la taille n de l’échantillon prélevé. On cherche,
x
CNp CNn −−xNp
dans ces conditions, la limite de l’expression P ( X = x ) =
CNn
Après avoir développé les différents termes et utilisé la condition n petit devant N, on obtient
comme limite : P ( X = x ) → C nx p x (1 − p )
n−x

On reconnait dans cette limite, l’expression de P ( X = x ) d’une variable aléatoire X suivant la


loi binomiale B ( n, p ) : cette approximation est valable dès que n < 0.1N

1.7.2. Approximation d’une loi binomiale par une loi de Poisson


Soit X une variable aléatoire suivant la loi binomiale B ( n, p ) . On suppose

- que le nombre n d’essais est grand,


- que la probabilité de succès p est petite,
- que le produit np reste fini.

55
On pose np = λ et on cherche la limite de l’expression :

P ( X = x ) → C nx p x (1 − p )
n−x

eλ λ x
On obtient P ( X = x ) →
x!
On reconnait dans cette limite, l’expression de P ( X = x ) d’une variable aléatoire X suivant une
loi de Poisson P ( λ ) , avec λ = np . En pratique, cette approximation est valable si
n > 50 et p < 0.1 .

2. Lois continues usuelles


2.1. La loi uniforme continue

Définition : On dit qu’une var X suit une loi uniforme sur l’intervalle [ a, b]
notée X → U ( a, b ) (avec a < b ) si sa densité est :
 1
 si x ∈ [ a, b ]
fX ( x) = b − a
0
 si x ∉ [ a, b ]
0 si x < a
x−a

Fonction de répartition de FX ( X ) =  f X ( t ) dt =  si x ∈ [ a, b ]
x

b − a
−∞

1 si x > b

Représentation graphique

Moments :
(b − a )
2
a+b
Soit X → U ( a, b ) , on a E ( X ) = et var ( X ) =
2 12

56
Activités
Exercice
Une entreprise de recrutement constate que 30% des candidats à un certain emploi industriel ont
suivi une formation avancée en programmation informatique. Les candidats sont sélectionnés au
hasard dans le pool et sont interrogés de manière séquentielle.
a. Trouvez la probabilité que le premier candidat ayant une formation avancée soit trouvé
au cinquième interview.
b. Supposons que le poste soit offert au premier candidat ayant la formation avancée et que
le candidat accepte. Si chaque entretien coûte 300 USD, trouvez la valeur et la variance
attendues du coût total des entretiens engagés avant que le travail ne soit pourvu.

Exercice
Pour un certain secteur manufacturier, le nombre d'accidents industriels est en moyenne de trois
par semaine.
a. Trouvez la probabilité qu'aucun accident ne survienne au cours d'une semaine donnée.
b. Déterminez la probabilité que deux accidents se produisent au cours d'une semaine
donnée.
c. Déterminez la probabilité qu'au maximum quatre accidents surviennent au cours d'une
semaine donnée.
d. Déterminez la probabilité que deux accidents se produisent dans une journée donnée.

Exercice (exple 5.19 schea)


Une entreprise de recrutement constate que 30% des candidats à un certain emploi industriel ont
suivi une formation avancée en programmation informatique. Supposons que trois emplois
nécessitant une formation avancée en programmation soient ouverts. Déterminez la probabilité que le
troisième candidat qualifié soit trouvé lors du cinquième entretien, si les candidats sont interrogés de manière
séquentielle et aléatoire.

57
SEANCE 10

Objectifs : comprendre et utiliser les lois de probabilités discrètes et continues

Chapitre 5 : Lois de probabilités usuelles

2.2. Loi exponentielle


La loi exponentielle est une loi de probabilité continue définie sur des valeurs réelles positives.
Cette loi correspond au temps mesuré entre des événements issus d'un processus de Poisson,
c'est-à-dire un processus continu de comptage dans lequel les événements arrivent de façon
continue et indépendamment les uns des autres avec une intensité constante. Tout comme sa loi
discrète équivalente (la loi géométrique), une loi exponentielle permet de modéliser la durée de
vie d'un phénomène sans mémoire.
La fonction de densité de la loi exponentielle dépend d'un paramètre réel “ strictement positif,
appelé intensité.

Définition : On dit qu’une var suit une loi exponentielle de paramètre λ (avec λ > 0 ) si sa
densité est
λ e − λ x si x ≥ 0
fX ( x) =  on la note X → E ( λ ) ou Exp ( λ ) .
0 si x < 0

1 − e− λ x si x ≥ 0
Fonction de répartition : Fx ( x ) =  f X ( t ) dt = 
x

−∞
0 si x < 0
Graphique

58
Moments
1 1
Soit X → E ( λ ) , on a E ( X ) = et var ( X ) =
λ λ2

Domaine d’utilisation
─ La distribution exponentielle est associée aux processus de Poisson. Un tel processus
génère des événements dont les temps d’occurrence sont indépendants et distribués
suivant une loi exponentielle.

─ La loi exponentielle est utilisée en fiabilité, le paramètre représente le taux de défaillance


alors que son inverse est le temps moyen de bon fonctionnement MTBF (Mean
Time Between Failure). Avec le paramètre , la densité de probabilité s’écrit :

Et les moments sont égaux à :

─ La loi exponentielle s’applique bien aux matériels électroniques, c’est-à dire aux matériels
fonctionnant pratiquement sans usure, aux matériels subissant des défaillances brutales ou
à des systèmes complexes dont les composants ont des lois de fiabilité différentes. Elle
permet de décrire la période de fonctionnement durant laquelle le taux de défaillance est
constant ou presque constant.

2.3. Lois normales


2.3.1. Loi normale centrée réduite ( )

Définition : Une variable aléatoire suit une loi normale centrée réduite si elle peut prendre toute
valeur réelle et si sa densité de probabilité est donnée par :

Cette fonction de densité est une fonction paire, et son graphique admet l’axe des ordonnées
comme axe de symétrie. Il y a un maximum pour qui correspond au mode de cette
distribution. Compte tenu de deux points d’inflexion, le graphique est simple à tracer et
présente l’allure caractéristique connue sous le nom de courbe en cloche.

est une fonction de densité, car

C'est-à-dire que

59
Or

Fonction paire :

Maximum pour

Points d’inflexion :

Fonction symétrique
Cette distribution de probabilité possède une moyenne égale à 0. Le graphique étant symétrique
par rapport à l’axe des ordonnées (parité de la densité), on a une surface totale (égale à 1)
comprise entre la courbe et l’axe des abscisses, partagée en deux parties égales par l’axe vertical
(soit 0,5 à gauche et 0,5 à droite). La médiane de cette distribution est aussi égale à 0. Enfin, le
sommet de la « cloche » est au point x = 0 .

Graphique de la fonction de densité de la loi normale centrée réduite

60
Sa fonction de répartition s’écrit :

Moments :

Coefficients d’asymétrie et d’aplatissement

Lecture de la table de la loi Normale centrée réduite

N „ ∗ k 2 ; 2j 4 2 Ž 0

N ™ k 1.53 1.53 1.5 ? 0.03

N „∗ M 2 1 H N „∗ † 2

N „ ∗ k H2 N „∗ M 2 1 H N „∗ † 2

N „ ∗ M H2 N „∗ k 2

N 2 k „∗ k 3 N 3 HN 2

61
Activités

Exercice :
Le fabriquant souhaite déterminer la durée de garantie qu’il doit proposer pour un nouveau
modèle qu’il va mettre sur le marché. Des tests préliminaires ont montré que la durée de vie (sans
panne) (en mois) du baladeur suit une loi exponentielle de paramètre .
1) Donner l’espérance et l’écart-type de .
2) Si on suppose qu’une garantie de 1 an est proposée, qu’elle est la probabilité qu’un
baladeur tombe en panne avant la fin de la garantie ?
3) Quelle doit être la durée de garantie pour qu’un baladeur ait une probabilité inférieure ou
égale à 20 % de tomber en panne avant la fin de la garantie.

Exercice : Lire les probabilités suivantes

N 0 ≤ „ ∗ ≤ 1.2); N(−0.9 ≤ „ ∗ ≤ 0); N(0.3 ≤ „ ∗ ≤ 1.56); N(−0.2 ≤ „ ∗ ≤ 0.2)

N(„ ∗ ≤ ©) = 0.5; N(„ ∗ ≤ ©) = 0.8749; N(„ ∗ ≥ ©) = 0.117; N(„ ∗ ≥ ©) = 0.617

On considère que la durée du temps d’attente a (mesuré en minutes) du bus que doit prendre
Exercice

c’est-à-dire que la variable aléatoire a admet la densité de probabilité suivante :


Valérie pour se rendre à l’Université, est distribuée selon une loi exponentielle de moyenne 5 mn,

1
Š(a) = •5 X Œ− 5Í (" ≥ 0
0 (") )
1. Quelle est la fonction de répartition de la variable aléatoire a ?
2. Quelle est la probabilité que le temps d’attente a dépasse 8 minutes ? Dans la suite de
l’exercice, on arrondira cette probabilité à sa première décimale.
3. Valérie utilise le métro avec un seul ticket si elle attend le bus plus de 8 mn. Il faut deux

temps d’attente ne dépasse pas 8 mn. Soit ‹, le nombre de trajets « allers » effectués en
tickets pour le bus, mais Valérie a une nette préférence pour le bus qu’elle utilise si le

bus en ) jours.
3.1. Donnez, en la justifiant, la loi de ‹.

4. Soit ™, la variable aléatoire égale au nombre de tickets utilisés par Valérie pour ses trajets
3.2. Calculez son espérance et sa variance.

« allers » en ) jours.
4.1. Déterminez la loi de ™.
4.2. Calculez son espérance et sa variance.

62
SEANCE 11

Objectifs : comprendre et utiliser les lois de probabilités discrètes et continues

Chapitre 5 : Lois de probabilités usuelles

2.3.2. Loi normale de Laplace-Gauss

Définition :

Une variable aléatoire réelle , prenant ses valeurs dans , suit une loi de Laplace-Gauss ou loi
normale, de paramètres et , si sa densité de probabilité est donnée par :

La fonction définit une densité. En effet :

Fonction de répartition

Cette intégrale n’ayant pas d’expression mathématique simple, des tables donnent les valeurs de la
fonction de répartition.

63
Moments
Espérance mathématique et variance

Propriété 1
Si est une variable aléatoire normale, alors toute fonction du 1er degré (fonction affine) de
suit aussi une loi normale.
Soit une variable aléatoire distribuée selon une loi normale , la variable aléatoire
suit aussi une loi normale avec et (l’écart type de
valant ).

Propriété 2
Si on a variables aléatoires normales et indépendantes, alors leur somme
suit une loi normale . Avec

Approximation de la loi binomiale par la loi normale


Lorsque ) est grand, X pas trop proche de 0 1, on peut approcher la loi binomiale par une loi
(
normale. B ( n, p ) ≈ N np, npq . )
X − np X − np
Dans ce cas, X * = =
np (1 − p ) npq

Dans la pratique, on impose np ≥ 5 et nq ≥ 5 ; ou )X 1 − X ≥ 5


Deux remarques importantes doivent être faites :
– une variable aléatoire binomiale est une variable discrète prenant ses valeurs dans

prenant ses valeurs dans ℝ ;


l’intervalle alors qu’une variable aléatoire gaussienne est une variable continue

– dans le cas d’une loi binomiale, un point a une mesure ou une probabilité non nulle alors
que dans le cas d’une loi normale, un point est un ensemble de mesure nulle.
Pour ces deux raisons, on doit faire une correction de continuité quand on utilise l’approximation
d’une loi binomiale par une loi normale.
La représentation graphique de la densité de probabilité d’une variable gaussienne est une courbe
en « cloche » tandis que celle d’une variable aléatoire binomiale est un diagramme en bâtons.

64
Si X * est la variable aléatoire normale centrée réduite, on obtient :
 k − 0.5 − np k + 0.5 − np 
P(X = k) ≅ P < X* < 
 np (1 − p ) np (1 − p ) 

Et de la même façon :
 k + 0.5 − np 
P(X ≤ k) ≅ P X* < 

 np (1 − p ) 

Exemple :
Un contrôle au calibre, effectué depuis plusieurs mois sur le diamètre des pièces usinées par une
machine-outil, indique que le pourcentage de pièces « défectueuses » est égal à 8 %.
Un échantillon de 100 pièces de la production est prélevé et le diamètre de ces pièces est vérifié.
Soit la variable aléatoire « nombre de pièces défectueuses » dans un échantillon de 100 pièces.

Approximation de la loi binomiale par la loi normale

Lorsque ) est grand, “ est grand (“ M 15), on peut approcher la loi de Poisson par une loi
normale. Ainsi,

N “ ≈ ;€“; √“•

Ici également, une correction de la continuité est nécessaire.

3. Les lois issues de la loi normale


3.1. Loi de Khi-Deux

La loi du khi-deux (ou « khi carré ») est une loi de probabilité continue définie sur l'ensemble des
réels positifs ℝ‡ . Sa densité dépend d'un paramètre appelé nombre de degrés de liberté, noté
), avec ) ∈ ℕ∗ .

65
Définition : soient Z1, Z2 ,K, Zn des variables aléatoires indépendantes suivant des lois normales
N ( 0,1) . Alors la variable aléatoire
n
K =  Zi2 = Z12 + L + Z n2
2

i =1

suit la loi du Khi-Deux à degrés de liberté. On note K 2 → χ 2 ( n ) .

La distribution du khi-deux à ) degrés de liberté correspond à la distribution de la somme des


carrés de ) variables aléatoires indépendantes admettant une distribution normale centrée et
réduite.

normales, cette loi ne peut être définie que suℝ‡ r : la réalisation d'une variable du khi-deux
Remarque : Puisque la loi du khi-deux correspond à la loi de la somme de carrés de variables

n'est jamais négative.

Graphique d’une loi de

Soit K 2 → χ 2 ( n ) , alors E ( K 2 ) = n et var ( K 2 ) = 2 n

Soit K12 → χ 2 ( n ) et K 22 → χ 2 ( m ) alors K12 + K 22 → χ 2 ( n + m )

3.2. Loi de Student (T)

une loi de probabilité continue définie sur l'ensemble des réels ℝ. Cette loi est très utilisée dans la
La loi de Student (ou distribution ), du pseudonyme choisi par William Gosset (1876-1937), est

construction d'intervalles de confiance, pour établir la distribution de certaines statistiques de test

paramètre appelé nombre de degrés de liberté, noté ), avec ) ∈ ℕ∗ .


et notamment du test de Student ou test- . La densité d'une loi de Student dépend d'un

Définition : Soient Z et K 2 deux va indépendantes telles que Z → N ( 0,1) et K 2 → χ 2 ( n ) ,


alors la variable aléatoire

66
Z
T=
K2 / n
suit la loi de Student à n degrés de liberté. On note T → St ( n ) .

La distribution de Student à ) degrés de liberté correspond à la distribution d'un ratio de deux


variables indépendantes respectivement distribuées selon une loi normale centrée réduite et une
loi du khi-deux à ) degrés de liberté.

Graphique de la densité de la loi de Student

Soit T → St ( n ) , alors

pour n > 2 ; St ( n ) ≈ N ( 0,1) si n > 100


n
E (T ) = 0 pour n > 1 et var (T ) =
n−2

3.3. Loi de Fisher-Snédécor (F)


La loi de Fisher-Snedecor (ou loi de Fisher), du nom des statisticiens britannique Ronald Fisher

définie sur l'ensemble des réels positifs ℝ‡ . Cette loi est notamment utilisée pour caractériser la
(1890-1962) et américain George Snedecor (1881-1974), est une loi de probabilité continue

Fisher ou /-test. La densité d'une loi de Fisher dépend de deux paramètres ) et X qui
distribution de certaines statistiques de test sous l'hypothèse nulle et en particulier celle du test de

correspondent à des nombres de degrés de liberté, avec ), X) ∈ ℕ∗ × ℕ∗ .


Définition : Soient K12 → χ 2 ( n ) et K 22 → χ 2 ( p ) alors la variable aléatoire

K12 K 22
F=
n p
suit la loi de Fisher-Snédécor à degrés de liberté. On note, F → F ( n, p ) .

67
Graphique de la densité de la loi de Fisher

selon une loi du khi-deux, elle est définie sur ℝ‡ : la réalisation d'une variable de Fisher n'est jamais
Remarque : Une loi de Fisher étant définie comme la loi du ratio de deux variables distribuées

négative.
Soit F → F ( n, p ) ,
p p n+ p−2
alors E ( F ) = pour n > 2 et var ( F ) = 2 pour p > 4
p−2 n ( p − 2 )2 ( p − 4 )
Si F → F ( n, p ) alors 1 F → F ( p, n ) .

Activités

Exercice
Soit une variable suivant la loi normale , donc de moyenne 3 et d’écart-type 2. On veut
calculer les probabilités suivantes :
P ( X < 4 ) , P ( X < −1) , P ( X > 1)

Exercice :
Les spécifications d’un ordinateur portable précisent une autonomie (de fonctionnement sur
batterie) de 4h30. Après demande de précisions, il s’avère que l’autonomie en minutes est
distribuée suivant une loi normale .
1) Donner l’espérance et la variance de .
2) Quelle est la probabilité que l’ordinateur fonctionne moins de 4 heures ?
3) Quelle est la probabilité qu’il fonctionne plus de 5h30 ?

68
SEANCE 12

Objectifs : comprendre et utiliser les convergences en probabilité et surtout la loi des grands nombres.

Chapitre 6 : Convergences
Ce chapitre introduit un certain nombre de résultats d’approximation qui simplifie les analyses des
grands échantillons ou des échantillons de grandes tailles. Ce chapitre a pour objectifs :
─ d’étudier le comportement asymptotique d'une suite de variables aléatoires.
─ de comprendre les concepts de convergence en probabilité et de convergence presque sûre
─ de comprendre le concept de convergence en loi.
─ de permettre l’application de la loi faible des grands nombres.
─ de permettre l’application du théorème central limite.

1. Notion de convergence

La convergence fait souvent référence à l’analyse du comportement d’une suite (ou séquence) de
variables aléatoires, indicées par ) ∈ ℕ. Comme pour les suites de nombres, une suite de variables
aléatoires est une famille de variables aléatoires indexée par un entier strictement positif. Une suite de
variables aléatoires est généralement notée sous la forme „ ∈ℕ ou „ . Souvent en statistique, cette
suite est définie comme une fonction „ Š ™ , ⋯ , ™ ) d’autres variables aléatoires ™ , ⋯ , ™ .

aléatoires („ ) lorsque la dimension ) tend vers l’infini.


Définition : la théorie asymptotique consiste en l'étude des propriétés d'une suite de variables

2. Loi des grands nombres


La moyenne d’un échantillon aléatoire de variables aléatoires indépendantes et identiquement distribué
est appelé moyenne empirique. La moyenne empirique est utile pour résumer les informations d’un
échantillon aléatoire aussi de la même façon que la moyenne de la distribution de probabilité résume les
informations de la distribution. Dans cette section, on fait une connexion entre la moyenne de
l’échantillon et la valeur espérée des variables individuelles qui composent l’échantillon aléatoire.

2.1. Les inégalités de Markov et de Tchebychev


L’inégalité de Markov est relative à l’affirmation par rapport à la façon dont la moyenne de la
distribution peut être affectée par un petit déplacement (un déplacement de petite quantité) de
probabilité à une valeur arbitrairement grande. Cette inégalité fixe une borne à la façon dont la
probabilité peut être arbitrairement grande une fois que la moyenne est spécifiée.
Théorème : Inégalité de Markov. On suppose que est une variable aléatoire telle que .
Alors pour tout nombre réel ,

Preuve : par mesure de convenance, on suppose que a une distribution discrète pour laquelle la
fonction de densité de probabilité est . On a :

Ce qui suppose que a uniquement des valeurs non négatives ; tous les termes de la sommation sont
aussi non négatifs. Ainsi,

L’inégalité de Tchebychev est relative à l’idée selon laquelle la variance d’une variable aléatoire est une
mesure de l’étendue de sa distribution. Cette inégalité dit que la probabilité que soit loin de sa
moyenne est limitée par une quantité qui augmente lorsque la variance augmente.

Théorème : inégalité de Tchebychev. Soit une variable aléatoire X pour laquelle la variance existe.
Alors pour tout nombre

Preuve : soit , alors et . En appliquant l’inégalité de


Markov à , on obtient :

L’inégalité de Tchebychev est donc un cas particulier de l’inégalité de Markov.


Exemple : si , alors l’inégalité de Tchebychev donne le résultat suivant.

Ce résultat signifie que pour toute variable aléatoire donnée, la probabilité qu’elle soit différente de sa
moyenne par 3 fois ne peut pas excéder .

2.2. Propriété de la moyenne de l’échantillon ou moyenne empirique


On définit la moyenne empirique de variables aléatoires comme suit :

70
La moyenne et la variance de peuvent être facilement déterminées.

Théorème : moyenne et variance de la moyenne empirique. Soit un échantillon aléatoire issu


d’une distribution de moyenne et de variance . Soit la moyenne empirique. Alors,

Preuve :

Et

En d’autres termes, la moyenne de est égale à la moyenne de la distribution de laquelle l’échantillon


aléatoire est tiré, mais la variance de est la variance de la distribution multipliée par .

En utilisant l’inégalité de Tchebychev de , comme

On a pour tout nombre réel ,

Ou

Exemple : lancer d’une pièce de monnaie. Supposons qu’une pièce de monnaie est lancée fois de
façon indépendantes. Pour . Soit

La moyenne de l’échantillon est donc la proportion de face obtenue sur lancer. On va déterminer
le nombre de fois que la pièce devra être lancée pour avoir

Il existe deux façons de déterminer le nombre (inégalité de Tchebychev ou la loi binomiale).


Soit le nombre total de face obtenu lorsqu’on fait lancers. a une distribution
binomiale de paramètre . Ainsi,

Comme , on peut obtenir la relation de Tchebychev de la façon suivante.

71
, cette probabilité sera au moins égale .

Cependant, de la table de la loi binomiale, on a pour ,

Donc 15 lancers devraient être suffisants pour satisfaire les exigences de la probabilité demandée.

2.3. Loi des grands nombres

À partir de l’exemple précédent, on trouve que l’inégalité de Tchebychev n’est pas une bonne façon
pour déterminer la taille de l’échantillon pour un problème particulier mais sera utilisée pour prouver la
loi des grands nombres.

Supposons , une suite de variables aléatoires. Dit de manière vulgaire, cette suite converge vers
un nombre donné si la distribution de probabilité de devient de plus en plus concentré autour de
lorsque tend vers l’infini.

Définition : Convergence en probabilité. Une suite de variables aléatoires converge en probabilité


vers si

lim N |™ H 3| Ž Ð 0
→¤
On note : et se lit converge en probabilité vers . C'est-à-dire que converge vers en
probabilité si la probabilité que tombe dans chaque intervalle autour de , quelque soit la largeur de
l’intervalle, approche 1 lorsque tend vers l’infini.

Cette définition signifie que lorsque la dimension ) est suffisamment grande, la probabilité d'obtenir
une réalisation de ™ dont l'écart à la valeur 3 (en valeur absolue) soit plus grand qu'une valeur
arbitraires Ð (aussi petite que l’on souhaite), tend vers 0.

Condition nécessaire et suffisante à la convergence en probabilité


Soit une séquence de variable aléatoires ™ telle que :
lim ™ 3
→¤
lim ¸ ™ 0
→¤
Où 3 ∈ ℝ, alors la suite ™ converge en probabilité vers 3 lorsque ) → ∞.

Une des principales applications de la notion de convergence en probabilité est la loi faible des grands
nombres. La loi faible des grands nombres, telle qu'énoncée par Khintchine (1878-1959), stipule que la
moyenne empirique de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) converge en
probabilité vers l'espérance mathématique de ces variables.
72
Théorème : loi faible des grands nombres ou théorème de Khintchine. On suppose que forme un
échantillon aléatoire issu d’une distribution de moyenne , c'est-à-dire „ Ñ et de variance
¸ „ ` * . Soit la moyenne empirique. Alors,

Preuve :
Soit la variance de chaque égale à . De l’inégalité de Tchebychev pour tout réel ,

Définition : convergence presque sûre. Une suite de variables aléatoires converge presque
sûrement vers ou avec la probabilité 1, si

On note : et se lit converge presque sûrement vers .

Ce résultat signifie que lorsque ) tend vers l'infini, les réalisations de la variable ™ sont toutes égales à
la constante 3. La convergence presque sûre implique que lorsque ) tend vers l'infini, la suite de
variables aléatoires ™ tend vers une constante déterministe de façon certaine.

On montre que si converge vers avec la probabilité 1 (converge presque sûrement vers )
alors la suite converge aussi vers en probabilité. C'est-à-dire que converge vers en
probabilité.

Pour cette raison, la convergence avec la probabilité 1 ou presque sûre est appelée convergence forte
et la convergence en probabilité est appelée convergence faible. Pour mettre la différence entre les
deux concepts, le résultat précédent obtenu sur la loi des grands nombres est appelé loi faible des grands
nombres. C'est-à-dire :

La loi forte des grands nombres ou théorème de Kolmogorov peut être énoncée comme suit : si est la moyenne
empirique d’un échantillon aléatoire de taille issue d’une distribution de moyenne , alors

Note :

que soit la distribution des variables aléatoires ™ , ™* ⋯,. La seule hypothèse est que ces variables
Ce qu'il y a de remarquable dans la loi faible des grand nombres, c'est que ce résultat s'applique quelle

le cas du théorème de Khintchine). Que les variables ™; aient une distribution de Student, de Poisson,
doivent être indépendantes (et identiquement distribuées, avec les mêmes espérances et variances dans

du khi-deux ou une distribution non standard, leur moyenne empirique ™̅ converge toujours en
probabilité vers leur espérance.
73
Définition : convergence en moyenne quadratique. Une suite de variables aléatoire ™ , telle que |™ |* †
∞, converge en moyenne quadratique vers une constante 3, si lorsque ) tend vers l’infini :

|™ H 3|* † ]
Pour toute valeur ] Ž 0. On note la convergence en moyenne quadratique sous la forme suivante :
A.Ò
™ ÓÔ 3
A.Ò
Une façon équivalente de définir la convergence en moyenne quadratique est de poser que ™ ÓÔ 3 si :

lim (|™ − 3|* ) = 0


→¤
L'idée est toujours la même : la suite (™ ) converge vers une constante 3, si sa distribution est centrée
sur 3, c'est-à-dire que si (™ ) = 3 et si sa variance ((™ − 3)* ) tend vers 0 lorsque la dimension )
tend vers l'infini. La densité de la variable ™ devient alors extrêmement concentrée autour de la valeur
3.

Remarque : La convergence en moyenne quadratique implique la convergence en probabilité. Si


A.Ò i
™ ÓÔ 3 alors ™ → 3
la réciproque n'est pas nécessairement vraie.

3. Convergence en loi

La suite de variables aléatoires , non nécessairement indépendantes de fonction de répartition ,


converge en loi vers la variable aléatoire de fonction de répartition si en tout point de continuité
de , la limite de la fonction est égale à la fonction et on écrit :

La convergence est réalisée aux points de continuité de la fonction .

L’idée de la convergence en loi est la suivante: lorsque ) tend vers l'infini, la distribution de la variable
„ est identique à celle d'une autre variable aléatoire, notée „. Leurs fonctions de densité et de
répartition sont alors identiques pour toutes les valeurs admissibles sur le support de la loi de „.

4. Théorème central limite ou de la limite centrée

Le théorème central limite permet d'étudier la convergence en loi d'une transformée de la moyenne
empirique de variables aléatoires indépendantes. C'est sans conteste le théorème fondamental de la
statistique mathématique.

74
Un cas particulier

Soit , variables aléatoires indépendantes suivant toutes la même loi normale .


Pour tout , on a . Donc

Si on pose

De même, Pour tout , on a . Les variables aléatoires étant indépendantes,

Les variables aléatoires étant indépendantes et suivant une loi normale, leur somme
suit une loi normale et suit également une loi normale.

En conclusion, suit une loi normale

Comme on ne rencontre pas toujours des variables normales, il est nécessaire d’étudier quelle propriété
possède la variable aléatoire lorsque l’hypothèse de normalité des variables n’est plus satisfaite.

Théorème : soit , variables aléatoires indépendantes suivant la même loi (c'est-à-dire,


identiquement distribuées). On dit tout simplement qu’on a variables i.i.d, admettant une moyenne
et une variance . Pour suffisamment grand, la variable aléatoire , (la moyenne empirique)
suit approximativement une loi normale

En conséquence, pour suffisamment grand,

Le principal résultat du théorème central limite est que la transformée d'une moyenne empirique de
variables i.i.d. converge en distribution vers une distribution normale.

75
Activités
Exercice : montrer que „& converge en probabilité vers Ñ en vérifiant la condition nécessaire et
suffisante de la convergence en probabilité.

Exercice
On suppose que „ , ⋯ , „ issues d’un échantillon aléatoire de taille ) d’une distribution de moyenne
égale à 6.5 et de variance 4. Déterminer la valeur de ) pour que la relation suivante soit vérifiée :
N(6 ≤ „& ≤ 7) ≥ 0.8
„& est la moyenne de l’échantillon.

Exercice
Supposons qu’un échantillon de taille ) devra être choisit d’une distribution de moyenne Ñ et d’écart

valeur de ) pour laquelle la relation suivante sera satisfaite :


type égal à 3. Utiliser le théorème central limite pour déterminer approximativement la plus petite

N(|„& − Ñ| < 0.3) ≥ 0.95

Exercice

Un échantillon aléatoire de taille ) est tiré d’une distribution de moyenne Ñ et d’écart type `.
a. Utiliser l’inégalité de Chebyshev pour déterminer la plus petite valeur que ) peut prendre pour
`
N m|„& − Ñ| ≤ n ≥ 0.99
que la relation suivante soit vérifiée :

4
b. Utiliser le théorème central limite pour déterminer la plus petite valeur que devra prendre )
pour satisfaire approximativement la relation de la question (a)

76

Vous aimerez peut-être aussi