Vous êtes sur la page 1sur 14

Olivier J.J. MICHEL olivier.michel@unice.fr

Département EEA, UNSA Laboratoire LUAN UMR6525-CNRS

v1.Mars 06

Cours d’introduction à la théorie des probabilités et variables aléatoires Chapitre 1 : Probabilités

Ce document n’est pas destiné à se substituer au cours en amphi !Il est à la fois nécessairement incomplet et non suffisamment com- menté. Les exercices qui l’accompagne et qui seront traités en séance de TD sont réunis dans le fascicule Proba-TD-L3EEA

Table des matières

1 Introduction

3

2 Définitions

4

1 Vocabulaire

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4

2 Définition empirique de probabilité

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4

2.1 Postulat

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4

2.2 Probabilité a priori

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

5

3 Axiomes de calcul des probabilités

 

5

1 Mesures

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

5

2 Enoncé des axiomes

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

6

3 Conséquences élémentaires

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

6

3.1 Théorème des probabilités totales

.

.

.

.

.

.

.

.

.

.

.

.

.

6

3.2 Complémentaire

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

6

3.3 Addition des probabilités

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

3.4 Evénements contraires

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

4 Probabilité conditionnelle

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

8

4.1 Définition .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

8

4.2 Evénements indépendants

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9

4.3 Théorème de Bayes .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9

4 Applications

10

1

Démarche générale

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

 

1

2 Dénombrements .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

2.1 Arrangements

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

2.2 Permutations

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

11

2.3 Combinaisons

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

11

3 Loi binômiale, marche au hasard

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

4 Loi de Poisson

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

13

5 Loi multinomiale

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

14

 

2

1

Introduction

Considérons les deux expériences suivantes :

– Plusieurs lancés de dé, dans des conditions que l’on considère comme iden- tiques, ne donnent pas à chaque fois le même résultat.

– Expérience de lumière polarisée : On place deux systèmes (analyseur croisés et détecteurs) derrière un cristal de spath biréfringent éclairé par un faisceau lumineux. Le premier ensemble analyseur-détecteur est sensible à la polarisa- tion d’un des faisceaux issus du cristal de spath (le rayon ordinaire) alors que le second couple analyseur détecteur est sensible au rayon dit extraordinaire, de polarisation perpendiculaire à celle du rayon ordinaire. Si le flux lumineux devient si faible que l’on puisse considérer la cas d’un seul photon. Ce photon est indivisible, et donc un seul des deux couples analyseur-détecteur doit ’per- cevoir’ un signal. Il est aujourd’hui établi qu’il est impossible a priori de savoir quel détecteur sera ’éclairé’ par ce photon. Le résultat de l’expérience est donc totalement aléatoire.

Ces deux expériences très simples sont par essence très différentes. La nature aléa- toire, ou l’indétermination de ce que sera a priori le résultat de l’expérience vient dans le cas du lancé de dé, d’une très grande sensibilité de la trajectoire, de l’évo- lution et enfin du résultat, par rapport aux conditions initiales. Une très petite mo- dification -non perceptible- dans le lancé du dé conduit à un résultat différent. L’indétermination vient donc de notre incapacité à mesurer avec une précision ar- bitrairement grande l’ensemble des conditions initiales de l’expérience, voire de résoudre parfaitement de manière analytique ce problème de mécanique physique. Dans le cas de la lumière polarisée, c’est la nature même des photons qui conduit à l’indétermination a priori du résultat de l’expérience. Cette indétermination est intrinsèque et subsisterait quelque soit la précision -même infiniment grande- des mesures dont on dispose.

3

2

Définitions

1

2

2.1

Vocabulaire

Expérience aléatoire e i : C’est une expérience qui répétée plusieurs fois dans des conditions identiques (à la précision à laquelle on évalue que ces expé- riences sont identiques) ne donne pas toujours le même résultat.

Evénement aléatoire (E.A.) : C’est un événement qui est réalisé ou non selon que le résultat d’une expérience aléatoire appartient ou non à un sous ensemble ω de . Exemples : Pour un lancé de dé, l’E.A. ω = { 2, 3, 6} n’est réalisé que si le ré- sultat du lancé donne comme résultat 2, 3 ou 6.

Ensemble statistique : ensemble de N expériences aléatoires semblables et in- dépendantes les unes des autres. Il peut s’agir d’une même expérience répétée N fois ou encore d’un ensemble de N expériences identiques simultanées.

Fréquence : Soit un ensemble statistique de N expériences aléatoires, et un E.A. réalisé k fois sur cet ensemble. La fréquence de cet E.A. est définie par f = k Par construction, 0 f 1.

N .

Définition empirique de probabilité

Postulat

Il existe un nombre positif noté P (A ) compris entre zéro (0) et un (1), qui ca- ractérise l’E.A. A et tel que la fréquence f (A ) P (A ) lorsque le nombre N d’expériences aléatoires de l’ensemble statistique est très grand :

f (A )

= k

  lim N f (A ) = P (A )

N

Fréquence et probabilité ; La propriété suivante est connue sou sle nom de pro- priété de stabilité de la fréquence : Soient deux ensembles statistiques de N et N expériences aléatoires semblables, f et f les fréquences d’occurence de l’événe-

4

ment aléatoire A,

 

f (A ) = N , f (A ) = k

k

N

lim N f (A ) = P (A )

lim N

f (A ) = P (A )

2.2 Probabilité a priori

Il est bien entendu que pour déterminer la probabilité d’un E.A. de se réaliser, on ne peut envisager systématiquement un très large ensemble statistique. L’objectif est d’utiliser au mieux les connaissances dont on dispose sur la physique ou les conditions de réalisation de l’expérience aléatoire pour déterminer a priori la pro- babilité de l’événement aléatoire considéré. Exemple Les symétries d’un dé (non pipé) permettent d’affirmer a priori que lors d’un lancé, chaque face à la même probabilité (1/6) d’apparaître. De même, la probabilité d’obtenir une face montrant un nombre pair est 1/2.

3

Axiomes de calcul des probabilités

1

Mesures

Un ensemble est dit mesurable si

– Si A ⊂ , B ⊂ , alors

  ∪ B

A

A ∩ B = /

, où

/ est l’ensemble vide.

A ∪ A = Ω

– Si A ⊂ ⇒ A ∈ A est défini par

– Pour tout ensemble dénombrable d’indices notés i = 1,

  ∩ A = /

A

, M , ∀A i , alors

M i=1 A i

Une mesure µ sur est définie ainsi :

– A chaque sous ensemble A (événement aléatoire), on associe un nombre µ (A ) vérifiant

µ (A ) 0

µ (A ) est fini

– Pour tout ensemble fini d’indices notés i = 1,

i=1 M µ (A i )

5

M

, M et A = i=1 A i , µ (A )

2

Si les ensembles A i sont deux à deux disjoints,

Enoncé des axiomes

  A i ∩ A j =

/

M

i, j, i

= j

µ (A ) = i=1 µ (A i )

Axiome I : Tout problème de calcul de probabilité fait référence à un ensemble déterminé contenant des épreuves ω . est appelé "catégorie d’épreuves" ou espace de réalisation. A ⊂ est un E.A. comme sous-ensemble de lui- même est l’événement certain. / (ensemble vide) est l’événement impossible.

Axiome II : À tout événement A défini sur l’espace de réalisation est asso- ciée une mesure notée P (A ) qui est la probabilité de l’E.A. A. Par convention, P (Ω) = 1 et P ( /) = 0.

3

Conséquences élémentaires

3.1 Théorème des probabilités totales

Soit {A 1 , A 2 ,

, A M }une suite d’événements incompatibles entre eux, alors

P (

M

i=1 A i ) =

M

i=1 P (A i ), si

A i ∩ A j = /, i

= j

3.2 Complémentaire

Soient deux événements aléatoires A et B tels que B ⊂ A. L’événement aléatoire K est le complémentaire de B par rapport à A si

  ∩ B = /

K

K ∪ B = A

Les événements B et K étant disjoints, on obtient en appliquant le théorème des probabilités totales à ce cas particulier

P (A ) = P (B ) + P (K )

6

3.3

Addition des probabilités

Soient deux événements aléatoires A et B quelconques. Les notations suivantes seront utilisées dans la suite du texte, et sont équivalentes

P (A ou B ) = P (A + B ) = P (A ∪ B )

P (A

et

B ) = P (AB ) = P (A ∩ B )

Théorème : P (A + B ) = P (A ) + P (B ) P (AB ) Démonstration :

Si A ∩ B = /, ce théorème n’est que l’expression du théorème des probabilités totales dans ce cas particulier. Si A ∩ B = C :

Soient C a et C b les complémentaires de C par rapport à A et B respectivement. On a alors

A ∪ B

= C a ∪ C ∪ C b ∪ C

=

C a ∪ C ∪ C b

d’où, en passant aux probabilités, comme P (A ) = P (C a ) + P (C ) et P (B ) = P (C b ) + P (C )

P (A ∪ B ) = P (A ) P (C ) + P (C ) + P (B ) P (C ) = P (A ) + P (B ) P (C )

Des démarches identiques conduisent facilement à l’expression de la réunion finie de plusieurs événements aléatoires. On pourra à titre d’exercice établir l’égalité suivante

P (A + B + C ) = P (A ) + P (B ) + P (C ) P (AB ) P (AC ) P (BC ) + P (ABC )

3.4 Evénements contraires

Soient deux événements aléatoires A et B tels que

∩ B = /

A

  ∪ B = Ω

A

7

de manière équivalente, on eut écrire B = A . L’application des règles d’addition des probabilités du paragraphe précédent conduisent immédiatement à

  (AB ) = 0

P

(A + B ) = P (Ω) = 1

P

Généralisation : Ensemble complet d’événements Soient {A 1 , ldots, A M } des sous ensembles de (ou ce qui est équivalent, des événements aléatoires défi-

, M ) forment un ensemble complet ou

nis sur ). Ces événements A i , (i = 1, une partition de si

  P (A i A j ) = 0, i = j

P (A 1 + A 2 +

+ A M ) = P (Ω) = 1

Dans le cas particulier d’un ensemble complet équiprobable :

1

P (A i ) = P (A j ) = M , (i, j )

4 Probabilité conditionnelle

4.1

Définition

Soient deux événements aléatoires A et B, et C = A ∩ B = AB. Définition : La probabilité conditionnelle pour que A soit réalisé lorsque B est réalisé est

P (A|B ) = P P (B (C )

) = P (AB ) P (B )

Interprétation : dans ce cas, l’événement B est considéré comme l’événement de référence, ou l’événement total. La réalisation de A conditionnellement à B est en quelque sorte le nombre relatif de fois (ou la proportion) où l’événement A est réalisé quand seules sont considérées les réalisations de B. Règles de multiplication, égalité de Bayes :

P (AB ) = P (A|B )P (B )

Interprétation : Pour que A et B soient réalisés, il faut d’abord que B soit réalisé, puis que A soit réalisé, sachant que l’événement B est réalisé. On notera que ce raisonnement est parfaitement symétrique par rapport à A et B, de sorte que l’on a aussi P (AB ) = P (B|A )P (A )

8

4.2

Evénements indépendants

Définition : Deux événements A et B sont statistiquement indépendants si

P (A|B ) = P (A )

De manière équivalente, on aurait pu exprimer la condition d’indépendance sous la forme P (B|A ) = P (B ). On pourra établir à titre d’exercice l’équivalence de ces deux formulations. Théorème Une condition nécessaire et suffisante pour que deux événements aléa- toires A et B soient indépendants est

P (AB ) = P (A )P (B )

Démonstration :

Condition nécessaire : Si A est indépendant de B, alors P (A|B ) = P (A ). Or on

a vu que P (AB ) = P (A|B )P (B ) = P (B|A )P (A ) donc en remplaçant P (A|B )

par P (A ) dans la seconde équation, on obtient P (AB ) = P (A )P (B ) Condition suffisante : Si P (AB ) = P (A )P (B ), on sait par ailleurs P (AB ) = P (A|B )P (B ). En identifiant les seconds membres de chacune de ces équations, on obtient P (A|B ) = P (A ).

4.3 Théorème de Bayes

, A M }, de

probabilités respectives π i = P (A i ), i=1 π i = 1. Soient un événement aléatoire B et les probabilités conditionnelles de B par rapport à A i : p i = P (B|A i ).

Soit un ensemble complet d’événements (une partition de ) {A 1 ,

M

Théorème : La probabilité pour que A i soit réalisé lorsque B est réalisé est π i p i

P (A i |B ) =

j π j p j

Démonstration :

P (A i B ) = P (A i |B )P (B ) = P (B|A i )P (A i )

P (A i |B ) = P P (A (B i B ) )

=

P (B|A i )P (A i )

P (B )

puis si on exprime P (B ) à l’aide du théorème des probabilités totales (les A i formant une partition de ) :

P (B ) = P (BA j ) = P (B|A j )P (A j ) =

j

j

9

j

p j π j

En remplaçant P (B ) dans l’expression de P (A i |B ), on obtient le résultat annoncé dans le théorème, parfois aussi appelé "Théorème de probabilité des causes".

4

Applications

1

Démarche générale

On considère un événement aléatoire B associé à une expérience, dont on veut cal- culer la probabilité. L’idée est de décrire l’ensemble des réalisations possibles de

l’expérience à l’aide d’un ensemble complet équiprobable {A 1 ,

, A M }, P (A i ) =

M 1 , i (1,

, M ), tel que l’on puisse exprimer B sous la forme

B = A k 1 A k 2

A k L

{ k 1 , k 2 ,

, k L } ⊂ { 1, 2, 3,

, M }. Alors, la probalilité de B est donnée par

L

P (B ) = =1 P (A k j ) = L

j

M

Cette démarche le plus souvent de dénombrer les événements aléatoires A i pour lesquels B est aussi réalisé.

2 Dénombrements

On considère un ensemble de n objets distincts parfaitement discernables les uns

des autres, indéxé par i (1,

semble de k objets ( 1 k n ) ; deux sous ensembles se distinguent donc par leur valeur de k (leur cardinal), par la nature des objets qui le composent et éven- tuellement par l’ordre dans lequel sont "rangés" ces objets.

, n ). Parmi ces n objets, on définit un sous en-

2.1

Arrangements

Un arrangement est un sous ensemble ordonné de k objets. Le nombre d’arrange- ments de k objets choisis parmi n est donné par

A

k n !

n =

(n k )!

On établira cette formule à titre d’exercice.

10

2.2

Permutations

Parmi les k objets retenus, on peut distinguer différents arrangements possibles, en permutant par exemple leur position dans une liste. Le nombre de permutations possibles n’est autre que le nombre d’arrangement de k objets choisis parmi k est vaut donc (on rappelle que 0! = Γ(1) = 1) :

A k k = k !

2.3 Combinaisons

Le nombre de combinaisons de k objets se distingue du nombre d’arrangements par la fait que l’on n’accorde plus d’importance à l’ordre dans lequel on décrit l’ensemble des objets. Or on vient de voir que pour un ensemble de k objets, il y avait k ! permutations possibles. Il est alors immédiat que si C désigne ce nombre de combinaisons,

k

n

A n = k !C

k

k

n

soit encore

Propriétés

= C

k

C

n

(n

n

k )

0

C n = C = 1

n

0

k n !

C

n =

k !(n k )!

– Formule du binôme de Newton :

(a + b ) n =

n

i=1

i a i b n i

C

n

k

n

Rappel Les valeurs des C

s’obtiennent facilement à partir du triangle de Pascal,

k

n

construit à partir de la propriété (cf exercices) C

k

n

= C

1

1

+ C

k

n 1 :

n

= 0 1

n

= 1 1

1

n

= 2 1

2

1

n

= 3 1

3

3

1

n

= 4 1

4

6

4

1

n

.

= 5 1 .

.

5 10 10 5

1

11

3

Loi binômiale, marche au hasard

Loi de Bernoulli : Soient un événement aléatoire A et son complémentaire B = A , de probabilité respectives p et q , où q = (1 p ). Par construction A et B sont incompatibles, i.e. p (AB ) = 0. On considère alors N expériences aléatoires de Bernoulli semblables, qui prises toutes ensembles constituent une nouvelle expérience aléatoire U . On définit alors l’événement aléatoire A k associé à l’expérience U , pour laquelle A est réalisé k fois et B est réalisé (N k ) fois. Exemple : U peut être un ensemble de N lancés consécutifs d’une pièce au jeu de pile ou face ; ou encore une suite de N bits indépendants pour laquelle on relève les ’uns’ et les ’zéros’. Propriétés : L’événement A k est la réunion de toutes les configurations possibles (appelées complexions) pour lesquelles A est réalisé k fois. La probabilité d’une complexion particulière (notée par exemple A k 0 ) est

P (A 0

k ) = p k q (n k ) = p k (1 p ) (n k )

Par conséquent, la probabilité de l’événement A k s’obtient en additionnant les

probabilités (égales entre elles) de toutes les complexions possibles. Toutes les expériences élémentaires de Bernoulli qui constituent l’expérience U étant iden- tiques et indiscernables, le nombre de complexions équivalentes qui comptent k réalisations de A est donc le nombre de combinaisons de k événements parmi n ,

càd C

P (A k ) = C p k (1 p ) (n k )

n

. Finalement

k

k

n

Remarque : L’ensemble des A k , pour toutes les valeurs de k , doit constituer un ensemble complet, càd

n n

=0 P (A k ) =

k

k

=0

k

n

C

p k (1 p ) (n k ) = 1

Ce qui s’établit aisément à partir de la formule du binôme de Newton. Marche au hasard : A chaque top d’horloge, on fait un pas de longueur l à droite (sens positif) avec une probabilité p , ou un pas de longueur l à gauche avec une probabilité (1 p ). La probabilité que sur un ensemble de n pas, k pas soient réalisés vers la droite (et donc (n k ) vers la gauche ) est donnée par la loi binômiale :

P n (k ) = C p k (1 p ) (n k )

k

n

12

Il est alors immédiat de calculer la probabilité qu’après n pas l’abscisse du mar- cheur soit x , calculée en exprimant x en fonction de k :

x = kl (n k )l = (2k n )l

La probabilité que x = ml est donc égale à la probabilité que k = m +n (si k est entier) d’où

2

P (x = ml ) = C

n

m+n

2

p

m+n

2

(1 p ) mn

2

4 Loi de Poisson

La loi de Poisson s’obtient naturellement comme loi limite de la loi binomiale lorsque n → ∞, p 0, tout en maintenant le produit np = cste = λ . Nous éta- blirons cette convergence en loi après avoir introduit les fonctions caractéristiques dans un paragraphe ultérieur.

Interprétation Imaginons une expérience aléatoire consistant à compter un nombre d’événements k se produisant pendant un intervalle de temps T . Supposons par ailleurs que le nombre moyen des événements observés augmente linéairement avec T . Imagi- nons maintenant que T soit découpé en n intervalle t, de sorte que T = n t. Lorsque t 0, la probabilité p d’observer un événement sur cet intervalle tend naturellement vers 0, et on peut considérer que les seules probabilités pertinentes à prendre en compte sont donc les probabilités d’observer 1 ou 0 événement. Sur l’ensemble des n intervalles adjacents et indépendants entre eux la probabilité d’observer au total k événements n’a pas évolué, et vaut np = cste = λ . De plus, l’observation de 0 ou 1 événement sur un intervalle donné est une expérience de Bernoulli de paramètre p , répétée n fois de manière semblable : la probabi- lité d’observer k événements pendant T est donc une loi binomiale de paramètres (n, p ) pour laquelle n → ∞, p 0 et np = λ . Cette loi est donnée par

P (k ) =

e λ λ k

k !

Propriétés

P (0) = e λ , P (1) = λ e λ

– Normalisation :

=0 P (k ) = e λ

k

k

=0

λ

k

k ! = e λ e λ = 1

13

5

Loi multinomiale

On répète à nouveau n expériences aléatoires élémentaires identiques et indé-

pendantes entre elles. Les résultat d’une expérience peut être la réalisation de

, ou p M .

On a i=1 p i = 1.

La loi multinomiale exprime la probabilité que pour l’expérience totale (de n ex- périences élémentaires), on observe k 1 realisation de A 1 , k 2 realisation de A 2 , k M realisation de A M , avec i=1 k i = n .

,

A 1 , A 2 ,

ou A M , avec des probabilités respectives égales à p 1 , p 2 ,

M

M

La probabilité d’une complexion est p k 1 p

M . Le nombre de complexions pour le M-uplet (k 1 , k 2 , Finalement,

k

2

2

.

p

k

M

1

, k M ) est

n

!

k 1 !k 2 ! k

M !

P n (k 1 , k 2 ,

; k M ) = n !p k 1

k

1

p

k

2

1 !k 2 !

2

.

p

k

M

M

k M !

14